Plenarvorträge 1999

Vortrag am 10.12.1999
Rismag Gordesiani (Tbilissi), Korrespondierendes Mitglied der Philologisch-historischen Klasse:


„Die Argonautensage im Lichte der neuesten Forschung“

Die Argonautensage, eine der populärsten Sagen in der europäischen Geistesgeschichte, bietet der Forschung eine ganze Reihe von strittigen Fragen. Im Vortrag werden einige Probleme betrachtet, die sowohl für die antike Literatur als auch für die Kulturgeschichte der Alten Welt bedeutend sind. Ich nenne folgendes:

  • das Verhältnis zwischen Mythos (Mythologischem) und Märchen (Märchenhaftem) in der Argonautika; meiner Meinung nach sollten wir als ersten Teil der Geschichte (Phryxos und Helle) die Grundstruktur (das Programm der Aktion) des Märchens annehmen, die später in das System der Sage integriert wurde, im zweiten und dritten Teil (Argonautenexpedition, Ereignisse nach Rückkehr) entspricht die Basisinfonnation der Struktur (dem Programm der Aktion) des Mythos;
  • den Ursprung des zentralen Teiles des Mythos – des Raubes des Goldenen Vlieses; obwohl im Prozeß der Formierung der Sage einige Elemente der Handlung verschiedenen Einflüssen unterworfen sein könnten (mesopotamischen, hethitischen, kaukasischen), wurde meines Erachtens die Sage als ein System in Griechenland innerhalb der myknischen und geometrischen Epoche ausgebildet;
  • den Weg der Argonautenexpedition in der ältesten Version der Sage.

Obwohl in den antiken Quellen, wo die Lokalisierung des Landes von Aietes möglich ist, Aia immer mit Kolchis im Ostschwarzmeergebiet identifiziert wird, meinen jedoch einige Forscher, daß diese Identifikation erst später, nach der griechischen Kolonisation stattfand. In den ältesten Quellen war Aia noch nicht mit Kolchis verknüpft. Im Vortrag wird auf Grund nuer Ergebnisse der archäologischen Ausgrabungen auf Lemnos, in Troja und Kolchis und der neuen linguistischen Erkenntnisse gezeigt, daß die Kontakte zwischen mykenischer Welt und Westgeorgien schon im 2. Jahrtausend v.u.Z. existierten. Wie die neueste Forschung zeigt, spielte der Kaukasus im System der Beziehungen der vorklassischen Welt eine wichtige Rolle. Das alles gibt uns die Möglichkeit, zu behaupten, daß die griechisch-römischen Quellen bei der Identifizierung von Aia – Kolchis einen realen historischen Grund hatten.

 

Vortrag am 10.12.1999
Winfried Harzer (Dresden), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Molekulargenetische Analyse der muskulären Adaptation im Rahmen einer funktionskieferorthopädischen Behandlung – Zahntransplantation vom Kind auf ein Elternteil im Rahmen der kieferorthopädischen Extraktionstherapie“

1. Bei 30 % aller Kinder besteht eine Rücklage des Unterkiefers gegenüber dem Oberkiefer, die neben ästhetischer Beeinträchtigung zu Schwierigkeiten beim Kauen und Sprechen führen kann. Diese Gebißanomalie wird mit einer kieferorthopädischen Apparatur behandelt, mit welcher durch Beißübungen der Unterkiefer in eine mehr mesiale Lage geführt wird. Da diese Therapie am Wachsenden durchgeführt wird, soll es einerseits zum Knochenanbau sowie andererseits zur Adaptation der Kaumuskeln kommen. Während die knöchernen Umbauvorgänge weitgehend geklärt sind, gibt es über die muskuläre Anpassung kaum gesicherte Kenntnisse. Wegen der hohen Rezidivquote nach Therapieende wäre in einer fehlenden neuromuskulären Adaptation eine Ursache zu suchen. Dies um so mehr, da die allgemeine Muskelreifung und optimale Kraftentwicklung erst ca. drei Jahre nach Abschluß des knöchernen Körperwachstums erreicht wird. Ziel der eigenen Untersuchungen ist die Erarbeitung einer minimal invasiven molekulargenetischen Methode, die am Menschen einsetzbar ist, da die bisher durchgeführten Nadelbiopsien zu gewebeschädigend für kleinere Muskeln sind. Weiterhin soll die Proportion der unterschiedlichen Muskelfasertypen (fast twitch und slow twitch) und deren Verschiebung während des funktionskieferorthopädischen Trainingssprozesses erfaßt werden, um Ableitungen für die Tragedauer und Intensität der Geräte zu treffen. Im Tiermodell Schwein, welches hinsichtlich der Muskelmorphologie als auch -physiologie eine Übertragbarkeit auf den Menschen gestattet, wurde experimentell mit Hilfe von Aufbissen eine permanente Vorverlagerung des Unterkiefers erreicht. Aus den entnommenen Proben verschiedener Kaumuskeln wurde die m-RNA extrahiert, in c-DNA umgeschrieben und anschließend zur Quantifizierung der Proportionsverschiebung von zwei Isoformen für die schweren Myosinketten vom Typ I und Typ II eine Polymerase-Kettenreaktion (PCR) durchgeführt. Als Standard wurde die GAP- Dehydrogenase mitgeführt. Um Fehlermöglichkeiten durch Verwendung diees internen Standards auszuschließen, wird zur Quantifizierung zukünftig die kompetitive PCR angewandt. Schon nach vier Wochen kam es bei den Versuchstieren im M. masseter zu einer Steigerung der Synthese von schweren Myosinketten vom Typ I von 10 % auf 20 %. Die erfolgreiche Anwendung der entwickelten Methode wird nicht nur die oben beschriebenen Ziele im Fachgebiet der Kieferorthopädie lösen helfen, sondern kann auch in der Rehabilitation bei neuromuskulären Erkrankungen, wie z.B. Spastikern, die Trainierbarkeit und den Rehabilitationsfortschritt analysieren helfen.

2. Bei Kindern mit schwerem Zahnengstand müssen zum Platzausgleich im Rahmen der kieferorthopädischen Behandlung Prämolaren extrahiert werden. In einer Pilotstudie an bisher sechs Patienten wurden diese Zähne einem Elternteil transplantiert, sofern diese bereits Zahnlücken aufwiesen. Voraussetzung für eine derartige Zahnkeimtransplantation ist die hohe serologische Überereinstimmung (Histokompatibilität) von Kind und Elternteil, da nur in diesen Fällen mit einer bis zu fünfzehn Jahren verzögerten Resorption der Zahnwurzel gerechnet werden kann. Der eigene Beobachtungzeitraum über einen positive Verlauf beträgt bisher sechs Jahre.

 

Vortrag am 12.11.1999, Öffentliche Gesamtsitzung
Richard Saage (Halle/Wittenberg) Ordentliches Mitglied der Philologisch-historischen Klasse:


„Die moderne Utopie und ihr Verhältnis zur Antike“

Das Verhältnis der neuzeitlichen Utopie zu den überlieferten antiken Quellen, die der jeweils kritisch betrachteten Gegenwart das Bild einer besseren gesellschaftlichen Alternative gegenüberstellten, ist umstritten. Die eine „Schule“ hält es für ausgemacht, daß das utopische Denk in der Nachfolge Morus’ nichts weiter ist als eine elaborierte Fußnote zu Platons Politeia. Die andere Richtung geht von der Annahme aus, daß es weder in der griechischen noch in der römischen Antike Denkmuster gegeben hat, die identisch mit der frühneuzeitlichen Utopie seien, wie Morus sie in klassischer Weise konzipierte. So hat Moses I. Finley dezidiert darauf hingewiesen, daß von antiken Utopien nur reden könne, wer diese mit Mythen gleichsetze: eine Identifikation, die jeder Grundlage entbehre.

In meinem Vortrag wird versucht, zwischen diesen Positionen zu vermitteln. Wenn Mythos und Utopie auch zwei grundsätzlich zu unterscheidende Paradigmen der Realitätsbewältigung darstellen, so gibt es dennoch zwischen ihnen gemeinsame Schnittmengen wie die Annahme der Vervollkommnungsfähigkeit der Menschen und die dichotomische Gegenüberstellung eines gelungenen Lebens mit den bedrückenden Verhältnissen der Herkunftsgesellschaft. Vor allem hat Andreas Voigts Unterscheidung aus dem Jahr 1906 zwischen archistischer, d.h. herrschaftsbezogener und anarchistischer, d.h. staatsfreier Utopie im antiken Denken Vorläufer.

Die einschlägigen mythologischen Konstrukte der Antike sind zwar nicht identisch mit diesen beiden großen Gattungen utopischer Einwürfe. Doch läßt sich zeigen, daß sie eine konstitutive Rolle in der Entstehungsgeschichte der modernen Utopie spielen. Ohne auf eine offene oder verschwiegen Teleologie zurückzugreifen, geht es also in diese Vortrag um den Nachweis, daß einerseits die antiken archistischen und anarchistischen Muster in der Frühen Neuzeit auch tatsächlich rezipiert, zugleich aber aufgrund des einsetzenden Modernisierungsdrucks charakteristisch umgestaltet wurden: Erst die die Kontinuität des antiken Traditionszusammenhanges durchbrechende Differenz ist identisch mit dem unverwechselbaren authentischen Profil der modernen Utopie.

 

Vortrag am 12.11.1999, Öffentliche Gesamtsitzung
Felix Zintl (Jena), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Knochenmarktransplantation (KMT) im Kindesalter – Möglichkeiten und Grenzen“

Das Knochenmark ist für die Blutbildung verantwortlich und damit ein lebensnotwendiges Organ. Die hämatopoetische zelluläre Rekonstitution mit Blutstammzellen aus Knochenmark oder peripherem Blut ist eine klinisch etablierte Behandlungsmethode für zahlreiche hämatologische, onkologische und immunologische Erkrankungen. Das Ziel der Knochenmarktransplantation ist es, fehlende oder maligne Zellen des Patienten durch normale hämatopoetische und immunokompetente Zellen zu ersetzen. Im Knochenmark enthaltene, sich selbst replizierende Stammzellen sind in der Lage, Erythrozyten, Granulozyten und Zellen des Monozyten-MakrophagenSystems, Megakaryozyten und immunkompetente T- und B-Lymphozyten zu generieren. Die Knochenmarktransplantation beinhaltet eine Behandlung mit myeloablativer Chemo-lRadiotherapie mit nachfolgender intravenöser Übertragung von eigenem Mark des Patienten (autologe KMT) oder Mark eines Spenders (allogene KMT). Mögliche andere Quellen von hämatopoetischen Stammzellen sind peripheres Blut und Nabelschnurblut. Die Entdeckung des humanen Leukozyten-AntigenSystems (HLA-System) in der zweiten Hälfte der sechziger Jahre brachte für den klinischen Einsatz der KMT eine entscheidende Wende. Die erste erfolgreiche Transplantation wurde danach 1968 bei einem Kind mit einem schweren kompletten Immundefekt durchgeführt. Meilensteine in der weiteren Entwicklung waren die Etablierung der supportiven Therapie bei Patienten ohne Knochenmarkfunktion, Fortschritte bei der Diagnostik des HLA-Systems sowie Definition, Prophylaxe und Therapie der sogenannten Graft-Versus-Host-Disease („GVHD“), einer immunologischen Reaktion des transplantierten Markes gegen den ,,fremden" Wirt. Die Tatsache, daß nur für etwa 25 % der Patienten ein Geschwister als Spender zur Verfügung steht, hat die Transplantationsfrequenz mit Stammzellen alternativer Spender (identische Fremdspender oder haploidentische Familienspender) forciert. Eine Knochenmarktransplantation sollte für alle Patienten in Betracht gezogen werden, für die alternative Behandlungen mit größerer Wahrscheinlichkeit auf eine Heilung nicht zur Verfügung stehen.

Indikationen für eine derartige Behandlungsmethode sind erworbene (z.B. akute und chronische Leukämien) und genetische Erkrankungen (Immundefekte, Speicherkrankheiten, kongenitale Knochenmarkdefekte). Die Tatsache, daß das Immunsystem, als Voraussetzung für eine erfolgreiche Transplantation, völlig zerstört werden muß, bringt in der Folge besondere Probleme mit sich. Die Erfolgschancen richten sich nach der Grunderkrankung und dem Krankheitsstadium. Diese im Intensivmedizinbereich angesiedelte Behandlungsmethode bietet jedoch etwa zwei Dritteln von Kindern mit konventionell nicht beeinflußbaren Erkrankungen eine Heilungschance.

 

Vortrag am 8.10.1999
Horst Fuhrmann (Regensburg), Korrespondierendes Mitglied der Philologisch-historischen Klasse:


„Ignaz von Döllinger: Ein exkommunizierter Theologe als Akademiepräsident und Historiker“

Wenn es um einen Exkommunizierten der katholischen Kirche geht, hat unter den Gelehrten des 19. Jahrhunderts kaum ein Fall solches Aufsehen erregt wie der des Münchner Professors der Theologie und Stiftspropstes Ignaz von Döllinger (1799–1890). Zunächst ein treuer Sohn der Kirche, ein streitbarer Verteidiger des politischen Katholizismus, verweigerte er sich 1870 den Dogmen der Unfehlbarkeit und der universalen Bischofsmacht des Papstes aus Gründen historischer Wahrheit, wie er sie verstand, und wurde, weil er die Beschlüsse des Ersten Vatikanischen Konzils kompromißlos nicht anerkannte, exkommuniziert. Seine Stimme ermunterte vornehmlich katholische Intellektuelle, sich von der Amtskirche zu trennen und eine eigene Kirche zu gründen: die Altkatholiken. Jedoch der aus der Kirche ausgestoßene Döllinger schloß sich dem Altkatholizismus nicht an: „Ich bin kein Altkatholik, sondern ein exkommunizierter Katholik.“ Döllinger entfaltete, über 70 Jahre alt, eine neue Tätigkeit, die eines Präsidenten der Bayerischen Akademie der Wissenschaften, und gewann großen Einfluß auf die öffentliche Meinung; er löste sich von streng orthodoxen katholischen Ansichten und entwickelte ökumenische Gedanken, die in die Zukunft wiesen. 1999, fast 130 Jahre später, feierte die „amtskirchliche“ katholische Fakultät der Münchner Ludwig-Maximilians-Universität mit Billigung und sogar Zuspruch des Erzbischofs von München und Freising in einem eigenen Kolloquium den 200. Geburtstag des Exkommunizierten (* 28. Februar 1799), den 1871 der Amtsvorgänger des jetzigen Metropoliten aus der Kirche ausgeschlossen hatte. Und nicht nur das: am Ende der Veranstaltung stand ein Gedenkgottesdienst für den Exkommunizierten Döllinger in der Universitätskirche, bei dem der Dekan der Katholisch- Theologischen Fakultät die Festpredigt hielt. Zwar ist die Exkommunikation nicht aufgehoben, aber es findet so etwas wie eine Eingliederung statt.

Der Vortrag gilt der mit Erwartungen beladenen Lebenszeit Döllingers nach der Exkommunikation, denn Döllinger war der Überzeugung, daß die 1870 verkündeten Dogmen der Unfehlbarkeit und des Universalepiskopats des Papstes auf Fälschungen beruhten, wie überhaupt das gesamte „Papalsystem“ sich mit historisch lauteren Quellen nicht belegen ließe. Die im Titel vorgenommene Zusammenstellung von Präsident und Historiker mag unstimmig erscheinen; der Akademiepräsident bekleidet ein temporäres Amt, Historiker jedoch ist man durch Beschäftigung mit einem geschichtlichen Stoff. Die Unstimmigkeit ist beabsichtigt: das Zeugma des Akademiepräsidenten und des Historikers strebt danach, einen bestimmten Sachverhalt anzudeuten: die Parallelität der Akademiepräsidentschaft mit einem sich immer stärker als Historiker darstellenden Döllinger, der allerdings das große historische Belegwerk zur Primatsfrage schuldig geblieben ist und statt dessen das Genre des historischen Vortrag-Essays auf hohem Niveau gepflegt hat.

 

Vortrag am 8.10.1999
Klaus Beyer (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Wirkung, Krümmung und Stabilität“

Seit jeher spielt die Formulierung der Naturgesetze in Form von Extremalprinzipien eine ausgezeichnete Rolle. Dabei wird das Verhalten eines physikalischen Systems durch die Forderung beschrieben, daß die Evolution des Systems eine gewisse Zielgröße minimiert: Nature does nothing in vain, and more is in vain wheen less will serve; for nature is pleased with simplicity and affects not the pomp of superfluous causes (Newton). Das in Rede stehende Ziel hat die Dimension Energie x Zeit und wurde von dem französischen Mathematiker und Astronomen Pierre-Louis Moreau de Maupertuis (1698–1759), einem Vorschlag Leibniz' folgend, "Wirkung" genannt.

Im ersten Jahrhundert n. Chr. zeigte Hero von Alexandria, daß ein von einem Objekt kommender Lichtstrahl, der über einen Spiegel das Auge des Beobachters trifft, einen Weg nimmt, der kürzer ist als jeder andere Weg vom Objekt, via Spiegel, zum Auge. Damit war eine "Erklärung" für das beobachtete Verhalten des Lichtstrahis gefunden. Vom gleichen Aristotelischen Gedanken einer ökonomischen Natur geleitet, formulierte der französische Mathematiker und Rechtsanwalt Pierre de Fermat um 1660 sein Prinzip von der Lichtbewegung in der kürzesten Zeit. Fermats Prinzip beschrieb auch die Lichtbrechung und implizierte u.a. die (experimentell erst zwei Jahrhunderte nach Fermat gezeigte) Tatsache, daß sich Licht in einem optisch dichteren Medium langsamer bewegt.

Euler, Lagrange und Hamilton gaben dem Maupertuisschen Prinzip der kleinsten (mechanischen) Wirkung die endgültige Form. Wie die Mechanik lassen sich auch Elektrodynamik, Relativitätstheorie und Quantenmechanik durch Extremalprinzipien beschreiben. Mit den Einsteinschen Gravitationsgleichungen, deren (Einstein-Hilbert-)Wirkung aus der raum-zeitlichen „Krümmung“ zu berechnen ist, begann die „Geometrisierung“ der Physik: Die Einsicht in die Krümmungsverhältnisse bietet einen Schlüssel zum Verständnis der Naturgesetze. Der von Carl Friedrich Gauß 1828 in seinen „Disquisitiones generales circa superficies curvas“ mathematisch gefaßte Krümmungsbegriff ist aus dem Alltag wohlvertraut. Zum Beispiel kann die stark gekrümmte Kurve zum Verhängnis des Autofahrers werden, die vom Architekten glücklich gewählte Krümmung führt zu statischer Stabilität und ausgewogener Form einer Überdachung etc. In dem neuen Licht erscheint auch die (für Radio- und Fernsehübertragung grundlegende) Maxwellsche elektromagnetische Wirkung als Krümmungsinvariante. Die Linie setzt sich fort bis hin zu den Wirkungsprinzipien der Quantenfeldtheorie.

Es scheint klar zu sein, daß Krümmung auch mit „Stabilität“ (Sensitivität, Störungsempfindlichkeit) in Verbindung zu bringen ist. Akzeptiert man die weitere Abstraktion, so läßt sich etwa die Unzuverlässigkeit von Wettervorhersagen aus der ungünstigen Krümmung einer Lieschen Gruppe ableiten. Mit Wigner dagegen bleibt das Staunen über die unerklärliche Effektivität der Mathematik in den Naturwissenschaften.

 

Vortrag am 11.6.1999
Georg Schmidt (Jena), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Vorläufige Thesen zu: Die „deutsche Freiheit“ in der ständischen Gesellschaft“

  1. Der deutsche Untertan und seine Obrigkeitshörigkeit sind sprichwörtlich. In frühneuzeitlichen Texten finden sich aber häufig Begriffe wie „teutsche Libertät“ oder „deutsche Freiheit“. Von der Forschung sind sie bisher nur im Sinne von „reichsständischer Freiheit“ wahrgenommen worden.
  2. Das Begriffsfeld „deutsche Freiheit“ steht jedoch zwischen den mittelalterlichen Freiheiten und der Freiheit, die in der Französischen Revolution festgeschrieben wurde, und transportiert ganz unterschiedliche Inhalte. Dazu zählte die im Laufe der Frühen Neuzeit immer umfassender werdende (Eigentums-) Freiheit, die im 18. Jahrhundert auch als Recht zur freien Entfaltung des Individuums verstanden wurde. Diese deutsche Freiheit war ein überregionales, überständisches und überkonfessionelles nationales Deutungsmuster, das sich auch gegen innere wie äußere Feinde richten ließ und gerichtet wurde.
  3. Selbst Leibniz, der mit seinem Satz „was ist edler als die teutsche Freiheit …“ eine Art Motto liefern könnte, der aber eigentlich nur die reichsständische Freiheit thematisiert, weist diejenigen zurück, die „dafür halten die Teutsche freyheit beruhe nur in wenigen, denen die übrigen dienen müßen, und betreffe also die unterthanen nicht“.
  4. Fazit: Die deutsche Freiheit steht:
    • für das Zusammenspiel von Kaiser und Ständen, in dem keine Seite die andere dominieren sollte, das nicht chaotisch und destruktiv, sondern föderalistisch war;
    • für eine gesetzmäßige, rechtliche Freiheit, für gewisse, wenn auch nicht absolut geltende Grundrechte und für noch größere Freiheitshoffnungen aller Deutschen vor 1806. Das Schlagwort hat angleichend gewirkt – auch im Sinne nationaler Abgrenzungen.
  1. Die deutsche Freiheit steht allerdings nicht für Ideen und Handlungsmuster, bei denen Freiheit und Unfreiheit dialektisch gegeneinander ausgespielt werden. So wie sie in der Frühen Neuzeit als Norm, integrative Wertvorstellung und Zukunftsprojektion verwandt wurde, läßt sie sich nicht gegen die Ideen von 1789 ins Feld führen, sondern gehört mit zu deren Voraussetzungen. Schon gar nicht läßt sie sich für Führer- und Gefolgschaftsdenken oder ähnliche mit dem mythischen Rückgriff auf die Germanen begründete Vorstellungen vereinnahmen.
  2. In einem Forschungsprojekt sollen zunächst alle Facetten der „deutschen Freiheit“ aufgearbeitet werden. In einer zweiten Phase müßten die Freiheitsvorstellungen der einzelnen europäischen Nationen vergleichend analysiert werden, um schließlich der Frage nachgehen zu können, ob sich hinter diesen nationalen und nicht selten gegeneinander gerichteten Freiheitskonzepten nicht möglicherweise doch eine gemeinsame europäische Idee verbirgt: die auf das Individuum bezogene Freiheit als ein Grundpfeiler europäischen Denkens.

 

Vortrag am 11.6.1999
Dieter Michel (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Kritische Phänomene an strukturellen Phasenübergängen in Festkörpern“

Kritische Phänomene treten in vielfältiger Form in allen Bereichen der Physik auf. Trotz dieser großen Vielfalt zeichnen sich die kritischen Phänomene durch Gemeinsamkeiten aus, die von den Eigenschaften der Substanz unabhängig sind. Zu diesen Gemeinsamkeiten zählen die „Universalität“ und das „Skalenverhalten“. Sie sind daher gut geeignet, um theoretische Konzepte zur Behandlung solcher Eigenschaften von Festkörpern zu testen, bei denen vor allem ihr Charakter als Vielteilchensystem die wesentliche Rolle spielt und wo der Bezug zum Experiment in besonders klarer Weise zum Ausdruck kommt. Im Hinblick auf Universalität und Skalenverhalten trifft die Renormierungsgruppentheorie allgemeine und exakte Vorhersagen, deren genauerer Test die Physiker gegenwärtig intensiv beschäftigt.

Ziel des Vortrages ist es, die vorliegenden theoretischen und experimentellen Resultate zu diesem Problemkreis im Überblick zu diskutieren. Im Mittelpunkt werden dabei die theoretisch konzeptionelle Fundierung der in enger Kooperation mit Professor Jörg Petersson von der Universität des Saarlandes durchgeführten eigenen experimentellen Arbeiten und die Beschreibung der wesentlichen Ergebnisse zum Studium der mit dem Phasenübergang verbundenen elementaren Anregungen stehen. Es werden dabei Untersuchungen an Festkörpern durchgeführt, bei denen Phasenübergänge stattfinden, die von einer inkommensurablen Struktur des Festkörpers begleitet sind. Dabei kommt es unterhalb einer bestimmten Temperatur zu einer periodischen Modulation der Positionen aller Atome mit einer Länge der Perioden, die im Bezug auf die Periodizität des Gitters nur durch eine irrationale Zahl zu beschreiben ist, d.h. inkommensurabel ist. Es findet also im Gegensatz zu einem Übergang in eine andere Phase mit einer kommensurablen Struktur beispielsweise keine Vervielfachung der Größe der Elementarzelle statt, sondern der Festkörper „verliert“ seine Translationssymmetrie (bei den betrachteten Systemen in einer Richtung). Diese Situation stellt einen speziellen Fall einer Pseudosymmetrie dar. Im Hinblick auf die bereits erwähnten theoretischen Konzepte der Renormierungsgruppentheorie ist dann von einer Universalitätsklasse mit einem zweikomponentigen Ordnungsparameter auszugehen, was sich im vorliegenden Falle durch die Amplitude und die Phase der inkommensurablen Modulation verstehen läßt. Dies ist äquivalent mit einer Darstellung des Ordnungsparameters als einer komplexen Größe. Die Amplitude ist dabei gegeben durch den Mittelwert der inkommensurablen Verschiebung der Atome, der mit zunehmender Abweichung von der Phasenübergangstemperatur in der inkommensurablen Phase nach einem Potenzgesetz anwächst. Nach diesem Gesetz ist der kritische Exponent unter bestimmten Voraussetzungen definiert.

Der wesentliche Punkt unserer Untersuchungen ist die Tatsache, daß sich der Ordnungsparameter direkt mit Hilfe der magnetischen Kernresonanzspektroskopie messen läßt. Dazu sind Messungen an solchen Kernspinmomenten (mit Kernspinquantenzahlen größer als ½) erforderlich, bei denen die Spektren durch die Verteilung der lokalen elektrischen Felder bestimmt sind und wobei die Meßgröße direkt proportional zu einer bestimmten Komponente des Gradienten des elektrischen Feldes ist (d.h. der räumlichen Veränderung des elektrischen Feldes in der Umgebung der Meßsonde [des Kernspinmomentes], die nicht nur durch eine Größe, sondern durch den „Tensor“ des elektrischen Feldgradienten zu beschreiben ist, im vorliegenden Fall maximal fünf verschiedene Komponenten). Es ist dabei ein Verfahren entwickelt worden, bei dem die Interpretation dieser Messungen allein auf der Grundlage der Analyse der Supersymmetriegruppe der untersuchten Festkörper vorgenommen wird. Mit deren Hilfe kann dann eindeutig begründet werden, welcher Zusammenhang zwischen der Meßgröße und dem Ordnungsparameter bzw. dem bei bestimmten Symmetriebeziehungen ebenfalls direkt zugänglichen mittleren Quadrat des Ordnungsparameters besteht. Diese Messungen werden kombiniert mit dem Studium des Charakters der Fluktuationen der Gitteratome, d.h. der kritischen Verlangsamung der kollektiven Bewegung der Atome bei Annäherung an den Phasenübergang. Dazu eignen sich die Messungen der sogenannten Spin-Gitter-Relaxations-Raten, die durch die Geschwindigkeit des Energieaustausches zwischen dem Ensemble der Kernspins und den kollektiven Fluktuationen des Kristallgitters bestimmt sind.

Auf diese Weise lassen sich verschiedene kritische Exponenten eindeutig und mit einer relativ großen Genauigkeit messen und direkt und/oder an Hand der Skalenrelationen mit den Ergebnissen der Renormierungstheorie in Verbindung bringen. In Übereinstimmung mit den bereits formulierten Erwartungen und damit dem Konzept dieser Arbeiten sind bei unterschiedlichen Verbindungen, die auf Grund der Symmetrieanalyse derselben Universalitätsklasse zuzuordnen sind und bei denen die Fluktuationen die gleiche Natur besitzen, gleiche Aussagen erzielt worden. Dies stellt einen wichtigen Hinweis auf die Richtigkeit der Interpretation im vorliegenden Fall dar, die auf der Grundlage des 3d XY Modells erfolgt (mit dreidimensionalen Fluktuationen, d=3 und n=2 Komponenten des Ordnungsparameters).

Abschließend kann der Vortragende nicht umhin, auch auf die immer noch nicht beendete Diskussion zu diesen Arbeiten einzugehen, die vor allem von den Theoretikern und Experimentatoren geführt wird, die bisher die Eigenschaften dieser Systeme auf der Grundlage der bekannten phänomenologischen Landau- Theorie der Phasenübergänge beschrieben haben. Weiterhin wird auf die in der Fachliteratur beschriebenen, noch nicht beendeten weiteren (Präzisions-) Experimente zu kritischen Phänomenen am superfluiden Phasenübergang von He4 unter Mikrogravitationsbedingungen (im Weltall) hingewiesen, in deren Mittelpunkt das kritische Verhalten der spezifischen Wärme steht und wofür das gleiche Modell relevant ist.

 

Vortrag am 11.6.1999
Eberhard Kallenbach (Ilmenau), Ordentliches Mitglied der Technikwissenschaftlichen Klasse:


„Mechatronik – ein interdisziplinäres Wissenschaftsgebiet?“

Viele moderne technische Erzeugnisse, die wir in unserem täglichen Leben benutzen, z.B. Fotoapparate, Videorecorder, Faxgeräte, Computer mit motorischen Datenspeichern, aber auch Automobile, zeichnen sich dadurch aus, daß sie vorwiegend aus mechanischen und einer wachsenden Zahl informationstechnischer Komponenten (Hard- und Software) bestehen, die ihren Gebrauchswert entscheidend beeinflussen. Diese Tendenz gilt für nahezu alle modernen technischen Produkte, z.B. Roboter, Geräte der Medizintechnik, Werkzeug- und Elektronikmaschinen, aber auch Flugzeuge, ja ganze automatisierte Fabriken.

Zuerst wurde der Begriff Mechatronik vor 28 Jahren in Japan geprägt und war 1975 das Markenzeichen für ein Programm der japanischen Regierung, mit dem die Entwicklung weltmarktsfähiger Produkte in der japanischen Industrie mit Erfolg nachhaltig gefördert wurde.

Erst im letzten Jahrzehnt hat sich der Begriff Mechatronik weltweit durchgesetzt und ist heute zum Inbegriff für eine interdisziplinäre Arbeitsweise in der Technik schlechthin geworden. Im Vergleich zu klassischen Produkten des Maschinenbaues kann man mechatronische Produkte durch folgende Merkmale charakterisieren:

  • Ihre Funktion beruht auf dem Zusammenwirken heterogener Teilsysteme, wobei der Informationsverarbeitung auf der Basis von Mikroprozessoren eine funktionsbestimmende Rolle zukommt.
  • Ihre Eigenschaften werden in hohem Maße durch nichtmaterielle Elemente (Software) bestimmt.
  • Mechatronische Produkte sind im Vergleich zu klassischen Produkten durch eine größere Anzahl von mehr oder weniger stark verkoppelten Teilfunktionen in Form von Nutz- und Störfunktionen gekennzeichnet.
  • Mit Hilfe der automatischen Steuerung kann ihr Funktionsbereich flexibel an spezielle Kundenforderungen angepaßt werden.

Die Aufgabe der Mechatronik als Wissenschaftsgebiet ist die Entwicklung der wissenschaftlichen Voraussetzungen für einen effektiven Entwicklung von Systemen mit hoher Komplexität und Heterogenität, der nur auf einer methodischen Basis und mit leistungsfähigen Werkzeugen (Rechnern und Softwareprogrammen) möglich ist. Dabei wird ein funktionell und räumlich integriertes Gesamtsystem angestrebt, das die Gütefunktion als Ganzheit optimal erfüllt.

Während die Mechatronik bisher vor allem auf den Erkenntnissen der einzelnen Wissenschaftsdisziplinen aufbaute, wirkt sie zunehmend mit wissenschaftlichen Fragestellungen auf diese zurück. Es findet eine gegenseitige Befruchtung statt, die als Zeichen für eine eigenständige Entwicklung der Mechatronik als interdisziplinäres Wissenschaftsgebiet der Ingenieurwissenschaften angesehen werden kann. Die Entwicklung von Studiengängen Mechatronik an Universitäten im In- und Ausland und der ständig steigende Bedarf an interdisziplinär ausgebildeten Ingenieuren unterstreichen diese Tendenz. Im Vortrag werden die Besonderheiten mechatronischer Systeme an Hand ausgewählter Beispiele demonstriert.

 

Vortrag am 14.5.1999
Hans Grüß (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:
Thematische Klassensitzung (unter Beteiligung der Kommission Kunstgeschichte, Literatur- und Musikwissenschaft)


„Generalthema „Wertvorstellungen“ – Kunst und Kunstwert“

Angesichts der gestellten Aufgabe zu formulieren, worin der Wert eines Kunstwerkes gleich welcher Art bestehen könnte, ergibt sich eine bereits aufgefächerte Zahl und Form von Antworten.

Zum ersten gibt es wohl in unserer europäischen Kulturlandschaft gegenwärtig kein Kunstwerk, das nicht in irgendeiner Form einen Marktwert hat. Angefangen bei berühmten Bildern, deren Preise in ausreichend deutlichem Maße aus den Kunstmarktberichten der Presse entnommen werden können, bis hin zu den Eintrittspreisen, die bei ausgewählten Konzerten der Rockszene bezahlt werden, ist abzulesen, daß der bezahlte Preis in irgendeiner Weise einer Eigenschaft des betreffenden Kaufgegenstandes entsprechen muß. Ebenso deutlich ist aber, daß der Preis nur die äußere Erscheinung einer bestimmten Qualität des Objekts oder des Vorgangs ist, um den es geht. Dieser Qualität bzw. dieser Charakteristik nachzufragen war Gegenstand einer Reihe von Untersuchungen, die von Mitgliedern der Kommission für Kunstgeschichte, Literatur- und Musikwissenschaft unserer Akademie angestellt wurden und in ihren Ergebnissen bereits in den Arbeitsblättern nachzulesen sind.

Zusammenfassend kann folgendes gesagt werden: Der Kunstcharakter eines Objektes ist stets ableitbar von einer Besonderheit seiner Einbindung in einen basisnahen oder überhaupt basisbildenden Vorgang des menschlichen Lebens. Zugleich sind alle derartigen Objekte durch den virtuellen Charakter ihrer Veranstaltung von der Realität des praktischen Lebens getrennt. Beispiele:

  1. Als sehr bedeutungsstark erwies sich in diesem Zusammenhang der Hinweis (Elke Blumenthal, Arbeitsblätter 3, S. 12) auf die Schein-Paläste gewisser ägyptischer Königsgrabmäler. Sie sind eine Form, in der auf die schwerlich zu bewältigende Frage reagiert wird nach dem, was nach dem Tode eines Menschen mit diesem geschieht. An dieser Kardinalfrage hängen alle Formen des Totenkults, Bestattungsrituale, Mumienerstellung, im weiteren Sinne Kirchen mit den Friedhöfen, Grabkirchen, Denkmäler etc.
  2. Die ornamentale Ausstattung von Häusern, Hausgerät, Schmuck etc. hat stets einen Hintergrund in einer Bindung an eine segenspendende oder beschützende Macht, die außerhalb der umgebenden Alltäglichkeit vermutet bzw. geglaubt wird. Die Ornamente können oft nicht mehr verstanden werden (Farb- und Ritzornamente auf Keramik etc.), ebensooft aber ist die bildnerische Gestaltung in christlichen Gegenden als Bibelwissen deutlich erkennbar, während im Bereich anderer Religionen natürlicherweise andere Motivsprachen vorliegen.
  3. Besonders deutlich wird eine mehrfache Funktion vergleichbarer Objekte im ethnologischen Bereich, z.B. bei Hirtenglocken, wo Lautfunktion und bildnerische Ausstattung in einem Gemenge von Praxis, Mythologie und Repräsentation als sehr verschieden motiviert, aber im Ergebnis als „Kunst“ sich verstehen lassen (Darstellungen von Manfred Taube, Arbeitsblätter 4, S. 18 und Erich Stockmann, Arbeitsblätter 7, S. 3).

Der Kunstcharakter eines Objekts kann zum anderen aus der Entfernung von seiner Basisbindung entstehen. So lebt die gesamte erzählende Literatur von der Mitteilung von Vorgängen und der Reflexion über Vorgänge, die uns nicht selbst betreffen, die uns aber als „unerhörte Ereignisse“ (man vergleiche die Definition der „Novelle“) interessieren, sei es, weil wir ihrer gerne teilhaftig wären, da sie Genuß und Freude versprechen, sei es, weil wir froh sind, den darin geschilderten „aventiuren“ nicht ausgesetzt zu sein. Dies betrifft alle Arten unserer Literatur von dem lyrischen Gedicht bis zum Arztroman, desgleichen die analoge Produktion von Film und Fernsehen zwischen Porno und Krimi, zwischen Arztroman und Landser-Heft bis zu den Höhenzügen literarischer Produktion, also im Bereich der deutschen Literatur der zweiten Hälfte des 20. Jahrhunderts die Werke von Heinrich Böll, Uwe Johnson, Günter Grass und anderen, in interessanter, Kulturgrenzen überschreitender Funktion Salman Rushdies „Satanische Verse“.

Entfernung von der Basisbindung ist daneben auf ganz andere Weise wirksam, wenn religiös eingebundene Gegenstände fremder Kulturen in gänzlicher Lösung aus ihrem ursprünglichen Funktionszusammenhang zu „interessanten“ Kunstgegenständen werden; dies gilt insbesondere für Masken, Musikinstrumente und Figuren, aber auch für die fast weltumspannende Erfassung von Märchen- und mythologischer Literatur; hier kam es in der Kommission zu einer terminologischen Meinungsdifferenz über die Frage, wieweit mündlich überliefertes Erzählgut gleich welchen Ranges als Literatur bezeichnet werden kann.

Überlegt werden muß, wieweit dieses Entfernungsmoment auch die touristische Nutzung von Kirchen betrifft, zugleich die Konzertnutzung von Kirchenmusik. Hier müssen jedoch vor vorschneller Entscheidung verschiedene Fragen gestellt werden:

  1. Die europäische Kunstmusik kennt neben der religiösen Einbindung des größten Teiles der – nur in Europa – entstehenden geregelten mehrstimmigen Komposition die ästhetische Bewertung von Klangprozessen und von individuellen Werken: Perotin im Urteil seiner Zeitgenossen des 13. Jahrhunderts, Machaut in der Beurteilung eigener Kompositionen (um 1350), Klagemotetten beim Tod bedeutender Komponisten (Machaut, Dufay etc.), Gioseffo Zarlinos Kommentar zu kompositorischen Vorgängen, wenn er die große Dur-Terz als harmonia allegra, die kleine Moll-Terz als harmonia mesta beschreibt und „un non so che d’ingegnoso“ als Voraussetzung für die Tätigkeit eines Komponisten ansieht (Istitutioni harmoniche 1558). Man kann also zwischen religiöser Einbindung und ästhetischer Funktion durchaus nicht sicher unterscheiden.
  2. Die bildende Kunst verfügt über ähnliche Urteile bei Alberti im 15. Jahrhundert. Leider war eine geplante fokussierte Darstellung der Anschauungen Albertis nicht möglich und wird zu späterem Zeitpunkt nachgeholt werden müssen.
  3. Dennoch ist soviel deutlich: Es gab einen ästhetischen Kunstwert, der übrigens auch wahrnehmungspsychologisch – das zeigen bestimmte Aussagen mittelalterlicher Musiktheorie – begründet war, abgesehen von dem Wert der handwerklichen Perfektion; sie spielte im Bereich von Malerei und Bildhauerei wohl eine dominierende Rolle.
  4. Sowohl bildende Kunst wie Literatur und Musik bilden seit dem ausgehenden Mittelalter Felder der ästhetischen Realisierung aus, die auf kirchlicher Einbindung basieren, aber diese entschieden bis zur gänzlichen Loslösung überschreiten. In den Interpretationssog dieser Entwicklung geraten dann reaktiv auch die Werke, die noch in voller religiöser Bindung stehen; wobei zu berücksichtigen ist, daß die künstlerischen Mittel oftmals diese reaktive Interpretation begünstigen.

Will man versuchen, in den benannten Sachverhalten nach gemeinsamen Momenten zu fragen, dann müssen zumindest folgende Gedanken erwogen werden:

  1. Eine wesentliche Basis aller künstlerischen Äußerung ist bereits 1923 von Rudolf Otto in seinem Buch „Das Heilige“ beschrieben worden (Hans Grüß, Arbeitsblätter 1, S. 4).
  2. Auch ein theologischer Beitrag (Ulrich Kühn, Arbeitsblätter 7, S. 20) zur Vorbereitung dieser Themendiskussion benannte als Grundposition die Offenheit für bzw. das allgemein menschliche Bedürfnis nach Transzendenz, die freilich in ihrer Zielrichtung durchaus unterschiedlich sein kann und für einen evangelischen oder katholischen Christen anders gerichtet ist als für einen der Aufklärungsphilosophie verpflichteten Wissenschaftler; sie ist mit Sicherheit auch in den jeweiligen religiösen Vorstellungen nichtchristlicher Religionen beheimatet und findet dort eine jeweils eigentümlich geprägte Form.
  3. Dem offenbar gemeinmenschlichen Transzendenzbedürfnis könnte bei dem kunsterlebenden Individuum eine Form der Ekstasis, d.h. ein Heraustreten aus der unreflektierten Gegenwärtigkeit des individuellen Seins entsprechen, das zugleich als selbsterkennender Schritt die Integrität der eigenen Person jeweils neu in Frage stellt und zugleich auf neue Art wieder ermöglicht. Diese Ekstasis kann die Form einer Erschütterung vor einem Kunstwerk – einem „numinosum“ (Rudolf Otto) , der Entzückung über die Schönheit wie auch der Betroffenheit, ja der Verletzung durch einen schockierenden Vorgang annehmen, erinnert sei an Fluxus oder gegenwärtig an Hermann Nitzsch mit seinen Ritualen. Diese Ekstasis kann sowohl ihre Herkunft aus mythologie-gegründeten Einstellungen erkennen lassen, wie sie andererseits erklären könnte, zu welch unglaublichen Formen der unbedingten Bindung an ein Kunstwerk sie einen leidenschaftlichen Sammler zu führen vermag. Damit könnten zugleich die Steigerungspreise erklärt werden, die Sammler auf dem Kunstmarkt zu zahlen bereit sind, und selbst das Motiv der Geldanlage ist dadurch vermittelbar, daß es ja auf dem haltbaren transzendentalen, quasi mythologischen Wert des Objekts beruht. Ebenso aber ist auf diese Weise erklärbar, daß z.B. musikalische Vorgänge wie die Brauchtumsmusik unserer Tage bis zum ekstatischen Gebrauch in den Diskos der jungen Leute führen können. In beiden Fällen geht es um eine Form von Ekstasis, die ein transzendierendes Erlebnis ermöglicht.
  4. An den Grenzpunkten wird vielleicht deutlicher als im mittleren Feld der Einzelfälle zwischen Beethoven, Picasso und Praust, daß Ekstasis und Transzendenz die letzten Endes wertbestimmenden Momente und zugleich die Conditio sine qua non unseres Umgangs mit Kunst sind. Der Wert von Kunst kann also darin als begründet angesehen werden, daß er auf einem existenziellen Bedürfnis beruht.

Versuchsweise sollen einige offene Fragen angeschlossen werden:

  1. Gibt es eine Qualitätsgrenze, jenseits deren nicht mehr von Kunst gesprochen werden kann? Beispiel: einfachste Formen von Begräbnis-Ritualen der Gegenwart.
  2. Gibt es Menschen in unserer Gesellschaft oder in anderen, die schlechthin ohne jede Kunst auskommen? Beispiel: Leute, die keine Sinfonie Beethovens kennen und sich auch weigern, eine anzuhören.
  3. Steht bei einer vielleicht großen Gruppe von Menschen die Befriedigung im beruflichen Leben bzw. im Freizeitleben an der Stelle von Kunsterlebnissen? Beispiele: Erfolge im Sport, als Feuerwehrmann, als Kleingärtner und -gärtnerin, beim Briefmarkensammeln, bei der Zucht oder auch nur Haltung von Zierfischen.
  4. Ist der Klatsch unter Nachbarn im Supermarkt, in der Kneipe, auf dem Fußballplatz, im Sportverein eine Grundform von oraler Literatur?
  5. In allen diesen Fragen gibt es vermutlich die Kunstgrenze zwischen realem Leben und virtueller Darstellung; Frage nach dem besten Witzerzähler an der Theke oder am Stammtisch, nach den besten Erzählern/Erzählerinnen eigener oder fremder Erlebnisse im Familien- oder Freundeskreis bzw. in der Halböffentlichkeit.

 

Vortrag am 14.5.1999
Peter Fulde (Dresden), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:
Thematische Klassensitzung (gemeinsam mit der Technikwissenschaftlichen Klasse)


„Elektronische Korrelationen“

Aufgrund ihrer gegenseitigen Abstoßung bewegen sich Elektronen in einem Atom, Molekül oder Festkörper auf korrelierte Art und Weise. Es wird in anschaulicher Form gezeigt, welche physikalischen Effekte auf diese Korrelationen zurückzuführen sind. Besondere Aufmerksamkeit wird dem Phänomen der elektronischen Ladungsordnung gewidmet. Es ist allgemein bekannt, daß Atome Gitter bilden können in Form von Kristallen. Weniger bekannt ist, daß auch hinreichend stark korrelierte Elektronen unter geeigneten Bedingungen kristallisieren. Darauf hat bereits Wigner in den dreißiger Jahren hingewiesen. Er betrachtete ein homogenes Elektronengas und stellte die Frage, was passieren würde, falls die Coulombabstoßung der Elektronen größer ist als der Gewinn an kinetischer Energie durch Delokalisierung. Seine Antwort war: dann bilden sie ein Gitter. Allerdings sind für das homogene Elektronengas die Bedingungen für eine Gitterbildung extrem: die elektronische Dichte muß so gering sein, daß der Gitterabstand 5 nm nicht unterschreitet.

Betrachtet man hingegen inhomogene Elektronensysteme, so sind die Bedingungen für die Bildung eines Elektronengitters weitaus günstiger. Sind die Valenzelektronen nahe Atomkernen konzentriert, so daß der Überlapp atomarer Wellenfunktionen von Nachbaratomen klein ist, so können die Elektronen durch Delokalisierung nur geringfügig ihre kinetische Energie absenken. Dann wird die gegenseitige Coulombabstoßung der Valenzelektronen bereits bei hohen Dichten dominant, und eine Gitterbildung setzt dementsprechend früher ein. Allerdings ist dann das elektronische Gitter als ein Übergitter auf dem zugrundeliegenden Atomgitter zu verstehen.

Es werden eine Reihe verschiedener Fälle von Ladungsordnung von Valenzelektronen diskutiert. Verschiedene neuartige physikalische Phänomene werden in dem Zusammenhang aufgezeigt.

 

Vortrag am 9.4.1999, Öffentliche Gesamtsitzung
Ulrich Kühn (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Die Theologie im Konzert der Wissenschaften“

Es war weder unter dem Vorzeichen eines vom Marxismus geprägten Wissenschaftsverständnisses, noch ist es heute (unter anderem Vorzeichen) selbstverständlich, daß die Theologie unter den Wissenschaften an der Universität oder auch in der Akademie der Wissenschaften vertreten ist. Das gilt allerdings weniger für die historischen Disziplinen der Theologie als vielmehr vorrangig für die systematische und die praktische Theologie, bei denen das Wesen der Theologie als Theologie mit ihrem spezifischen Erkenntnisanspruch besonders und recht eigentlich in Erscheinung tritt.

Diese heutige Situation unterscheidet sich vom mittelalterlichen Gesamtverständnis der Wissenschaften ebenso wie von der wissenschaftstheoretischen Konzeption des deutschen Idealismus. Allerdings ist das neuzeitliche, am naturwissenschaftlichen Leitbild geprägte Wissenschaftsverständnis, wie es gegenwärtig weithin noch selbstverständlich ist, ebenfalls bereits durch die Zweiheit von (erklärenden) Natur- bzw. Technikwissenschaften und (verstehenden) Geisteswissenschaften relativiert worden. Der unterschiedliche Gegenstandsbereich der Wissenschaften – bis hin zu den Fragen nach normativen Werten – läßt eine Pluralität wissenschaftlicher Methoden als angemessen erscheinen, bei denen sich auch das Problem jeweiliger subjektiv-intersubjektiver Voraussetzungen wissenschaftlichen Fragens unterschiedlich stellt. Hinzu kommt, daß gegenwärtig sich auch in den Naturwissenschaften ethische Orientierungsfragen melden, die schon deshalb nicht als wissenschaftsfremd abgewehrt werden dürfen, weil sich gerade in ihnen die Verantwortung der Wissenschaften und Wissenschaftler für den zukünftigen Weg der Menschen und für eine menschenwürdige Welt zeigt.

Sofern in der Theologie Fragen der Tiefendimensionen des Menschseins, der Gesamtdeutung der Wirklichkeit sowie der ethischen Orientierung verhandelt und dabei auch normative Aussagen gewagt werden, darf sie – zusammen mit der Philosophie – heute und in Zukunft einen legitimen und notwendigen Ort im Konzert der Wissenschaften beanspruchen. Das gilt auch unter der Prämisse, daß sie von den Voraussetzungen des in der christlichen Gemeinschaft bekannten und gelebten Glaubens aus argumentiert, und zwar dann, wenn sie ihre Begrifflichkeit, ihre Argumentationen und die dafür jeweils maßgebenden Begründungszusammenhänge nach den allgemein anerkannten formalen Regeln wissenschaftlichen Denkens offenlegt und vollzieht.

 

Vortrag am 12.3.1999
Eckart Schremmer (Heidelberg), Korrespondierendes Mitglied der Philologisch-historischen Klasse:


„Warum die württembergischen Ertragsteuern von 1819/21 und die sächsische Einkommensteuer von 1874/78 so interessant sind“

Zwischen 1815 (Wiener Kongreß) und etwa 1834 (Deutscher Zollverein) gaben sich die jungen deutschen Staaten neue Steuerordnungen. Sie sollten die feudalen Abgaben und Dienste ersetzen und nach den liberalen Postulaten von Freiheit, Gleichheit und Gerechtigkeit ausgerichtet werden. Gerechtigkeit in Steuersachen verbindet die allgemeine Steuerpflicht mit der Gleichverteilung der Steuerlast gemäß der Leistungsfähigkeit der Bürger. Die Steuer sollte ferner direkt und neutral sein, d.h. weder die „natürliche“ Vermögensverteilung ändern noch die Preisbildung auf den offenen Märkten stören.

Bei der Einführung der neuen Steuerordnungen standen die deutschen Regierungen im Spannungsfeld der bei den großen europäischen Typen von direkten Steuern: den eher traditionellen französischen objektiven Ertragsteuern mit behördlicher Einschätzung der Erträge und der revolutionär-neuen englischen subjektiven Einkommensteuer mit der Selbsteinschätzung der Pflichtigen. Die deutschen Staaten folgten zunächst dem Typ der französischen Ertragsteuern – in unterschiedlicher Vollständigkeit und Ausgestaltung. Ein Beispiel hierfür ist das frühe, sorgfältig ausgearbeitete dreigliedrige Ertragsteuersystem von Württemberg aus den Jahren 1819/21 mit der Grund-, Gebäude- und Gewerbeertragsteuer, samt den dazugehörenden umfangreichen Katasterwerken. Langfristig erwies sich jedoch die Einkommensteuer als die überlegenere Steuer, wegen ihrer raschen Anpassungsfähigkeit an Wachstums- und Strukturänderungen der Volkswirtschaft und wegen ihres flexiblen Steueraufkommens zur Deckung eines ständig steigenden Staatsbedarfs. 1874/78 gab Sachsen sein unübersichtlich gewordenes Ertragsteuersystem von 1831/36 auf und führte als erster deutscher Staat die subjektive Einkommensteuer ein – mit der Besonderheit, in Einzelfällen den Verbrauch als Maßstab für Leistungsfähigkeit ansetzen zu können. Sachsen erwarb „den Ruhm des Pioniers des steuerpolitischen und steuertechnischen Fortschritts auf diesem Gebiete der direkten Besteuerung in Deutschland“ (Adolph Wagner, 1901).

Der heutigen Steuergesetzgebung finden sich noch Spuren der Gesetze von Württemberg und Sachsen – aus Württemberg wenige, aus Sachsen deutlich mehr. Indes: Der Charakter der frühen Einkommensteuer hat sich seit der Weimarer Republik und der Einführung der Reichseinkommensteuer gewandelt. Von der ursprünglichen Besteuerungsidee, eine neutrale Steuer mit fiskalischem Zweck, blieb wenig übrig. Die Einkommensteuer ist zu einer politischen Steuer geworden, einem variabel einsetzbaren Instrument zum Erreichen von wirtschafts- und sozialpolitischen Zielen wechselnder Ausrichtung. Dazu haben Krisen, Wissenschaft, Gesetzgebung und Gerichte wesentlich beigetragen - und, wenn es erlaubt ist, die historische Kontinuität ein wenig zu strapazieren, die Gewinnermittlungsvorschrift in § 21, Abs. 1 der sächsischen Einkommensteuer von 1878.

 

Vortrag am 12.3.1999
Thomas Geßner (Chemnitz), Ordentliches Mitglied der Technikwissenschaftlichen Klasse:


„Mobile intelligente Systeme durch Mikroelektronik und Mikrosystemtechnik“

Es ist unumstritten, daß auch im nächsten Jahrtausend die Informationsgesellschaft mit weiteren neuen Erzeugnissen und Geräten der Computertechnik, der Multimedialtechnik und generell der Kommunikationstechnik unterschiedliche Lebensbereiche enorm verändern wird. Verstärkt in den Vordergrund treten wird der Aspekt einer größeren Mobilität der Menschen hinsichtlich des Zugangs und der Nutzung elektronischer Dienstleistungen sowohl im beruflichen als auch im privaten Leben.

Im Vortrag werden diesbezüglich Entwicklungstendenzen anhand mobiler Kommunikationssysteme beschrieben. Eine Tendenz besteht darin, daß zu den typischen mikroelektronischen Schaltkreisen als Basis für immer leistungsfähigere Computer zunehmend miniaturisierte Sensoren und Aktoren hinzukommen, die ähnlich wie in der lebenden Natur Umwelteinflüsse wahrnehmen können bzw. auch eine gezielte Beeinflussung der Umgebung erlauben. Verschiedene Fachbegriffe wie die Mikrosystemtechnik im deutschsprachigen Raum oder MEMS (Micro-Electro-Mechanical Systems) beschreiben diese Tendenz.

Exemplarisch werden im Vortrag typische Erzeugnis- und Technologieentwicklungen der Mikroelektronik und Mikrosystemtechnik beschrieben.

In der Mikroelektronik werden bis zum Jahre 2009 minimale laterale Strukturbreiten von ca. 0,07 µm verwendet werden. Als Erzeugnisse sind der 64-Gbit-dRAM und Mikroprozessoren mit mehr als 500 Millionen Transistoren/Chip geplant. Dafür werden neue Lithografieverfahren sowie neue Konzepte und Materialien für die Leitbahnsysteme benötigt. Das Dilemma der Verzögerungszeiteinschränkungen infolge immer längerer Leitbahnen aufgrund der ständigen Erhöhung des Integrationsgrades muß beseitigt werden. Die bisherigen Werkstoffe Aluminium und SiO2 (Dielektrizitätskonstante k=4.2) werden durch Kupfer und Isolatoren mit niedrigeren k-Werten ersetzt.

In der Mikrosystemtechnik entstanden und entstehen viele Produkte durch Verwendung der Si-Mikromechanik. Entwicklungsbeispiele sind u.a. kinetische Sensoren für die Automobil- und Flugzeugindustrie sowie miniaturisierte Aktoren für Lichtprojektionen, die auch zu neuen Fernsehprinzipien führen. Das TV -Prinzip von Texas Instruments unter Verwendung des Digital Mirror Device (DMD-Chips) und die Laser Display Technologie (LDT) werden diskutiert.

 

Vortrag am 12.2.1999
Pirmin Stekeler- Weithofer (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Strukturprobleme gemeinsamen Handelns – Bemerkungen zu Grundproblemen
des methodischen Individualismus“

Es sollen zwei fundamentale Probleme des methodischen Individualismus im Bereich der sogenannten praktischen Philosophie oder Ethik und in den Sozialwissenschaften genannt und ihre Bedeutung am Beispiel des Bildungswesens skizziert werden.

Das erste Problem betrifft die Vorbedingungen dafür, daß wir nicht bloß unmittelbar, empfindungsartig und implizit, sondern bewußt und reflektiert etwas wünschen oder vorziehen, mehr oder minder geeignete Mittel wählen und entsprechend handeln können. Der Erwerb der Kompetenz zu strategischem Planen, Entscheiden und Handeln setzt nämlich längst schon eine Gemeinschaft frei kooperierender Personen voraus, in die wir durch Erziehung aufgenommen werden. Bildung macht uns allererst zu ,,rationalen" und dann auch zu "personalen" Individuen, zu kompetenten „Trägern“ nicht bloß eines personalen Status, sondern zu Akteuren, die personale Rollen spielen im Rahmen sozialer „Spiele“. Zu den entsprechenden „Spielregeln“ gehören gerade auch die Kriterien des rechten Unterscheidens und Folgerns, Wertens und Schätzens. Jede „rationale“ Planung setzt die Beherrschung symbolischer, zunächst weitgehend wortsprachlicher, Repräsentationen voraus. Das Maß an Rationalität und die korrekte Beherrschung von Regeln oder Rationalitätskriterien wird immer im Rahmen einer kooperativen Gemeinschaft beurteilt: Als Schiedsrichter und Ratgeber, etwa auch als Konstrukteure von Rationalitätskriterien gerade auch in den Wissenschaften, appellieren wir implizit immer an diese Gemeinschaft. Sowohl wenn wir teilnehmen an der Bereitstellung von Wissen und Techniken, als auch wenn wir uns auf andere Experten verlassen, überschreitet unser Tun und Urteilen bei weitem den Rahmen dessen, was im methodischen Individualismus erklärbar ist.

Im methodischen Individualismus wird, zweitens, verkannt, daß die „ökonomische“, am Nutzen des individuellen Hauses und an der Sicherheit des Eigenen ausgerichtete, Rationalität eine bloß komplementäre Rolle spielt zur freien kooperativen Vernunft einerseits, zur Macht- und Rechtssphäre des staatlichen Leviathans andererseits. Autonome Moralität (Kant) mit ihren Komponenten einer geschichtlich, kulturell, tradierten Sittlichkeit und der freien Anerkennung von moralischen Freiheiten und Pflichten und rechtlichen Normen und Sanktionen (Hegel) ist Grundlage für alle Arten von Arbeits- und Güterteilungen und für die entsprechenden sozialen und politischen Institutionen.

Sowohl freie als auch durch Macht und Recht geregelte Kooperationsverhältnisse und damit am Ende auch scheinbar rein ökonomische Tauschverhältnisse bleiben ohne autonome Moralität in einem kantischen Sinn nicht stabil. Daher ist insbesondere der Bereich der Bildung gefährdet, wenn man seinen institutionellen Rahmen auf eine ökonomistische „Ideologie“ gründet bzw. nach den Ideen des methodischen Individualismus verfaßt. Die Folge ist, daß man – langfristig – gerade unter den Stich- und Schlagworten der Effizienz oder rationalen Nutzenmaximierung nicht nur die Bedingungen untergräbt, die uns zu freien und handlungskompetenten Personen und damit zu „rationalen“ Wesen machen, sondern auch noch den moralischen Ast absägt, auf dem, bildlich gesprochen, die Wissenschaft selbst sitzt.

 

Vortrag am 12.2.1999
Peter Paufler (Dresden), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Über die Vielfalt der Strukturen fester Körper oder: Ertrinken wir in der Strukturflut?“

Bekanntlich bestimmt die räumliche Anordnung der Atome die Eigenschaften der daraus gebildeten Stoffe wesentlich. Aus dem Bedürfnis nach maßgeschneiderten Eigenschaften ist eine starke Triebfeder für die Aufklärung dieser räumlichen Anordnung – der Struktur der Stoffe – entstanden. Beispiele sind Werkstoffe mit extremen (mechanischen, elektrischen, ökologischen, ökonomischen usw.) Eigenschaften bis hin zu Pharmaka mit erwünschten therapeutischen Wirkungen. Faszinierende wissenschaftliche Fragestellungen werden von nicht geringen kommerziellen Interessen begleitet.

Selbst bei Beschränkung auf Festkörper ist die mögliche strukturelle Vielfalt unbegrenzt, so daß sich die treibenden Kräfte der Strukturforschung keiner dem Problem innewohnenden Grenze gegenüber gestellt sehen. Betrachtet man z.B. nur die Kombinationen von 92 Elementen des Periodensystems, ergeben sich bereits 5 x 1027 mögliche verschiedene r-näre Systeme, in denen jeweils in Abhängigkeit von der Temperatur und dem Druck eine nicht prinzipiell begrenzte Zahl von Strukturen auftreten kann. Selbst bei festgehaltener Kombination chemischer Elemente kann die Zahl der Konformationen sehr hoch werden. Wenn man beispielsweise drei sterisch akzeptable Orientierungen für jedes Paar von Aminosäuren annimmt, wäre eine Zahl daraus gebildeter Proteine mit 300 Aminosäuren von 3300 ≈ 10143 zu erwarten! Das Ziel, alle denkbaren Strukturen experimentell zu bestimmen, ist offensichtlich unrealistisch.

In jüngster Zeit ist die theoretische Strukturvielfalt durch einige Verallgemeinerungen des konventionellen Strukturbegriffs überdies weiter angewachsen. Dazu gehören Strukturen, die nicht im dreidimensionalen Raum, wohl aber in höher dimensionalen Räumen periodisch sind. Außerdem wächst der Bedarf, global „pathologische“ Strukturen (wie Oberflächen- und Grenzflächenstrukturen, Mischkristalle, Polytypen usw.), synthetische atomare Stapelfolgen und sogar amorphe Strukturen in das Begriffssystem einzubeziehen und quantitativ zu erfassen. In allen Fällen ist die zur Beschreibung einer einzelnen Struktur notwendige Datenmenge größer als für konventionelle Strukturen gleicher Atomzahl.

Da sich nun unter dem Einfluß dieser Triebkräfte gleichzeitig eine bedeutsame Weiterentwicklung der experimentellen Methoden der Strukturbestimmung mit Röntgen-, Neutronen- und Elektronenstrahlen und der Datenübertragung vollzieht (angeregt vor allem durch leistungsfähigere Quellen, Detektoren und Computer), wachsen Zahl und Qualität der tatsächlich neu bestimmten Strukturen sehr schnell an. Derzeit liegt die Gesamtzahl der seit 1913 dokumentierten Strukturen bei rund 300.000.

Das Beispiel der Quasikristalle als Vertreter von Strukturen, die im höher dimensionalen Raum periodisch sind, läßt die steigenden Anforderungen an die Erfassung und Verwaltung der Daten besonders deutlich werden. Zum Realraum kommen Kenngrößen der Atomanordnung im Hyperraum hinzu.

Gegen die in der Überschrift beschworene Gefahr der Datenüberflutung (die auch in anderen Bereichen der Wissenschaft besteht) sind Konzepte entwickelt worden, die (a) auf einen effizienteren Umgang mit den Daten abzielen (elektronische Strukturdatenbanken als Speicher-, als Prüf-, als Such- und als Klassifiziermedium sowie als Visualisierungshilfe) und/oder (b) auf rechnergestützte Strukturprognose nach Bedarf setzen. Die Vorausberechnung von ersten Prinzipien der Quantentheorie aus wird allerdings auch in absehbarer Zeit noch eher die Ausnahme bleiben. Vielmehr werden halbempirische Strukturargumente weiter ausgearbeitet.

Mit dem Anwachsen der Zahl bekannter Strukturen wird die Frage nach Kriterien für die Verwandtschaft und für die Gleichheit zweier Strukturen bedeutsamer. Sie tangiert die Frage nach den Grenzen der Strukturdefinition.

Ein weiterer Problemkreis rankt sich um die Beobachtung, daß bestimmte Strukturen aus kinetischen Gründen nicht darstellbar zu sein scheinen, selbst wenn sie als thermodynamisch stabil vorhergesagt werden können. Dies sollte sich als flutdämpfend erweisen. Die erwähnte apokalyptische Vision der Strukturforschung stellt sich als nützliches Vehikel zur Mobilisierung von Ideen zu deren Überwindung dar.

 

Vortrag am 8.1.1999
Heinz Thoma (Halle/Wittenberg), Ordentliches Mitglied der Philologisch-historischen Klasse:


„Literarischer Selbstmord als Epochendiagnose: Goethes »Werther« und Ugo Foscolos »Ultime lettere di Jacopo Ortis«“

Goethes „Werther“ und die rund 30 Jahre später verfaßten „Ultime lettere di Jacopo Ortis“ sind zwei eminent wichtige Texte für den jeweiligen nationalliterarischen Zusammenhang. Goethes Text gilt nicht nur als Haupttext des Sturm und Drang, sondern auch als der erste bedeutende moderne Roman der deutschen Literatur, Foscolos Übernahme und Bearbeitung des Werther-Stoffs gilt als Schlüsseltext im Übergang vom Neoklassizismus zur Romantik bzw. als Vorbereiter des Risorgimento. Der vorgenommene Vergleich zielt nicht im engeren Sinn auf die Diskussion um die Originalität oder Epigonalität des italienischen Textes. Es geht vielmehr darum, an drei zentralen Untersuchungsebenen die spezifische Leistung der beiden Texte vergleichend darzustellen und sie ansatzweise aus dem Zusammenhang der Spätaufklärung und des Revolutionszeitalters zu deuten. Vorausgesetzt wird, daß der Vergleich auch für das Original einen Deutungszuwachs darstellen kann.

Verglichen werden die beiden Hauptfiguren, insbesondere ihr Verhältnis zu Natur, Kultur, Geschichte und Gesellschaft. Daran schließt sich an die Analyse der unterschiedlichen Liebessemantik, speziell am Beispiel der weiblichen Hauptfiguren. Schließlich erfolgt der Blick auf die Konfliktführung, an der die Besonderheit beider Texte besonders plastisch hervortritt. Beiden Protagonisten ist gemeinsam, daß sie ein vorhandenes Talent (Künstler/Gelehrter) nicht zur Verstetigung bringen, jedoch ist der semantische Referenzraum zur Bildung ihrer Besonderheit unterschiedlich gefüllt: Werther ist Kind, sein Referenzraum ist die Natur bzw. ein vornehmlich literarisch vermittelter Naturzustand (Homer, Ossian, Klopstock, Ursprünglichkeit des Volkes), Ortis ist Held, sein Referenzraum ist die Geschichte (Rom, Italien und die als Heroen gefaßten Gestalten der Nationalkultur). Werther leidet unter der Rangsucht der ständischen wie der Prosa der bürgerlichen Verhältnisse, Ortis leidet auch an der Rechenhaftigkeit der bürgerlichen Verhältnisse, vornehmlich aber an der nationalen Schmach Italiens.

Die Liebessemantik des „Werther“ ist direkt mit der Konstellierung der ständischbürgerlichen Verhältnisse korreliert. Lotte droht zwar der Faszination des neuen Liebesmodells Werthers zu erliegen (Unabdingbarkeit ohne gesellschaftliche Rücksicht), jedoch verbleibt sie letztlich im älteren prosaischen Modell, das für die Ehe den Primat der Neigung (statt der leidenschaftlichen Liebe) fordert. Im „Ortis“ fehlt eine vergleichbare Konfliktualität in der Liebessemantik. Teresa, die weibliche Protagonistin der „Ultime Lettere“, ist stereotypisiert als „donna angelicata“. Sie liebt den Helden von Anfang an und heiratet den reichen Konkurrenten nur aus Gehorsam bzw. um die aus den politischen Wirren Venedigs resultierende ökonomische Deklassierung des Vaters zu kompensieren. Werthers Liebe scheitert so gesehen strukturell, Ortis’ Liebe okkasionell.

Während Goethe den auf eine beengte gesellschaftliche Konstellation weisenden Gegensatz von proteushaftem Wollen und realer Ohnmacht in der Liebeskonstellation verdichtet, bildet diese bei Foscolo nur ein verstärkendes Moment für das dominante nationale Thema des Romans. Was im Vergleich zu Goethes Text als Politisierung des Themas bzw. als Rückschritt gegenüber einer strukturell angelegten Gesellschaftsdiagnose erscheinen kann, wird unter italienischen Verhältnissen im Zeitalter der Revolution zum nationalen kulturellen Impuls erster Ordnung. Werthers Selbstmord verweist auf ein normatives Defizit, Ortis’ Selbstmord ist wesentlich politisches Vermächtnis.

 

Vortrag am 8.1.1999
Klaus Keil (Honolulu), Korrepondierendes Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


„Die amerikanische Weltraumforschung von 1961 bis heute: Geologische Erforschung des Sonnensystems“

Unser Sonnensystem besteht aus einem Stern, der Sonne, deren Masse ~ 99,9 % des Sonnensystems entspricht. Die neun Planeten, 63 Monde, Tausende von Asteroiden und zahllose Kometen repräsentieren nur ~ 0,1 % der Masse des Systems.

Mit dem erfolgreichen Start des russischen Raumschiffes Luna 1 am 2. Januar 1959, mit der Aufgabe, „am Mond vorbeizufliegen“, begann die wissenschaftliche Erforschung des Sonnensystems durch Raumschiffe. Diese Forschungen wurden hauptsächlich von der damaligen UdSSR und den USA betrieben.

Die amerikanische Weltraumforschung begann zwar schon vor 1961, aber der eigentliche „Geburtstag“ der Raumforschung war am 25. Mai 1961. In einer historischen Ansprache proklamierte Präsident John F. Kennedy das Ziel der amerikanischen Weltraumforschung: eine bemannte Landung auf dem Erdmond noch vor 1970. Diese Herausforderung wurde ein nationales Ziel, und damit war die Finanzierung der Weltraumforschung in den USA garantiert.

Diese Herausforderung wurde mit Begeisterung von der Bevölkerung und den Wissenschaftlern angenommen. Es hatte zur Folge, daß das gesamte Hochschulwesen sowie die Forschung in vielen naturwissenschaftlichen und technischen Disziplinen in den USA revolutioniert wurden. Damit begann aber nicht nur die Erforschung des Erdmondes durch Raumschiffe, sondern überhaupt die Erforschung aller Planeten (mit Ausnahme von Pluto), vieler Monde und einiger Asteroiden. (Der Start eines Raumschiffes zum Planeten Pluto ist gegenwärtig in der Planungsphase.)

Meine eigenen Forschungen in den USA seit 1961, über die ich heute berichten werde, beziehen sich im wesentlichen auf die Entstehung und Entwicklung des Erdrnondes sowie des Planeten Mars und der Asteroiden.

Die Erforschung des Mondes begann mit den „Ranger“- (Einschlagssonden; 1962–1964), den „Surveyor“- (Landesonden; 1966–1968) und den „Lunar Orbiter“-Missionen (1966–1967). Diese Missionen, kombiniert mit gewaltigen Fortschritten im bemannten Raumflug, z.B. durch das „Mercury-Program“, schufen die wissenschaftlichen und technischen Grundlagen für die sechs bemannten Apollolandungen, die ~ 338 kg Mondgesteine zur Untersuchung zurückbrachten. Die Ergebnisse aller dieser Forschungen haben zur folgenden Hypothese der Entstehung und Entwicklung des Mondes geführt:

  1. vor ~ 4,55 Milliarden Jahren (MJ) Entstehung durch Einschlag eines Projektils von der Größe des Planeten Mars mit der schon differenzierten Erde;
  2. vor ~ 4,55–4,45 MJ Kristallisation des „Magmaozeans“ in eine anorthositische (feldspatreiche) Kruste und einen FeO-reicheren Mantel;
  3. vor ~ 4,5–4,1 MJ Bildung riesiger Einschlagskrater (Mare);
  4. vor ~ 4,1 MJ Frühepoche von Vulkanismus im „Hochland“;
  5. vor ~ 3,8–3,2 MJ Füllung der Mare durch Basalte, die durch Teilschmelzen des Mantels entstanden;
  6. seit ~ 3,2 MJ kleinere Asteroiden-, Kometen-, Meteoriten-Einschläge und Regolithbildung.

Der Mars ist der erdähnlichste aller Planeten und ist daher schon seit langem von besonderem Interesse: der Nordpol sowie der Südpol sind von Eis bedeckt, das zum Teil H20-Eis ist, und wo Eis ist, kann auch Wasser gewesen sein; eine Voraussetzung zur Entstehung von Lebensformen. Die USA-Marsforschung durch Raumschiffe begann mit den „Mariner“- (1965–1971; 3 „fly-bys“, 1 Orbiter) und „Viking“-Missionen (1975; 2 Orbiter, 2 Landesonden) und wurde in jüngster Zeit durch „Mars Pathfinder“ (1996; Landesonde mit „Rover“) und „Mars Global Surveyor“ (1996; Orbiter) fortgesetzt. Am 10. Dezember 1998 soll der „Mars Climate Orbiter“ und am 3. Januar 1999 der „Mars Polar Lander“ gestartet werden. Die Erforschung des Planeten wird auch in den kommenden Jahren durch eine Reihe von unbemannten Raumschiffen fortgesetzt. Der Höhepunkt wird der Start eines Raumschiffs im Jahr 2005 werden, das Marsboden und Gesteine zur Erde bringen wird. Geologisch ist der rote Planet außerordentlich interessant: er hat die größten Basaltschildvulkane des Sonnensystems sowie riesige Rifftäler. Fließendes und stehendes Wasser waren in der Frühgeschichte des Mars von großer Bedeutung sowie auch Permafrost. Eines der wichtigsten und schwierigsten Ziele gegenwärtiger und zukünftiger Marsforschung ist die Suche nach organischem Material sowie nach Fossilien oder lebenden Organismen.

Asteroiden sind kleine Planeten (< 1000 km im Durchmesser) oder deren Bruchstücke, die die Sonne zwischen den Bahnen von Mars und Jupiter umkreisen. Das Raumschiff „Galileo“ (Start 1989) hat auf seinem Weg zum Jupiter zum ersten Male Nahaufnahmen von Gaspra (1991) und Ida und dessen Mond Dactyl (1993) geliefert. Bruchstücke von Asteroiden fallen als Meteorite auf die Erde. Chemische, mineralogische und isotopische Untersuchungen beweisen, daß unsere Meteoritensammlungen weltweit Bruchstücke von - 135 verschiedenen Asteroiden enthalten. Gewisse Meteorite stammen von Asteroiden, die in den 4,55 MJ der Geschichte des Sonnensystems vollkommen unverändert erhalten geblieben sind. Die Untersuchungen dieser Meteorite geben uns wichtige Hinweise auf die Frühgeschichte des Sonnensystems. Eine ganze Reihe neuer Raumsonden sind im Entwicklungs- oder Planungsstadium, und weitere, große Fortschritte in der Weltraumforschung sind in der Zukunft zu erwarten.

 

Termine
Horst-Michael Prasser: Basisinnovation bei Kernreaktoren 16.01.2017 18:30 - 20:00 — TU Dresden, Festsaal des Rektorats, Mommsenstr. 11, 01069 Dresden
Forum "Offenes Land - offene Fragen" 08.02.2017 18:00 - 20:00 — Karl-Tauchnitz-Str. 1, 04107 Leipzig