Plenarvorträge 2003

Vortrag am 12.12.2003
Ernst Schlegel (Freiberg), Ordentliches Mitglied der Technikwissenschaftlichen Klasse:

Dr.-Ing., Professor i. R. für Bindemittel und Baustoffe an der Technischen Universität Bergakademie Freiberg; am 12. Januar 1996 zum Ordentlichen Mitglied der Mathematisch-naturwissenschaftlichen Klasse der Sächsischen Akademie der Wissenschaften gewählt, nach Gründung der Technikwissenschaftlichen Klasse deren Mitglied.
Hauptarbeitsgebiete: Hydrothermaltechnologie, Entwicklung von Sensoren für hydrothermale Bedingungen, Arbeiten auf dem Stoffgebiet der Calciumsilicate, Verwertung von Reststoffen.

 

Hydrothermale Prozesse und Technologien

Mit dem Begriff „hydrothermal” bezeichnet man einen Zustand, der entsprechend der Bedeutung der griechischen Wörter hydor – Wasser und thermos – warm durch die Gegenwart von Wasser bei erhöhten Temperaturen gekennzeichnet ist. Hydrothermale Prozesse sind somit stoffwandelnde Vorgänge, die an festen Stoffen und in fluiden Medien unter hydrothermalen, d.h. feuchtwarmen Bedingungen ablaufen. Wie jede Flüssigkeit hat auch Wasser ein Gleichgewicht mit seinem eigenen Dampf. Bei einer Temperatur von 100 °C erreicht der Wasserdampfdruck den Atmosphärendruck, und das Wasser siedet. Damit flüssiges Wasser auch bei Temperaturen von über 100 °C erhalten bleibt, muss es in ein Druckgefäß eingeschlossen werden.

Ausgehend von den thermodynamischen Eigenschaften des Wassers wird ein unterkritischer und ein überkritischer Bereich unterschieden. Am kritischen Punkt des Wassers bei einer Temperatur von 374,15 °C, einem Druck von 22,120 MPa und einer Dichte von 315 kg/m³ sind die Eigenschaften von Wasser und Wasserdampf gleich, so dass im überkritischen Bereich nur noch eine fluide Phase vorliegt.

Für hydrothermale Prozesse sind insbesondere folgende Eigenschaften des Wassers wesentlich: Viskosität, Ionenprodukt, Oberflächenspannung, dielektrische Konstante, Enthalpie.

Hydrothermale Prozesse haben von der geowissenschaftlichen Tiefseeforschung über die Bildung von Lagerstätten natürlicher Rohstoffe und die synthetische Herstellung von Rohstoffen über eine Mineralsynthese und Einkristallzüchtung bis zur großtechnischen Herstellung von Baustoffen eine wissenschaftliche und technische Bedeutung. In den Hochdruckanlagen der Kraftwerke treten durch hydrothermale Vorgänge Korrosionen auf, Anlagen der anorganisch-technischen Chemieindustrie und der Metallurgie arbeiten unter hydrothermalen Bedingungen, und im Gesundheitswesen wird in Druckgefäßen desinfiziert. Die hydrothermal betriebenen Autoklaven sind in ihrer technischen Betriebsweise zu speziellen Reaktoren und herausragenden Wärmetauschern entwickelt worden, was an Beispielen erläutert wird. Damit erfüllen der technische Hydrothermalprozess und die mit ihm hergestellten Produkte nachhaltige Anforderungen aus der Ökonomie und Ökologie.

 

Vortrag am 12.12.2003
Isolde Röske (Dresden), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:

Dr. rer. nat., Professorin für Angewandte Mikrobiologie an der Technischen Universität Dresden, Fachrichtung Biologie, Institut für Mikrobiologie; am 12. Januar 1996 zum Ordentlichen Mitglied der Mathematisch-naturwissenschaftlichen Klasse der Sächsischen Akademie der Wissenschaften gewählt; Projektleiterin des Vorhabens „Limnologie von Talsperren”.
Hauptarbeitsgebiete: Mikrobiologie der Gewässer sowie biologische und mikrobiologische Prozesse bei der Trinkwasseraufbereitung und Abwasserbehandlung.

 

Der „Bodensatz“ in Trinkwasserspeichern als mikrobiologisches und chemisches Dokumentationszentrum

In Feinsedimenten von Standgewässern ist die Konzentration an organischem Material, an Bakterienzellen, Nährstoffen und Metallen meistens um 3 bis 6 Größenordnungen höher als im Wasserkörper. Entsprechend groß sind deshalb das Diffusionsgefälle, etwa beim gelösten Phosphat, und generell die Auswirkungen der Freisetzung schon eines geringen Prozentsatzes von im Sediment angereicherten Laststoffen. Eine beschleunigte Rücklieferung von Material ergibt sich insbesondere durch turbulente Diffusion infolge Entweichens von Gasblasen, der Wühltätigkeit von Fischen sowie den Ventilationsbewegungen weiterer Organismen.

Aussagen über das Erreichen neuer Güteziele für die Bewirtschaftung von Standgewässern stützen sich bisher fast ausschließlich auf Stichproben aus dem Wasserkörper. Dabei handelt es sich aber stets um Momentaufnahmen, die meistens nur im Zusammenhang mit relativ langen Zeitreihen Aussagen über die Entwicklungstendenzen der Wasserbeschaffenheit ermöglichen. Im Gegensatz dazu lässt sich die enorme Empfindlichkeit von Standgewässern gegenüber einer Stoff-Freisetzung aus Sedimenten anhand der Konzentrationsverteilungen im Porenwasser relativ sicher beurteilen. Als Träger der wichtigsten Stoffwandlungsprozesse wirken im Sediment die Bakterien.

Ganz offensichtlich ist nicht nur der Verbrauch von molekularem und von chemisch gebundenem Sauerstoff, sondern auch das Ausmaß des Phosphat-Massenstroms vom Sediment in den Wasserkörper in erster Linie ein Ergebnis mikrobieller Umsetzungen.

Um Aussagen über den Einfluss des Sedimentes auf die Wasserqualität machen zu können, wurden vier Talsperren mit unterschiedlicher Trophie untersucht. Hierbei wurde analysiert, inwieweit die Beschaffenheit der obersten Sedimentschicht als Grundlage für die vergleichende Bewertung der Gewässerqualität und ihrer Entwicklungstendenzen verwendet werden kann und welche Parameter im Zusammenhang mit der Trophie stehen.

Dafür erfolgte die Bestimmung verschiedener chemischer Parameter im Frischsediment, im Trockensediment und im Porenwasser. Ein Großteil dieser Parameter ist eng mit mikrobiellen Prozessen im Sediment verbunden und lässt demzufolge Rückschlüsse auf die Aktivität der Mikroorganismen zu. Im Zusammenhang mit diesen Untersuchungen konnte die molekularbiologische Identifizierung von Sedimentorganismen zur Aufklärung der Zusammensetzung mikrobieller Gemeinschaften und zur Abschätzung der mikrobiellen Diversität eingesetzt werden.

 

Vortrag zur Öffentlichen Herbstsitzung am 14.11.2003
Klaus Arnold (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:

Dr. rer. nat. habil, Professor für Medizinische Physik und Biophysik an der Universität Leipzig; Prodekan der Medizinischen Fakultät und Direktor des Institutes für Medizinische Physik und Biophysik der Universität Leipzig; am 3. Juni 1988 zum Ordentlichen Mitglied der Mathematisch-naturwissenschaftlichen Klasse der Sächsischen Akademie der Wissenschaften gewählt.
Hauptarbeitsgebiete: Molekulare Biophysik, Membran-Biophysik, Zelluläre Biophysik, Rheumatoide Arthritis und Arteriosklerose.

 

Knorpelstruktur und Abbauprozesse – Ist „Rheuma“ bald heilbar?

Rheumatische Erkrankungen sind wahre „Geißeln” der Einwohner der Industrienationen. So werden bei jedem zweiten Untersuchten über 45 Jahre bereits Veränderungen am Knorpelgewebe nachgewiesen. Dennoch sind die Ursachen der Erkrankung noch weitgehend unbekannt. Man nimmt an, daß es sich bei „Rheuma” um eine Autoimmunerkrankung handelt. Dabei werden Zellen des Immunsystems, die normalerweise die „Gesundheitspolizei” des Körpers darstellen und eingedrungene Mikroorganismen abtöten sollen, „fehlgeleitet”, und entfalten ihre zerstörerische Wirkung gegen den Knorpel. Da die Ursachen für die Entstehung von Rheuma bisher nicht geklärt werden konnten, sind auch die Therapieansätze nicht direkt gegen die Krankheitsursache gerichtet, sondern beschränken sich auf eine Linderung der Entzündungs- und Abbauprozesse.

Ein neuer Ansatzpunkt zur Behandlung von rheumatischen Erkrankungen geht von der Blockade des Zytokins TNF-a aus. Dieses Molekül erhöht wesentlich die Entzündungsaktivität und vermittelt somit entscheidend die Gewebeschädigung. Im Rahmen der hier dargestellten Untersuchungen konnte mittels moderner biophysikalischer Methoden gezeigt werden, daß den neutrophilen Granulozyten, deren Funktion besonders stark von TNF-a abhängig ist, eine weitaus größere Bedeutung bei der Knorpeldestruktion zukommt als bislang angenommen wurde.

Unsere experimentellen Untersuchungen basieren auf Methoden, die bisher in der Rheumaforschung sehr wenig genutzt wurden, teilweise auch erst durch neue Entwicklungen möglich geworden sind. Neben der bereits in breitem Umfang klinisch genutzten NMR-(nuclear magnetic resonance)-Bildgebung (MRT) wird auch die bislang mehr in den naturwissenschaftlichen Grundlagenfächern etablierte NMR-Spektroskopie zur Beurteilung der Knorpelgüte sowie der Knorpelzusammensetzung eingesetzt. Mit diesen NMR-Techniken (Hochauflösungs-NMR, Festkörper-NMR sowie Messung von Diffusionskoeffizienten mittels PFG-NMR) ist es durch geschickte Wahl der NMR-Parameter möglich, die beiden Hauptkomponenten des Knorpels, das Collagen und die Proteoglycane, zu differenzieren und hinsichtlich ihrer molekularen Beweglichkeiten im Knorpelgewebe zu charakterisieren. Diese Untersuchungen sind von großer Bedeutung für das detailliertere Studium der Schwellung des Knorpels und seiner damit verbundenen (visko)-elastischen Eigenschaften.

Außerdem konnte gezeigt werden, daß wichtige Informationen zu den Knorpelabbaumechanismen mittels NMR erhalten werden können: Die Untersuchungen der Gelenk-(Synovial)-flüssigkeiten von Patienten mit rheumatoider Arthritis ergaben eine ausgezeichnete Korrelation zwischen dem Ausmaß der Knorpelschädigung und der Aktivität des Enzyms Myeloperoxidase, d.h. dem Enzym, das unter in vivo Bedingungen die Bildung hochreaktiver Hypochlorsäure (HOCl) katalysiert. Da ausschließlich die neutrophilen Granulozyten Myeloperoxidase in größeren Mengen enthalten, ist dies ein wesentlicher Hinweis auf die Beteiligung dieser Zellen bei der Knorpelschädigung bei rheumatischen Erkrankungen und die hohe Relevanz der eingangs erwähnten TNF-a-Therapie.

 

Vortrag zur Öffentlichen Herbstsitzung am 14.11.2003
Pirmin Stekeler-Weithofer (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:

Dr. phil. habil., seit 1992 Professor für Theoretische Philosophie an der Universität Leipzig; seit 1993 Leiter des Geistes- und Sozialwissenschaftlichen Zentrums der Universität Leipzig im ZHS, am 9. Januar 1998 zum Ordentlichen Mitglied der Philologisch-historischen Klasse der Sächsischen Akademie der Wissenschaften gewählt.
Hauptarbeitsgebiete: Philosophie der Sprache, Philosophie der Logik und Mathematik, Philosophie der exakten Wissenschaften, Handlungstheorie.

 

Was ist denken?

Der Titel erinnert an eine berühmte Vorlesungsreihe Martin Heideggers, die dieser im Wintersemester 1951/52 und dann wieder im Sommersemester 1952 an der Universität Freiburg gehalten hat. Die Vorlesung und das zugehörige Buch sind berühmt geworden wegen der folgenden, scheinbar polemischen, in jedem Fall kryptischen Merksätze: „Die Wissenschaft denkt nicht“. „Das Denkwürdigste ist, dass wir noch nicht denken.“ Heideggers unerhörte Thesen werden ausgelegt in enger Verwandtschaft zum Leitspruch Ernst Blochs: „Denken heißt Überschreiten“.

Es wird gezeigt, dass es sich nicht um eine Kritik an den Natur- und Technikwissenschaften handelt. Thema ist vielmehr die um sich greifende Kulturlosigkeit unserer Zeit. Diese zeigt sich im zunehmenden Verlust der Fähigkeit zum gemeinsamen, durchaus immer auch streitbaren, institutionellen Denken. Die Deutung menschlichen Denkens nach dem Muster der modernen Kognitionswissenschaften kaschiert diesen Verlust und zwar auf dem Weg der Übertragung von Formen aus unserer Apparatewelt und der biologischen Umwelt auf die Menschenwelt. Man analogisiert damit die Operationen einer Maschine mit denen des Gehirns und das Verhalten eines biologischen Organismus mit dem Handeln von Personen. Dies mag als Hilfsmittel zur Artikulation von Vorbedingungen des subjektiven Erkennens sinnvoll sein. In psychologischen, ökonomischen und dann auch philosophischen Theorien wird dann aber Denken im Ganzen zum bloßen Berechnen der minimalen Kosten im Mitteleinsatz für eine maximale Erfüllung subjektiver Präferenzen oder eines maximalen Durchschnittsnutzens. Dies führt zur Apologetik einer ‘halbierten Vernunft’ bloß lokaler und kurzfristiger Lösungen vorgegebener Problemlagen. Autonomes Denken besteht dagegen im freien Diskurs um die Rahmenbedingungen, welche die Probleme oft erst erzeugen, und damit auch um Ideen oder Visionen möglicher Entwicklungen von Institutionen als Rahmen kooperativer Praxis- und Handlungsformen. Erst das wäre ein Denken über das Wesen von Wissenschaft und Technik, von Ökonomie und Politik.

Die gravierendsten Folgen des Konservativismus bedenkenloser Anerkennung des gegebenen Rahmens liegen im Bildungs- und Kulturbereich: Wenn ökonomische Nachfrage und technische Machbarkeit ausschließliche Maßstäbe für Leistung sind, entsteht ein Ausbildungswesen, das bestenfalls funktionstüchtige Mitarbeiter für einen gegebenen Gesamtbetrieb produziert. Da wirklich innovative Ideen autonomes Denken verlangen, verwandeln wir uns selbst in eine Gesellschaft von Arbeitern auf technisch hohem Niveau, die an der verlängerten Werkbank der übrigen Welt ihre ökonomischen Nischen suchen müssen. Die Entwicklung der Grundideen in Wissenschaft und Technik und auch der Leitbilder in Kultur und Medien finden dann hinter unserem Rücken statt – oft in einem unkontrollierten evolutiven Prozess, einem epochalen Ereignis im Sinne Heideggers, dem sich die vermeintlichen Akteure selbst mehr und mehr widerfahrnisartig ausliefern.

 

Vortrag am 10.10.2003
Heinrich Magirius (Dresden), Ordentliches Mitglied der Philologisch-historischen Klasse:


Der Altar aus der Sophienkirche in Dresden von Giovanni Maria Nosseni. Die denkmalpflegerische Rettung eines kriegszerstörten Werks europäischen Ranges vom Anfang des 17. Jahrhunderts

Im ersten Teil des Vortrags wird auf das Schicksal des Altars der Dresdner Sophienkirche im und nach dem Zweiten Weltkrieg eingegangen. Die Absicht der Denkmalpflege, den Altar wieder zusammenzufügen, konnte erst nach dem Wiederaufbau der ebenfalls kriegszerstörten Barockkirche in Dresden-Loschwitz in die Tat umgesetzt werden. Der aus verschiedenen Steinmaterialien bestehende, elf Meter hohe Altar wurde hier zwischen 1997 und 2000 rekonstruiert. In diesem Falle wurden als in der Denkmalpflege theoretisch unvereinbar geltende Ziele wie „Anastylose” der historischen Substanz und „Rekonstruktion” des ursprünglichen Erscheinungsbildes miteinander verknüpft. Dank einer unaufdringlichen konstruktiven Lösung und der Verwendung von vorwiegend „weichen” Ersatzmaterialien konnten alle Reste in das Gesamtbild eingepasst werden, an dem das Original ablesbar bleibt. Die denkmaltheoretische Forderung nach Reversibilität der Maßnahmen ist prinzipiell erfüllt.

Im zweiten Teil wird der Altar als Werk von „europäischem Rang” vorgestellt. Dabei spielen sowohl historische als auch kunsthistorische Erkenntnisse eine Rolle. Obwohl von der sächsischen Kurfürstin Sophie, der Witwe Christians I., gestiftet, können für die Übernahme der alten Franziskanerkirche als Kirche „saneta Sophia” durch die Kurfürstin 1602, den Bau einer Gruft 1603 und die Errichtung des Altars 1606/07 keine Interessen im Sinne einer dynastischen „Memoria” ausgemacht werden. Vielmehr spielen dabei persönliche Erlebnisse der Kurfürstin eine Rolle. Sie führen zu einer Stiftung „pia causa”. Dafür kann ein Vergleich mit gleichzeitigen katholischen Stiftungen „ex voto” gezogen werden. Diese Interpretation wird durch die wohl durch den Oberhofprediger Polykarp Leyser entworfene Ikonographie gestützt. Im Unterschied zu anderen lutherischen Altären appelliert der Altar an den Glaubensvollzug durch den Betrachter. Überraschend ist der vollkommene Verzicht auf Heraldik und Herrschaftsinsignien.

Stilistisch knüpft der Altar an die Epitapharchitekturen der Freiberger Fürstengruft an, die Giovanni Maria Nosseni 15 Jahre früher entworfen hatte. Auch in der Auswahl von edlen Steinmaterialien folgt Nosseni seinem früheren Werk. Die „gotischen” Proportionen sind vor allem der Einordnung des Altars in das Nordschiff der alten Franziskanerkirche geschuldet. Völlig abweichend zu den aus Florentiner Traditionen stammenden Freiberger Skulpturen lassen sich für die Dresdner Altarfiguren Vorbilder in Venedig ausmachen. Als Meister kommen aber keine Italiener infrage, vielmehr drei Brüder der dritten in Dresden wirkenden Bildhauerfamilie Walther. Mindestens einer von den drei Brüdern muß in Venedig Werke der Sansovino-Schüler Alessandro Vittoria und Girolamo Campagna kennengelernt haben. Während Nosseni in seinen späteren Werken frühbarocke Tendenzen verfolgt, ist er nur noch einmal – bei seinem 1616 geschaffenen eigenen Epitaph – auf den Stil des Altars zurückgekommen. Desgleichen der Bildhauer der Figuren, der mit einem der Walther-Brüder gleichgesetzt werden kann. Das stilistisch aus dem Rahmen fallende Werk ist wohl am ehesten als Nossenis Huldigung an Italien, das Heimatland der Renaissance, zu verstehen.

 

Vortrag am 10.10.2003
Hans-Jürgen Hardtke (Dresden), Ordentliches Mitglied der Technikwissenschaftlichen Klasse:


Akustische Strukturoptimierung

Ein wichtiges Gebiet der Grundlagenforschung auf dem Grenzgebiet Mechanik-Akustik ist die akustische Strukturoptimierung. Hintergrund sind die gestiegenen Anforderungen an die Konstruktion und Auslegung von mechanischen Strukturen im Maschinen- und insbesondere Fahrzeugbau. Gewichtsverringerung, Erhöhung der Arbeitsgeschwindigkeiten und Umweltstandards lassen akustische Probleme der Schallabstrahlung, hervorgerufen durch Strukturschwingungen, immer mehr in den Vordergrund treten. Die konventionellen Möglichkeiten zur weitgehenden Unterbrechung der Körperschallübertragung zwischen Erregung und Abstrahlflächen, Dämpfung schwingender Strukturen oder Ursachenbekämpfung an der Erregung sind begrenzt.

Ein neu entwickeltes Verfahren gestattet es, abstrahlende Strukturen akustisch durch geometrische Veränderungen zu „dämpfen”. Voraussetzung ist, daß die zu optimierende Struktur auf der FEM-Basis mit einem geometriebasierenden parametrischen Modell beschrieben wird. Das so erstellte Modell wird mit Hilfe von experimentellen Untersuchungen, wenn das zu optimierende „Objekt” nicht nur auf der Zeichnung existiert, mit Hilfe eines Laser-Scanning-Vibrometers durch Visualisierung der Schwingformen iterativ angepaßt. An das so beschriebene Modell wird ein Fluidmodell angekoppelt.

Es muß ein numerisches Berechnungsverfahren bereitgestellt werden, das es gestattet, den Schalldruck oder die Schallleistung in einem Schallfeldraum an einer beliebigen Stelle zu berechnen. Hierzu eignet sich die Boundary-Element-Methode (BEM) unter Benutzung einer explizit frequenzabhängigen Formatierung unter Berücksichtigung komplexer Wandadmittanzen.

Ausgangspunkt ist die HELMHOLTZ-Gleichung, die durch Anwendung des GREEN’schen Integralsatzes in eine Randwertgleichung überführt wird. Die Kopplung von Fluid- und Strukturschwingen erfolgt über ROBIN-Randbedingungen. Eine Diskretisierung mit dem Kollokationsverfahren und der Annahme des Sonderfalls der Anregung des Fluids nur durch Strukturschwingungen, liefert eine „relativ einfache” Gleichung für den Schalldruck im Raum. Nach Formulierung eines Zielfunktionals, z.B. den Schalldruck in einem vorgegebenen Frequenzbereich, wird diese Funktion durch Variation der Geometrieparameter mittels von Optimierungsverfahren minimiert. Bei der Optimierung zeigt sich der stufenweise Einsatz von stochastischen und deterministischen Verfahren als sinnvoll. Das Gesamtverfahren wurde in ein anwendungsreifes Programm AKUSTA überführt.

Da die bei der numerischen Schallfeldberechnung entstehenden Gleichungssysteme im Bereich von 20 000 bis 100 000 Gleichungen liegen, ergeben sich selbst beim Einsatz von schnellen Parallelrechnern große Rechenzeiten. Um den Rechenaufwand deutlich zu senken, wurden die Berechnungsverfahren des Schallfeldes durch Einsatz der schnellen Multipol-Methode (FMM) erheblich beschleunigt.

Als sehr hilfreich hat es sich erwiesen, ein Verfahren zu entwickeln, mit dessen Hilfe die Visualisierung akustisch relevanter Schwingungsanteile ermöglicht wird. Es gibt dem Konstrukteur visuell sofort einen Anhaltspunkt über die akustischen Schwachstellen. Gleichzeitig dient das Verfahren der Anpassung eventuell unterschiedlicher Netze von Struktur und Fluid.

Mit dem entwickelten Verfahren zur Geräuschminderung durch Strukturoptimierung wurde ein Werkzeug geschaffen, mit dessen Hilfe die Geräuschübertragung gezielt minimiert werden kann. Dies wird an Hand von verschiedenen Anwendungsbeispielen aus der Industrie erläutert. Dabei zeigte sich, daß ohne zusätzlichen Materialeinsatz eine Versteifung durch kleine (mm-Bereich) geometrische Änderungen, insbesondere bei Schalenstrukturen erreicht und damit die gewünschte Geräuschminderung erzielt werden kann.

 

Vortrag am 13.6.2003
Lothar von Wolfersdorf (Freiberg), Ordentliches Mitglied der Mathematisch-Naturwissenschaftlichen Klasse:


Analytische Lösung der Auto-, Kreuz- und Tripel-Korrelationsgleichungen und verwandter Integral- und Integrodifferential-Gleichungen

Die Integralgleichungen zur Bestimmung eines Signals aus seiner Auto-, Kreuz- oder Tripel-Korrelationsfunktion sind von großer Bedeutung in der allgemeinen Signaltheorie und ihren verschiedenartigen Anwendungen in der Spektroskopie, der optischen Strömungsdiagnostik und der Seismologie sowie der Wahrscheinlichkeitstheorie. Im Vortrag werden analytische Lösungsmethoden für diese Gleichungen vorgestellt, die in Ergänzung zu numerischen Lösungsverfahren eine vollständige mathematische Beherrschung der Gleichungen erlauben. Wie bei der bekannten Wiener-Hopf-Technik für Faltungsgleichungen gelingt es, mit Hilfe der Fourier-Transformation und der Theorie komplexer Funktionen exakte Lösungen dieser Gleichungen in expliziter Form zu erhalten.

Ausgehend von dem Mangel der Autokorrelationsgleichung auf der ganzen Zeitachse, aus der Autokorrelationsfunktion die Phase des Signals zu bestimmen, werden im ersten Teil des Vortrags zur Abhilfe dieses Mangels nacheinander die Tripel(auto)korrelationsgleichung, die Autokorrelationsgleichung auf dem halb-unendlichen und auf dem endlichen Zeitintervall und die linearen und nichtlinearen Kreuzkorrelationsgleichungen behandelt.

Die entwickelten Lösungsmethoden werden im zweiten Teil des Vortrags auf die H-Gleichung von Ambarzumjan und Chandrasekhar aus der Astrophysik angewendet, welche die grundlegende Gleichung für den Energietransport durch Strahlung in der halb-unendlichen eben-parallelen Atmosphäre darstellt und auch Anwendungen auf Strahlungsprobleme in der Wärmetechnik besitzt.

Schließlich werden als neuartige Modellgleichungen der mathematischen Physik eine Klasse gewöhnlicher Integrodifferentialgleichungen mit Korrelationstermen und zwei Klassen partieller Integrodifferentialgleichungen mit Konvolution-Korrelations-Integralen angegeben, welche sich mit einer Weiterentwicklung der Lösungsmethode behandeln lassen.

 

Vortrag am 13.6.2003
Winfried Hacker (Dresden), Ordentliches Mitglied der Technikwissenschaftlichen Klasse:


Entwerfendes Denken (design problem solving) in der Produktentwicklung und seine Unterstützungsmöglichkeiten aus psychologischer Sicht

Entwicklungstätigkeiten und die ihnen entstehenden Innovationen haben eine Schlüsselrolle für Wirtschaftsstandorte. Ausschlaggebenden Einfluss auf die Innovativität von Lösungen haben die sogenannten frühen Phasen dieser Tätigkeiten im Sinne der VDI 2221.

Die psychischen Anforderungen dieser frühen Phasen werden als Anforderungen des Entwurfsproblemlösens (design problem solving) beschrieben. Diese Kennzeichnung ist unvollständig, weil u.a. die Rolle von Vorwissen und von psychomotorischen Prozessen dabei unberücksichtigt bleibt. Eine zutreffendere Beschreibung ist die als „opportunistisches Vorgehen mit systematischen Episoden”.

Differenzielle Untersuchungen lassen verallgemeinerungsfähige Unterschiede im Vorgehen von Experten und durchschnittlichen Fachleuten erkennen, die auch als Ausgangspunkt von theoretisch begründbaren Unterstützungsmöglichkeiten nutzbar sind. Unterstützungsmöglichkeiten werden u.a. auf der Grundlage von experimentalpsychologischen Ergebnissen der eigenen Arbeitsgruppe dargestellt.

Ausgewählt werden:

  • Das Prinzip des „Denkens im und durch das Handeln”, erörtert für das manuelle Skizzieren vor und bei CAD-Arbeit als Gedächtnisunterstützung sowie insbesondere als Mittel zur Ideenerzeugung.
  • Die fragengestützte reflexive Auseinandersetzung mit eigenen Lösungsergebnissen („Question answering techniques”) auf der Grundlage sogenannter dialogischer Denk- und Sprechstrukturen.
  • Die sogenannte hybride Organisation von Entwurfsarbeitsprozessen, zusammengesetzt aus individuellen Tätigkeitsphasen, Tätigkeitsabschnitten mit Gruppenarbeit sowie Abschnitten mit sogenannter Nominalgruppentechnik.

 

Vortrag am 9.5.2003
Walter Zöllner (Halle/Saale), Ordentliches Mitglied der Philologisch-historischen Klasse:


Die Halberstädter Bischöfe vom Ende des 12. bis zur Mitte des 15. Jahrhunderts

Das Bistum Halberstadt ist das älteste Bistum in den neuen Bundesländern. Es entstand nach den Sachsenkriegen Karls des Großen im östlichen Missionsgebiet des Karolingerreiches, war Bestandteil der Kirchenprovinz Mainz, wurde nach dem Dreißigjährigen Krieg säkularisiert und als weltliches Fürstentum Brandenburg zugeschlagen. Die Erinnerung an seine Geschichte lebt noch heute in zahlreichen Bau- und Kunstdenkmälern weiter. Der Vortrag bietet in systematischer Weise Untersuchungsergebnisse, die bei der Arbeit am Lexikon „Die Bischöfe des Heiligen Römischen Reiches 1198 bis 1448” entstanden sind. Die Ausführungen gliedern sich in folgende Abschnitte:

Einleitung

  • Bemerkungen zum Forschungsstand.
  • Die Entwicklung des Halberstädter Bistums bis zum Ende des 11. Jahrhunderts.

Hierbei wird auf die Entstehung des Bistums und die Schaffung der kirchlichen und weltlich-materiellen Grundlagen für Stellung und Wirkungsmöglichkeiten der Bischöfe von Halberstadt eingegangen. Herausragende Bedeutung besaßen die Gründung des Erzbistums Magdeburg sowie die Einbindung der Halberstädter Bischäfe in die Ereignisse der Zeit von Kirchenreform und Investiturstreit, des alexandrinischen Schismas und der Auseinandersetzung zwischen Staufern und Welfen.

1. Die Einbindung der Halberstädter Bischöfe des untersuchten Zeitraumes in die Reichspolitik. Das Verhältnis zum Papsttum. Die Territorialpolitik.

Die relativ enge Verknüpfung mit der Reichspolitik endet Mitte des 13. Jahrhunderts. Hervorzuheben sind die abschließenden Auseinandersetzungen mit den Welfen und die Haltung der Halberstädter Bischöfe im staufisch-welfischen Thronstreit. Durch das Engagement Konrads von Krosigk hatten die späten Kreuzzüge für Halberstadt eine relativ große Bedeutung. Aus späterer Zeit waren Predigt und Kollekte von Belang. Zum Hauptproblem im Verhältnis zum Papsttum entwickelten sich die kurialen Ansprüche auf die Stellenbesetzung. Ihren Höhepunkt erreichten die Auseinandersetzungen mit dem avignonesischen Papsttum unter dem Bischof Albrecht von Braunschweig-Lüneburg.

Für den Aufbau einer eigenen Landesherrschaft besaßen die Halberstädter Bischöfe nur eingeschränkte Möglichkeiten. Sie waren in viele militärische Konflikte einbezogen, schlossen Bündnisse und beteiligten sich an der Landesfriedenspolitik. Enge Verbindungen bestanden im gesamten Zeitraum zu den Magdeburger Erzbischöfen.

Voller Probleme steckte auch das Verhältnis der Bischöfe zu den Städten, insbesondere zu Halberstadt. Hierbei ist vor allem auf den Dualismus zwischen bischöflicher Stadtherrschaft und städtischer Autonomiebewegung sowie auf die Verknüpfung der Bischöfe mit den innerstädtischen Auseinandersetzungen einzugehen.

2. Struktur und Organisation der hochstiftischen Besitzungen und der Diözese unter den Halberstädter Bischöfen während des untersuchten Zeitraumes.

Eine systematische Territorialpolitik begann erst unter Albrecht von Anhalt zu Anfang des 14. Jahrhunderts. Trotz verschiedener Sanierungsmaßnahmen verschlimmerte sich die Finanznot des Bistums im 15. Jahrhundert immer mehr. Seit dem 13. Jahrhundert bildete sich allmählich ein bescheidenes landesfürstliches Beamtentum heraus, bei dem der Stiftshauptmann immer mehr an Bedeutung gewann. Es gab Stände und eine lockere Ämterorganisation.

Für die Diözesanverwaltung stand eine mit dem Domkapitel verknüpfte außerordentlich differenzierte Archidiakonatsorganisation zur Verfügung, welche die Wirksamkeit der Bischöfe allmählich zurückdrängte. Als Gegengewicht setzten die Halberstädter Bischöfe seit dem Ende des 13. Jahrhunderts spezielle Jurisdiktionsbeamte – die Offiziale – ein.

3. Weitere mit den Halberstädter Bischöfen im Untersuchungszeitraum verknüpfte geistlich-kirchliche Probleme.

Angesichts der biografischen Orientierung der Arbeit war besonderer Wert auf Herkunft, Karriere, Wahl, Providierung und Amtsübernahme sowie auf eventuellen Stellenwechsel und Resignation zu legen. Es gab viele Wahlprobleme und auch Doppelwahlen mit Gegenbischöfen. Zur geistlichen Unterstützung der Amtsinhaber gewannen Weihbischöfe steigende Bedeutung. Zwischen Bischof und Domkapitel, auf dessen Struktur hier eingegangen wird, bestand ein Condominium. Ein wesentlicher Aufgabenbereich der Bischöfe war die Aufsicht über die geistlichen Institutionen der Diözese. Unter diesen besaßen die Stifter der Bischofsstadt den meisten Einfluss.

Im geistlichen Leben des Bistums kam wie überall der Heiligenverehrung zentrale Bedeutung zu. Mit ihr war ein hochentwickeltes Ablasswesen verbunden, das den päpstlich-konziliar verordneten Normen folgte. Auch das Memorialwesen besaß großen Umfang; hierfür gaben die Bischöfe wichtige Impulse. Als einziger Gelehrter ragt Albrecht III. unter den Halberstädter Bischöfen des späten Mittelalters hervor. Er gilt als beachtenswerter Vertreter der Spätscholastik.

 

Vortrag am 9.5.2003
Heiner Kaden (Meinsberg), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


Ein Jahrhundert pondus hydrogenii – zur Bedeutung des pH-Wertes

Aus patentrechtlichen Gründen wird an dieser Stelle vorerst von einer Veröffentlichung Abstand genommen.

 

Festvortrag zur Öffentlichen Frühjahrssitzung am 11.4.2003
Wolfgang Erich Pompe (Dresden), Ordentliches Mitglied der Technikwissenschaftlichen Klasse:


Bionanotechnologie – das Nutzen der biologischen Evolution in der Materialwissenschaft und Technik

Die Natur hat in ihrer Evolution vielfältige Strukturen und zelluläre Mechanismen hervorgebracht, die uns durch ihre Komplexität und Schönheit faszinieren. Der große Erkenntnisfortschritt der Molekularbiologie, aber auch neue methodische Fortschritte in der Physik und Chemie eröffnen den Materialwissenschaftlern die Chance, diese „intelligenten” Bausteine für das Erzeugen neuer Werkstoffe zu nutzen. Die hierbei typischen Prozesse, die bei Raumtemperatur und in wässrigen Medien ablaufen, kommen zugleich unserem Suchen nach einer umweltverträglichen Prozesstechnik sehr entgegen.

Es soll gezeigt werden, welche interessanten Lösungsansätze sich für die Erzeugung von nanostrukturierten Materialien ergeben, wenn Biomoleküle, zelluläre Maschinen oder lebende Zellen für die Materialsynthese mit genutzt werden. Als mögliche technische Anwendungen werden die in vitro-Synthese von Knochengewebe, das Erzeugen von katalytisch wirksamen Edelmetallclustern, schwermetallbindende Filter sowie Nanodrähte für elektronische Anwendungen besprochen. Das neue Forschungsgebiet löst aber auch Fragen nach einem verantwortungsbewussten Umgang mit den denkbaren zukünftigen Entwicklungen aus, was eine ethische Bewertung zukünftiger Forschungsprojekte herausfordert.

 

Vortrag am 14.3.2003
Robert M. Parkin (Leicestershire), Korrespondierendes Mitglied der Technikwissenschaftlichen Klasse:


LOW-COST INFRA RED IMAGING FOR INTELLIGENT SYSTEMS

Summary

Infra Red cameras have been available for some years, the bulk of the research and development having taken place in the late 1970’s and early 1980’s for military usage. These devices were generally bulky and relied upon cryogenic cooling for their operation.

Modern day cameras or imagers are based upon pyrometric (capacitive) or bolometric (resistive) sensing elements operate at room temperature. A typical bolometric camera system will cost circa € 100 000. Whilst this is a significant advance, it is far too expensive for general purpose use in machinery, surveillance, etc.

The lecture describes a low-cost low-resolution pyrometeric system (circa € 5000 and less as volume sales increase) and experience of its application in:

Automotive Safety
Food Processing
Hajj Pilgrimage Research
Sports Clothing Design

   Rubber Moulding
   Building Services
   Building Research

It is clear form the provided examples that even low resolution devices can deliver useful information which may be used in intelligent systems of the future. Typical examples are processing machines that will predict their own maintenance requirements, and intelligent vehicles that will monitor drivers for tiredness and enable safer deployment of restraints in crashes.

 

Vortrag am 14.3.2003
Uwe-Frithjof Haustein (Leipzig) Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse:


Zum biologischen Verhalten des malignen Melanoms der Haut in der umgebenden Matrix

Am malignen Melanom (MM) erkranken in Deutschland jährlich 10 000 Menschen, 20 bis 25% versterben an diesem Hauttumor. Die Häufigkeit des Auftretens hat sich in den letzten 15 Jahren verdoppelt. Im Frühstadium mit relativ geringer Tumordicke ist das MM mit 97% gut heilbar. Die Ultraviolett-Exposition, insbesondere Sonnenbrände im Kindesalter führen zu direkten DNA-Schäden und zur Bildung reaktiver Sauerstoffspezies, wodurch die Tumorentwicklung begünstigt wird. Genetik, klinisches Bild, histopathologische und dermatoskopische Untersuchungsmethoden sowie die Pathogenese des MM werden kurz besprochen. Die Prognose des MM hängt in erster Linie von der Tumordicke (Invasionslevel) ab. Bei der Tumorentstehung werden folgende biologische Phasen durchlaufen: 1. Verlust der genetischen Stabilität der Melanozyten, 2. Loslösung aus ihrer dermalen Funktionseinheit, 3. Verlust der Wachstumskontrolle, 4. Fähigkeit zum invasiven Wachstum und 5. Metastasierung.

Über unsere eigenen Untersuchungsergebnisse soll an Hand der folgenden Themenkomplexe berichtet werden:

  1. Wechselseitige Beeinflussung von Melanomzellen und Fibroblasten,
  2. Beschreibung eines bisher unbekannten Gens für die Tumorprogression und
  3. die Rolle des neuen Adhäsionsmoleküls Thy1 bei der Adhäsion von Tumorzellen im Rahmen der Metastasierung.

Wir konnten zeigen, dass Fibroblasten aus der unmittelbaren Umgebung von Melanomen verstärkt die Matrixmetalloproteinase 1 (MMP1 = Kollagenase) im Vergleich zu Fibroblasten aus weiter vom Tumor entfernten Gewebearealen bzw. aus pigmentierten Muttermalen in Korrelation zur Eindringtiefe bilden. Der von den Melanomzellen sezernierte basische Fibroblastenwachstumsfaktor (bFGF) konnte als ein dafür verantwortlicher Faktor identifiziert werden. In einem dreidimensionalen Kulturmodell konnte gezeigt werden, daß die Invasion von Melanomzellen in eine kollagene Matrix von der Anwesenheit von Fibroblasten abhängt. Daraus wird ersichtlich, dass Melanomzellen die tumorumgebenden Fibroblasten so beeinflussen, daß diese über die Bildung von matrixabbauenden Enzymen und Sekretion von Zytokinen die Invasion der Melanomzellen unterstützen.

Aufbauend auf diesen Erkenntnissen wurde in einem molekularbiologischen Ansatz über eine Polymerasekettenreaktion gestützte subtraktive Hybridisierung ein bisher unbekanntes cDNA-Fragment (mel4B3) isoliert. Es konnte gezeigt werden, dass dieses Gen massiv in dermalen Fibroblasten durch lösliche Faktoren von Melanomzellen hochreguliert wird. Dieser Vorgang ist u.a. abhängig von dem Transforming growth factor (TGF) ß.

Abschließend wird gezeigt, dass ein neues Adhäsionsmolekül, das Thy1, auf Endothelzellen in der Umgebung von MM exprimiert wird und Melanomzellen ihrerseits den dazugehörigen Liganden exprimieren. Dieser Vorgang scheint als zusätzliches Adhäsionsmolekül bei der In- und Extravasion von Melanomzellen in die und aus den Gefäßen beim Metastasierungsprozeß eine Rolle zu spielen. Auf Grund der pathogenetischen Relevanz dieser Befunde sind in ferner Zukunft neue therapeutische Strategien denkbar.

 

Vortrag am 14.2.2003
Felix Zintl (Jena), Ordentliches Mitglied der Mathematisch-Naturwissenschaftlichen Klasse:


Krebs im Kindesalter – Erfolge und Probleme

In Deutschland erkranken jährlich etwa 2000 Kinder unter 15 Jahren an einer bösartigen Krankheit. Während der letzten drei Jahrzehnte hat die kombinierte Therapie dieser Erkrankungen einen erheblichen Anstieg der Heilungsraten gebracht. Dazu beigetragen haben alle beteiligten Fächer, vor allem aber die Zentralisierung der Behandlung und die Entwicklung sogenannter prospektiver multimodaler Therapieprogramme. Für die letzten 15 Jahre liegt die 5-Jahres-Überlebensrate bei etwa 75 %. Die Hoffnung, dass ein Großteil der betroffenen Kinder das Erwachsenenalter erreicht, ist Realität geworden. Damit musste man jedoch auch lernen, dass die Therapie, die die hohen Heilungsraten brachte, Nebenwirkungen verursacht, die wiederum die Lebensqualität der Überlebenden beeinträchtigen kann.

Am Beispiel der häufigsten bösartigen Erkrankung des Kindes – der akuten lymphoblastischen Leukämie (ALL) – werden klinische Probleme, diagnostische Möglichkeiten und die Entwicklung der therapeutischen Verfahren sowie die Spätschäden dargestellt.

Etwa 25 % der Malignome im Kindesalter sind akute lymphoblastische Leukämien mit einem Häufigkeitsgipfel des 2. bis 5. Lebensjahres. Die klinischen Zeichen, die zum Arztbesuch führen, sind relativ uniform. Die kleinen Patienten fallen durch Blässe, Leistungsknick, Blutungen und Infektionen auf. Bestimmte klinische Merkmale wie Alter, hohe Leukämiezellzahlen, Beteiligung des Zentralnervensystems u.a. können ungünstige Prognosezeichen sein. Die Diagnose wird durch Punktion des Knochenmarkes und deren zytologische Aufarbeitung, also morphologisch gestellt. Darüber hinaus sind heute jedoch immunologische, zytogenetische und molekulargenetische Methoden unverzichtbar.

Das Gesamtergebnis der Diagnostik führt zur Einteilung der Patienten in drei Risikogruppen (Standardrisiko, mittleres Risiko, hohes Risiko). Die Behandlung wird mit zahlreichen Zytostatika (Chemotherapie) mit oder ohne Bestrahlung des Zentralnervensystems und abgestufter Aggressivität durchgeführt und erstreckt sich über 2 Jahre. Die Stammzelltransplantation ist Patienten mit höchstem Risiko für einen Rückfall oder Patienten nach einem Rückfall vorbehalten.

Die heutigen Möglichkeiten der molekularbiologischen Diagnostik (minimal residual disease – MRD) können im Verlaufe der Initialtherapie eine Leukämiezelle unter 100000 normalen Zellen identifizieren. Klinische Studien dazu haben gezeigt, dass Kinder mit hoher Restleukämiezellbeladung nach definierten Behandlungszeiten mit einer großen Rezidivgefahr belastet sind.

Das rezidivfreie Überleben nach 5 Jahren für 2021 Patienten, die in Deutschland nach der Studie ALL-BFM 95 von 1995 bis 2000 behandelt wurden, beträgt 76 % (Standardrisiko 89 %, mittleres Risiko 79 %, hohes Risiko 49 %). Diese Ergebnisse stehen am Ende von zahlreichen Studien seit den 70iger Jahren.

Die in den letzten Jahren erreichten Ergebnisse ermöglichten es, von Studie zu Studie über Reduzierungen der aggressiven Therapie zu entscheiden, ohne die weitere Verbesserung des Gesamtergebnisses zu gefährden. Anlass dazu waren ohne Zweifel Nebenwirkungen und Spätschäden.

Hierzu sind Wachstumsstörungen, neurologische Störungen, Untersuchungen der Gonaden, Beeinträchtigung der Herz- und Lungenfunktion sowie Zweitmalignome zu nennen.

 

Vortrag am 14.2.2003
Helmar Junghans (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse:


Der mitteldeutsche Renaissancehumanismus – Nährboden der Frühen Neuzeit

Das Ziel des Vortrages ist der Aufweis, wie der mitteldeutsche Renaissancehumanismus der Nährboden für das folgenreichste Ereignis des 16. Jahrhunderts war, für die Entstehung und die Ausbreitung der Reformation. Die Darlegung konzentriert sich auf die ersten beiden Jahrzehnte des 16. Jahrhunderts.

Es ist zunächst aufzuspüren, wie weit sich Humanisten an geistlichen und weltlichen Fürstenhöfen, in Räten der Städte, in Klöstern und Stiften, unter den Predigern und Lehrern der Städte befanden. Besondere Aufmerksamkeit aber ist den Universitäten Erfurt, Leipzig und Wittenberg zu widmen. An allen drei Universitäten herrschte eine starke Fluktuation der Humanisten, jede der drei erlebte drei humanistische Phasen vor Luthers Thesenanschlag am 31. Oktober 1517.

In Erfurt wechselten sich als Wortführer eines Humanistenkreises Nikolaus Marschalk, Conradus Mutianus Rufus und Helius Eobanus Hessus ab. In Leipzig folgte auf Hermann von der Busche Johannes Rhagius Aesticampianus, danach traten die Gräzisten Richard Crocus und Petrus Mosellanus in den Vordergrund. In Wittenberg prägten an der 1502 gegründeten Leucorea Hermann von der Busche, Nikolaus Marschalk sowie Petrus und Vincentius Ravenna die erste Phase. Danach förderte der Juraprofessor Christoph Scheurl die Humanisten. Die dritten Phase prägten die Bibelhumanisten Martin Luther und Johann Lang in Zusammenarbeit mit dem Bibliothekar Georg Spalatin.

Das Verhalten der Nichthumanisten zu den Humanisten war an den einzelnen Universitäten unterschiedlich. In Erfurt gelangten Humanisten, die humanistische und scholastische Bildung verbinden wollten, in den Rat der Artistischen Fakultät, während die Gegner der Scholastik außerhalb bestehen konnten. In Leipzig verdrängten Magister der Artistischen Fakultät mehrfach die Humanisten. In Wittenberg wurden die Humanisten nicht nur von Anfang an zur Mitarbeit eingeladen, sondern sie fanden infolge der Neugründung auch keinen von der Tradition geprägten Widerstand vor.

Die mitteldeutschen Humanisten beschäftigten sich vorwiegend mit der Sprache im umfassenden Sinne. Sie mühten sich um ein besseres Latein, um das Studium des Griechischen und teilweise auch des Hebräischen. Sie beschäftigten sich mit Rhetorik und Anleitungen zum Abfassen von Versen und Briefen, edierten Werke antiker Autoren und von Kirchenvätern sowie von Humanisten. Weltanschauliche Gesichtspunkte traten kaum in Erscheinung. Anstöße erhielten die mitteldeutschen Humanisten aus Drucken italienischer Humanisten, auf Studienreisen in Italien oder von italienischen Humanisten, die in Mitteldeutschland lehrten. Verbindung zu Erasmus von Rotterdam knüpften sie erst später an.

Die Bibelhumanisten Luther und Lang entwickelten eine auf Bibel und Kirchenväter gegründete Theologie, die mit der spätmittelalterlichen Theologie und Kirche in Widerspruch geriet und über den Streit um den Ablaßhandel seit 1517 Breitenwirkung entfaltete. Diese Theologie brach grundsätzlich mit der Scholastik und den papalistischen Autoritätsansprüchen Roms. Sie verwarf die scholastische Ausbildung und erforderte eine humanistische Vorbildung in den artistischen Fakultäten. Sie führte in Wittenberg seit 1518 zu einer Universitätsreform, die das Studium der humaniora zum integralen Bestandteil der Hochschulbildung erhob. Der 1518 zum Professor für Griechisch berufene Philipp Melanchthon gestaltete im Einvernehmen mit Luther das Studium an der Artistischen Fakultät und schließlich in Entwürfen auch für die anderen Fakultäten ganz im Sinne humanistischer Bildungsziele aber in Harmonie mit der evangelischen Theologie um.

Sieht man auf die vielen, die als Studenten an den mitteldeutschen Universitäten mit humanistischen Bestrebungen und Scholastikkritik bekannt geworden waren und nun in der Politik oder in der Kirche, auf der Kanzel oder in der Schule, als Ärzte oder Juristen tätig waren, versteht man leicht, daß sie einen fruchtbaren Nährboden für die Aufnahme und Ausbreitung der reformatorischen Theologie und einer auf die Harmonie von Humanismus und Reformation ausgerichteten Bildung waren.

 

Vortrag am 10.1.2003
Dietmar Müller (Chemnitz), Ordentliches Mitglied der Technikwissenschaftlichen Klasse:


Machen Computer süchtig? Möglichkeiten und Unmöglichkeiten der Applikationen der Mikroelektronik

Die technologischen und applikativen Möglichkeiten der Mikroelektronik wachsen ständig. Seit den 70er Jahren gilt das Moore’sche Gesetz. Dies besagt, dass sich aller 3 Jahre die technologischen Möglichkeiten, d.h. der Integrationsgrad vervierfacht. Dies bedeutet, dass sich aller 3 Jahre die Zahl der Transistoren pro Quadratzentimeter auf das Vierfache erhöht, oder umgekehrt formuliert, dass bei gleicher Anzahl der Transistoren und damit der Funktionen auf dem Chip nur ein Viertel der Siliziumfläche benötigt wird.

Diese Entwicklung geht einher mit dem Sinken der Kosten pro Chip, Sinken der benötigten Leistung (bedeutsam bei batteriebetriebenen mobilen Geräten) und einem starken Anstieg der Verarbeitungsgeschwindigkeit. Diesem starken jährlichen Wachsen der technologischen Möglichkeiten kann die Effektivität beim Entwurf (d.h. die Zahl der entworfenen Transistoren pro Entwerfer und Mann-Monat) nicht in gleichem Umfange folgen. Durch dieses „Nachhinken” der Entwurfsproduktivität entsteht der so genannte „Design-Gap”. An der Verringerung dieses Design-Gaps wird weltweit mit großem Aufwand sehr intensiv geforscht. Neben effektiveren CAD-Tools (z.B. Ansätze zur High-Level-Synthese), der stark wachsenden Nutzung von Intellectual Properties (IP = wiederverwendbare/anpaßbare Komponenten und Module) gewinnen anwendungsspezifische Schaltkreise (ASIC’s) in den unterschiedlichsten Formen stark an Bedeutung. Die TU Chemnitz, Fakultät für Elektrotechnik, arbeitet – eingebettet in zahlreiche Industrieprojekte und Förderprojekte – intensiv an der Beseitigung des Design-Gap’s und der weiteren Verbesserung der applikativen Möglichkeiten der Mikroelektronik mit.

Im Vortrag werden, basierend auf den Prognosen der „Silicon Roadmap”, der Stand und die Tendenzen der weiteren technologischen Entwicklung dargestellt. Es wird versucht, diese faszinierende, jedoch kaum „begreifbare” Entwicklung anschaulich darzustellen, indem nachvollziehbare Vergleiche angestellt werden. Neben den technologischen Parametern geschieht dies auch z.B. für Prozessoren und für Computer.

Anschließend werden die Auswirkungen der Mikroelektronik auf unser tägliches Leben skizziert. Es werden positive und negative Aspekte dar- und zur Diskussion gestellt. Letztlich wird die Frage nach der Verantwortung des Technikers für seine Ergebnisse und seine Produkte zum wiederholten Male gestellt.

 

Vortrag am 10.1.2003
Gerlinde Huber-Rebenich (Jena), Ordentliches Mitglied der Philologisch-historischen Klasse:

 

Eine Vorlesung mit Folgen. Auf den Spuren eines Metamorphosen-Kommentars des Trecento

Auf Wunsch der Bologneser Studentenschaft wurde im Jahr 1321 von der Stadt ein Rhetorikprofessor eingestellt, der nach einer Pause von knapp 100 Jahren erstmals wieder die lateinische Poesie der Antike innerhalb des Curriculums vertreten sollte. Der Posten wurde mit Giovanni del Virgilio besetzt, einem frühhumanistischen Dichter aus dem Kreis von Dante und Mussato. Zu den Texten, über die er vor den Studenten las, gehörten die Metamorphosen des Ovid, eines der in der abendländischen Kunst und Literatur am stärksten rezipierten Werke des klassischen Altertums. Der Wortlaut dieser Vorlesung, die in der Forschung gemeinhin als ‚Expositio‘ bezeichnet wird, ist in mehreren Handschriften des 14. und 15. Jahrhunderts erhalten, aber bis heute noch nicht ediert. Im wesentlichen bietet sie eine am Kenntnisstand der Zuhörerschaft orientierte Prosaparaphrase des ovidischen carmen perpetuum: Das Vokabular ist vereinfacht, verschachtelte Erzählungen sind linear angeordnet, entlegene geographische Eigennamen werden erklärt und antike Bräuche, die nicht mehr verstanden werden, durch zeitgenössische Äquivalente ersetzt. Zuweilen weicht Giovanni del Virgilio inhaltlich von seiner Vorlage ab, z.B. wenn er statt der ovidischen Sage eine rationalistische Variante aus einer anderen mythographischen Quelle wiedergibt. Zudem komplettiert er den antiken Dichter, indem er Episoden, die dieser nur en passant andeutet, vollständig referiert. So schafft Giovanni del Virgilio ein dem Horizont seines Publikums entsprechendes Kompendium der antiken Mythologie.

Dieses Kompendium diente Ende des 14. Jahrhunderts dem volgarizzatore Giovanni dei Bonsignori als Hauptvorlage für seinen Ovidio metamorphoseos vulgare. Über dieses Werk, das 1497 in Venedig erstmals gedruckt wurde und sich in der Folge großer Nachfrage erfreute, erreichte die Bologneser Vorlesung eine breite, nun auch volkssprachliche Leserschaft.

Die Prosaparaphrase des Giovanni del Virgilio wirkte indes nicht nur im Medium Text weiter. Bereits die Erstausgabe des Ovidio metamorphoseos vulgare von 1497 war mit einer Serie von Holzschnitten ausgestattet, deren ikonographische Eigenheiten ohne Zweifel auf die ‚Expositio‘ zurückgehen und daher zuweilen dem Inhalt des ovidischen Originals zuwiderlaufen. Dieser Bilderzyklus war so beliebt, daß er in den folgenden Jahrzehnten immer wieder abgedruckt und mehr oder weniger getreu kopiert wurde. Selbst die stilistisch sehr viel feineren Holzschnitte des Giovanni Andrea Rusconi zu Lodovico Dolces Trasformationi, die ab 1553 in Italien die ältere Serie in der Gunst des Publikums ablösten, hängen in der Ikonographie einiger Motive noch von dieser ab. Kopien nach Rusconis Serie finden sich später in Francesco Bardis Ovidio istorico, politico, morale (Erstdruck 1674). Diese emblematische Bearbeitung der Metamorphosen mit ihren allegorisch-moralisierenden Auslegungen wurde bis ins 18. Jahrhundert hinein rezipiert. Auf diesem Wege überlebte die Vorlesung des Giovanni del Virgilio, die auf der Schwelle zwischen Mittelalter und Renaissance entstanden war, bis ins Zeitalter des Barock. Sie bezeugt damit ein Kontinuum von literarischen und künstlerischen Motiven, das die Epochengrenzen überdauert.

Termine
Holzbasierte Bioökonomie - Treiber innovativer Technologien 07.12.2016 10:00 - 16:00 — Karl-Tauchnitz-Str. 1, 04107 Leipzig
Öffentliche Herbstsitzung 2016 09.12.2016 16:00 - 20:00 — Bibliotheca Albertina, Beethovenstraße 6, 04107 Leipzig
Horst-Michael Prasser: Basisinnovation bei Kernreaktoren 16.01.2017 18:30 - 20:00 — TU Dresden, Festsaal des Rektorats, Mommsenstr. 11, 01069 Dresden
Forum "Offenes Land - offene Fragen" 08.02.2017 18:00 - 20:00 — Karl-Tauchnitz-Str. 1, 04107 Leipzig