Sie sind hier: Startseite Plenum Plenarvorträge 2011 bis 2020

Plenarvorträge 2014

Kurzfassungen der Plenarvorträge

Vortrag am 13.6. 2014
Armin Grunwald (Karlsruhe), Korrespondierendes Mitglied der Technikwissenschaftlichen Klasse

Dr. rer. nat., Leiter des ITAS (Institut für Technikfolgenabschätzung und Systemanalyse) am Karlsruher Institut für Technologie; Korrespondierendes Mitglied der Technikwissenschaftlichen Klasse seit 11. Februar 2011;
Hauptarbeitsgebiete: Ethik neuer Technologien, insbesondere von Nanotechnologie und Synthetischer Biologie, Theorie und Methoden der Nachhaltigkeit, Theorie und Praxis der Technikfolgenabschätzung.


Wie kann wissenschaftliche Politikberatung funktionieren? Das Beispiel Deutscher Bundestag

Das Bild von Technik in der Gesellschaft heute ist durch vielerlei Widersprüche gekennzeichnet. Einerseits gilt Technik nach wie vor als zukunftsweisend und wohlstandssichernd, als beschützend und komfortsteigernd, als Versprechen auf und vielfach auch als Notwendigkeit für die Gestaltung einer guten Zukunft. Die erwünschten und als positiv wahrgenommenen Folgen werden zumeist als Fortschritt empfunden. Andererseits sind Folgen von Technik eingetreten, die nicht mehr als wünschenswert gelten können: Gesundheitsgefahren für Menschen und schwere Unfälle, Probleme für die natürliche Umwelt, etwa für das Klima, aber auch soziale Probleme und Technikkonflikte. Diese Ambivalenz in der Wahrnehmung und den Folgen von Technik lässt sich konstruktiv als eine Gestaltungsaufgabe zu verstehen: die Herausforderung ist, den weiteren Gang der technischen Entwicklung so zu gestalten, dass die gewünschten Effekte realisiert werden, während unerwünschten Folgen möglichst vorgebeugt wird. Um dies zu ermöglichen, ist interdisziplinäre Erforschung der Folgen technischer Entwicklungen, noch bevor diese eintreten, genauso erforderlich wie darauf aufbauende Beratung.

Die Technikfolgenabschätzung ist hierfür ein etabliertes Beispielfeld. Ihre Grundmotivation ist, sich bereits in frühem Stadium und umfassend mit möglichen Folgen zu befassen, um steuernd eingreifen zu können. Letztendlich geht es um ein Abwägen von Chancen und Risiken. TA soll dazu beitragen, systematisch die Voraussicht für die Folgen unserer Handlungen in zeitlicher und thematischer Hinsicht auszuweiten statt sich auf ein Vorgehen nach „Versuch und Irrtum“ einzulassen und im Falle eines „Irrtums“, sprich unerwarteter negativer Technikfolgen, erst im Nachhinein umzusteuern oder, wie im Falle des Asbestes oder des Ozonlochs, nur noch die für die üblen Folgen ursächlichen Technologien verbannen zu können.

Politikberatende Technikfolgenabschätzung erstreckt sich auf öffentlich relevante und politisch zu entscheidende Technikaspekte wie z.B. Sicherheit- und Umweltstandards, den Schutz der Bürger vor Eingriffen in Bürgerrechte, Prioritätensetzung in der Forschungspolitik, die Gestaltung von Rahmenbedingungen für Innovation etc. Hier geht es um die Rahmenbedingungen, unter denen Wissenschaftler und Ingenieure arbeiten und unter denen in der Wirtschaft Technik entwickelt und auf den Markt gebracht wird. Standardsetzungen, Regulierungen und Deregulierungen, Steuergesetze, Verordnungen, Forschungs- und Technologieförderung, internationale Konventionen oder Handelsabkommen beeinflussen auf verschiedene Weise den Gang der Technikentwicklung und -diffusion und  sind daher Elemente der Technikgestaltung.

Parlamentarische Technikfolgenabschätzung ist eine in den meisten europäischen Ländern etablierte Form wissenschaftlicher Politikberatung. Am Deutschen Bundestag besteht sie seit über 20 Jahren. Im Vortrag wird das Modell dieser Politikberatung vorgestellt und wird nach den Funktionsbedingungen und Risiken sowie den ‚blinden Flecken‘ gefragt.

 

Vortrag am 13.6.2014
Jörg Kärger (Leipzig), Ordentliches Mitglied der der Mathematisch-naturwissenschaftlichen Klasse

Dr. rer. nat., Professor i. R. für Experimentalphysik an der Universität Leipzig; Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 10. März 2000;
Forschungsgebiete: Grenzflächenphysik, Molekularer Stofftransport, Dynamik komplexer Systeme, Physikalische Chemie poröser Materialien, Kernmagnetische Resonanz.

Ausbreitungsphänomene in Natur, Technik und Gesellschaft

Ausbreitungsprozesse sind ein allgegenwärtiges Phänomene in vielen Bereichen von Natur, Technik und Gesellschaft und können damit gleichermaßen Atome und Moleküle wie biologische Spezies, Infektionskrankheiten und den Gebrauch neuer Technologien wie schließlich die Verhaltensnormen in der Gesellschaft betreffen. Die vermutlich ersten Arbeiten zur Quantifizierung und theoretischen Fundierung von Ausbreitungsvorgängen verdanken wir dem Mediziner Adolf Fick. Aus Untersuchungen zur Auflösungsgeschwindigkeit von Salz in Wasser leitete er die nach ihm benannten Diffusionsgesetze her, in denen der Begriff des Diffusionskoeffizienten als Maß für die Ausbreitungsgeschwindigkeit eingeführt wird. Er berichtet über seine Arbeiten 1855 in den in Leipzig erscheinenden Poggendorffschen Annalen der Naturwissenschaften. 50 Jahre später führt Albert Einstein in den, wiederum in Leipzig herausgegebenen, Annalen der Physik die Diffusion auf eine Zufallsbewegung der diffundierenden Objekte (die Brownsche Molekularbewegung) zurück.

Atome und Moleküle, die als Folge ihrer thermischen Energie in allen Aggregatzuständen in ständiger Bewegung sind, standen über viele Jahre im Mittelpunkt der Diffusionsforschung. Interessanterweise liegen die Wurzeln eines der leistungsfähigsten, universell einsetzbaren Verfahren zur Untersuchung von Ausbreitungsphänomenen in stofflicher Materie, der kernmagnetischen Resonanz, wiederum in Leipzig (http://www.uni-leipzig.de/~mrz/history.pdf), mit einer Bündelung aktueller Aktivitäten im Magnetresonanz-Zentrum der Universität. Eine mit der Vergrößerung der Komplexität der betrachteten Systeme einhergehende Verfeinerung des theoretischen Apparates zur Beschreibung von Diffusionsvorgängen einerseits und das wachsende Interesse an einem tiefergehenden Verständnis der jeweiligen Mechanismen andererseits, führte in den letzten Jahren zu vielfältigen Versuchen, das Synergiepotential konventioneller Diffusionsforschung für Ausbreitungsphänomene in ihrer ganzen Breite auszunutzen.

Im Vortrag sollen mögliche Ansätze für solche Querverbindungen vorgestellt werden. Beispiele betreffen Beiträge der Diffusionstheorie zu den „Mechanismen“ der Besiedlung Südamerikas durch die Paläoindianer und die Ausbreitung einer aus Nordamerika stammenden Verwandten unseres Gemeinen Beifuß (der Ambrosia artemisiifolia), die Allergiker auf ihren Pollen noch spät im Jahr reagieren lässt, wenn sie von einheimischen Pflanzen schon längst verschont werden, einschließlich einer Kosten-Nutzen-Berechnung für das Zurückdrängen dieser Invasoren. Auch werden Analoga in den Möglichkeiten der Betrachtung des Molekültransportes in nanoporösen Materialien mit Untersuchungen des Kaufverhaltens in Supermärkten bis hin zur Blutzirkulation aufgezeigt.

Der Beitrag soll mithelfen, Fachwissenschaftler, die in den unterschiedlichsten Disziplinen mit Ausbreitungsprozessen befasst sind, in engeren Kontakt mit den Kollegen bringen, die in ihrer bisherigen Tätigkeit vornehmlich mit Ausbreitungsprozessen in stofflicher Materie zu tun hatten und dabei ein Methoden- und Theorie-Gebäude errichtet haben, dessen Nutzanwendung in diesem Kontakt eine bedeutsame Erweiterung erfahren wird, so wie andererseits eine Vielfalt wertvoller neuer Stimuli für dieses zu erwarten ist. Für diesen Synergieeffekt in doppelter Hinsicht bietet unsere Akademie bestmögliche Voraussetzungen.

 

Vortrag am 9.5.2014
Dieter Michel (Leipzig), Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse

Dr. rer. nat., Professor i.R. für Experimentalphysik an der Universität Leipzig, Fakultät für Physik und Geowissenschaften; Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 14. Februar 1997.

 

Ferroelektrizität in eingeschränkter Geometrie

Ferroelektrische Substanzen besitzen eine elektrische Polarisation auch ohne Anlegen eines äußeren elektrischen Feldes, die durch die Verschiebung verschieden geladener Ionen im Kristallgitter zustande kommt. Ferroelektrizität beschreibt das Phänomen, dass Stoffe mit einem elektrischen Dipolmoment durch das Anlegen eines äußeren elektrischen Feldes die Richtung der spontanen Polarisation ändern. Die Ferroelektrizität, obwohl bereits bekannt als Seignette-Elektrizität, wurde erst mit Beginn der Untersuchungen an den entsprechenden magnetischen Erscheinungen des Para- und Ferromagnetismus durch Pierre Curie und Pierre-Ernest Weiss näher verstanden. Ferroelektrizität kommt nur in Kristallen vor, in denen die kristalline Symmetrie eine polare Achse zulässt. Ferroelektrische Stoffe sind immer auch pyroelektrisch und auch piezoelektrisch. Im Unterschied zu piezo- und pyroelektrischen Stoffen kann die elektrische Polarisation in den Ferroelektrika durch das Anlegen einer Spannung umgepolt werden. Daraus ergeben sich interessante Materialeigenschaften und vor allem in der neueren Zeit eine Vielzahl von Anwendungen. Die wohl wichtigsten ferroelektrischen Materialien sind die Perowskite. Darunter befindet sich auch Pb-Zr-Titanat als piezoelektrische Substanz, die meist in Form von dünnen Schichten mit Dicken 100 nm und 10 µm angewandt werden. Zu den Perowskiten gehören auch die Materialsysteme, bei den durch gezielte Dotierung mit Ionen der seltenen Erden die Hoch-Tc-Supraleitung erzeugt werden kann, was den Untersuchungen an diesen Materialklassen seit etwa 1986 einen ungeheuren Aufschwung vermittelt hat (Nobelpreis an K. A. Müller und G. Bednorz, 1987). Dieser Richtung wird im Vortrag nicht nachgegangen.

Im Vortrag wird zunächst eine kurze Einführung in die Ferroelektrizität gegeben und die damit verbundenen genannten verwandten Erscheinungen vorangestellt. Die eigenen Arbeiten nehmen Bezug auf eine lange Tradition der Untersuchungen an Ferroelektrika im mitteldeutschen Raum, also in Leipzig-Halle-Jena-Dresden und VEB Keramische Werke Hermsdorf, und erfolgten in Kooperation vor allem mit Polen (Poznań, Kraków, Wrocław) und Tschechien (Prag) aber auch mit der Schweiz (Zürich, Lausanne) und Slowenien (Lubljana). Wichtig war auch die Kooperation mit der Universität des Saarlandes. Daher wird auch die Vorgeschichte vor 1990 kurz betrachtet.

Dieser als Einführung gedachten Darstellung schließt sich dann eine kurze Übersicht über Anwendungen dieser Stoffsysteme an. Dabei werden vor allem solche Beispiele ausgewählt, die die typischen physikalischen Phänomene beispielhaft beleuchten und auf dieser Grundlage begründen, welche Wichtigkeit dieser Stoffe besitzen und weshalb es zu den heutigen Massenanwendungen gekommen ist.

In diesem Zusammenhang wird dann auf eigene Arbeiten eingegangen, die dabei zugrunde liegenden experimentellen Methoden in der notwendigen Kürze erläutert und versucht, die wesentlichen Fragestellungen herauszuarbeiten. Da die meisten praktischen Anwendungen mit der Verwendung von Ferroelektrika mit sehr kleinen Abmessungen verbunden sind, wird zunächst der Frage nach einem durch die Größe der Teilchen getriebenen ferroelektrischen Phasenübergang nachgegangen. Die Untersuchungen erfolgen an sehr kleinen Teilchen von Bariumtitanat und Bleititanat, die durch spezielle Festkörperreaktionen hergestellt und Hilfe verschiedener Methoden charakterisiert wurden, und deren mittlere Durchmesser im Bereich von ca. 200 nm bis zu ca. 5 nm variieren. Dabei ist der obere Wert etwa durch die Abmessungen gegeben, die beim Einsatz vergleichbarer Materialen in den derzeitig industriell verwandten sog. FeRAM-Speichermaterialien benutzt werden. Es wird dabei eindeutig nachgewiesen, dass bei den verwendeten sehr feinen Teilchen ein phasengetriebener Phasenübergang (= Verschwinden der an bestimmte Volumeneigenschaften gebundenen Ferroelektrizität) bei mittleren Teilchengrößen von etwa 6 nm nachzuweisen ist. Es wird auch auf die Ausdehnung dieser Untersuchungen auf Matrixsysteme eingegangen, wobei die Festkörper (mit fe Eigenschaften im Bulk) in wohldefinierte kleine Hohlräume – im Nanometerbereich – von Zeolithen und anderen porösen Stoffe eingelagert werden. Falls noch möglich, werden in einem Beispiel eigene Untersuchungen angesprochen, die „kritische Phänomene“ betreffen und sich als ein experimenteller Test der „Renormierungsgruppentheorie“ (RNG) charakterisieren lassen. Die RNG ist eine Theorie zur Beschreibung des durch Fluktuationen des Ordnungsparameters charakterisierten Verhaltens in der Umgebung von Phasenübergängen zweiter Art. In diesem Bereich divergiert die Korrelationslänge der Fluktuationen. Es zeigt sich, dass in diesem Fall die Eigenschaften eines Systems sehr ähnlich werden, z.B. für ferroelektrische Substanzen, die in einem bestimmten Temperaturbereich einen Phasenübergang 2. Ordnung in eine strukturell inkommensurable Phase besitzen. Wichtige Informationen über kritische Phänomene, insbesondere auch die quantitative Berechnung der kritischen Exponenten, ergeben sich aus der Untersuchung des Skalenverhaltens. Dass dies möglich ist, wurde mittels der RNG u.a. von K.G. Wilson gezeigt (Nobelpreis, 1982). Bei der Darstellung eigener experimenteller Arbeiten wird vor allem der Teil im Überblick behandelt, der Aussagen über die erwarteten Skalenbeziehungen und das universelle Verhalten vermittelt.

 

Vortrag am 9.5.2014
Heiner Lück (Halle), Ordentliches Mitglied der Philologisch-historischen Klasse

Dr. iur. habil., Universitätsprofessor für Bürgerliches Recht, Europäische, Deutsche und Sächsische Rechtsgeschichte an der Juristischen Fakultät der Martin-Luther-Universität Halle-Wittenberg; Ordentliches Mitglied der Philologisch-historischen Klasse seit 9. Januar 1998.
Forschungsgebiete: Rezeption des Sachsenspiegels und des Magdeburger Stadtrechts in Ostmitteleuropa, Gerichtsverfassung und Rechtsalltag im Mittelalter.

 

Die lateinische „Urfassung“ des Sachsenspiegels

Zwischen 1220 und 1235 entstand in Mitteldeutschland, wahrscheinlich im östlichen Harzvorland, ein deutschsprachiges Rechtsbuch von einzigartiger Bedeutung und Wirkungskraft. Sein genialer Verfasser, Eike von Repgow, nannte es selbst „Spegel der Sassen“. Die konkreten Umstände der Niederschrift liegen im Dunkeln. Durch sechs Urkunden ist gesichert, dass der Verfasser zwischen 1209 und 1233 lebte. Nach eigener Aussage habe er im Auftrag seines „Herrn“, Graf Hoyer von Falkenstein, das Rechtsbuch, bestehend aus einem Landrechtsteil und einem Lehnrechtsteil, aus dem Lateinischen in das Deutsche übersetzt. An dieser Mitteilung des Autors wurde bislang kaum ernsthaft gezweifelt. Ihr gegenüber steht jedoch die extreme Diskrepanz zwischen der Anzahl der heute vorhandenen deutschsprachigen (ca. 470) und lateinischen Textzeugen (0).

Die Forschung nimmt in ganz überwiegendem Maße an, dass es sich bei dem sog. Auctor vetus de beneficiis, einem Lehnrecht enthaltenden lateinischen Text, um die lateinische Fassung des Lehnrechts des Sachsenspiegels handele. Doch ist das nur eine, wenn auch nicht unbegründete, Vermutung. Hinzu kommt, dass dieser Text nur in Drucken aus dem 16. Jh. überliefert ist. Handschriften dazu existieren nicht. Es ist auch keinesfalls sicher, dass dieses Werk unabhängig von einem älteren deutschen Text entstanden ist. Im Vortrag wird der Frage nachgegangen, inwieweit Eikes Aussage, der deutsche Text beruhe auf einer lateinischen Vorlage, der Legitimation für die Niederschrift des Rechtsbuches diente. Das könnte bedeuten, dass es diese lateinische „Urfassung“ gar nicht gegeben hat. Eine solche Fiktion stünde in der Überlieferung mittelalterlicher Texte nicht allein. Auch aus Diktion und Inhalt diverser Stellen des Sachsenspiegels sowie aus seiner Überlieferungsgeschichte lässt sich eine solche Hypothese stützen. Sollte sie zutreffen, wäre das eine Erklärung für das Fehlen jeglicher lateinischer Textzeugen (von späteren Übersetzungen in das Lateinische abgesehen).

Die hier vorgestellte Argumentation kann letztlich die Selbstaussage des Verfassers nicht widerlegen. Sie beabsichtigt vielmehr, diese Möglichkeit in den wissenschaftlichen Diskurs um die Etablierung einer schriftlichen Rechtskultur im Spannungsfeld zwischen gelehrter (lateinischer) und deutscher Rechtssprache einzubringen.

Immerhin erfreute sich Eikes Rechtsbuch in seiner glossierten Form einer Geltungsdauer von mehr als 600 Jahren und eines Verbreitungsgebietes, welches von der Grafschaft Holland bis in die heutige Ukraine reichte – und dies alles, ohne von einem Herrschaftsträger oder Gesetzgeber jemals offiziell in Kraft gesetzt worden zu sein. Neueste Forschungen haben das Wissen um die Existenz des Sachsenspiegels jetzt auch in Katalonien nachgewiesen.

 

Festvortrag zur Öffentlichen Frühjahrssitzung am 11.4.2014
Wolfgang Huschner (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse

Dr. phil. habil., Professor für Mittelalterliche Geschichte an der Universität Leipzig; am 9. Februar 2007 zum Ordentlichen Mitglied der Philologisch-historischen Klasse gewählt. Sekretar der Klasse seit 1. Januar 2012.
Hauptarbeitsgebiete:  Beziehungen zwischen "Deutschland" und "Italien" im Früh- und Hochmittelalter (8.–12.Jh.);  Verbindungen und Wechselwirkungen zwischen dem lateinisch und dem byzantinisch-griechisch geprägten Europa im Früh- und Hochmittelalter; Geschichte des Ostseeraums im Hoch- und Spätmittelalter (12.–15. Jh.); Historische Grundwissenschaften (besonders Urkundenlehre und Siegelkunde).

 

Córdoba – Konstantinopel – Rom. Das ottonische Reich im mediterranen Kommunikationsraum (936–1002)

Um 950 war König Otto I. der dominierende Herrscher innerhalb der karolingischen Nachfolgereiche und ließ Ambitionen auf Italien und die westliche Kaiserkrone erkennen. Die Apenninenhalbinsel lag zentral im Mittelmeerraum und wurde von allen Anrainern entsprechend stark beachtet. Die Beantwortung der Frage, wie die ottonischen Herrscher und ihre Gesandten auf die diplomatischen und politischen Herausforderungen reagierten, die mit der langjährigen Präsenz in Italien und mit der Kaiserwürde verbunden waren, soll im Mittelpunkt des Vortrags stehen.

Zuerst wird der Gesandtenaustausch mit dem Kalifen von Córdoba behandelt. Danach sind die Verbindungen zwischen den Ottonen und den Päpsten in Rom Gegenstand der Betrachtung. Abschließend werden die diplomatischen und politischen Beziehungen zwischen den byzantinischen und den ottonischen Kaisern analysiert.

Seit 962 war Otto I. nur einer von drei gleichzeitig amtierenden Kaisern in der christlichen Welt. Anhand der drei genannten Fallbespiele soll u.a. der Frage nachgegangen werden, wie der ottonische Hof den diplomatischen Verkehr mit politischen Zentren sowie zeitgenössische Medien dafür nutzte, um das neue ottonische Kaisertum mit einem möglichst hohen Rang im mediterranen Raum zu etablieren. 

Abschließend werden Rück- und Nachwirkungen der mediterranen Ausrichtung des ottonischen Imperiums auf die heutigen mitteldeutschen Gebiete thematisiert.

 

Vortrag am 14.3.2014
Sebastian Lentz (Leipzig), Ordentliches Mitglied der Philologisch-historischen Klasse

Dr. phil., Professor für Regionale Geographie am Institut für Geographie (Fakultät für Geowissenschaften und Physik) der Universität Leipzig; zugleich Direktor des Leibniz-Instituts für Länderkunde (Leipzig); am 13. Februar 2004 zum Ordentlichen Mitglied der Philologisch-historischen Klasse gewählt.
Thematische Forschungsschwerpunkte: Regionale Geographie, Sozial- und Kulturgeographie; regionale Forschungsschwerpunkte: Europa und Nachfolgestaaten der Sowjetunion.

 

Gesellschaftlicher Wandel und räumliche Faktoren der Wohnstandortwahl

Über mehrere Jahrzehnte war die Suburbanisierung, d.h. die Bevölkerungszunahme im Umland der großen Städte, der vorherrschende Trend in der Wohnstandortwahl von Privathaushalten. Für Westdeutschland gilt das seit den 1960er Jahren und seit den 1990er Jahren auch in Ostdeutschland. Die Forschung zu Binnenmigration und Umzüge hat diese Stadt-Umland-Wanderung der Stadtbewohner über lange Zeit plausibel mit Zentrums-Peripherie-Modellen erklären können. Die Operationalisierung der räumlichen Verhältnisse für Forschungsfragen erfolgte meist mittels ökologischer Push-Pull-Faktoren und ökonomisierter Distanzkriterien. Dazu wurden üblicherweise mehrere wirkmächtige Rahmenbedingungen vorausgesetzt, unter anderem eine eindeutige Wahrnehmung des Stadtzentrums als konkurrenzloser Zentraler Ort, von industrieller Produktion geprägte Wohnumfeldbedingungen in der Stadt bzw. ökologisch günstigere Umwelt im Umland und ein soziales Ein-Verdiener-Haushalts- und Familien-Muster.

Diese Matrix von sozialen, ökonomischen und räumlichen Einflüssen hat sich im Laufe der letzten Jahrzehnte tiefgreifend gewandelt: Beispielsweise sind in der Informationsgesellschaft Arbeitsplätze weniger auf einen einzigen Ort und auf relativ starre tägliche Rhythmen festgelegt als in der Industriegesellschaft und die Auflösung der Kernfamilie als vorherrschendes Modell der Haushaltsbildung ist durch eine Vielzahl von Varianten abgelöst worden, die wiederum neuartige Orientierungen, oft auch auf mehrere Wohnorte zur Folge haben. Auch die zeitliche Flexibilisierung in der Organisation von Arbeit, die durch technologischen Entwicklung ebenso wie durch Globalisierung forciert wird, verändert die Anforderungen an Wohnstandorte; und schließlich haben sich durch die Entstehung von polyzentrischen Verdichtungsräumen auch die Wahlmöglichkeiten der Wohnungssuchenden deutlich ausdifferenziert.

In diesem Geflecht von sozialen und räumlichen Ursachen und Wirkungen wird die Bewertung eines Wohnstandorts zur individuellen Syntheseleistung der Haushalte, die eine Vielzahl von Kriterien berücksichtigen müssen. Aus der Perspektive der Geographie ist besonders interessant, wie sich die Wohnungssuchenden statt innerhalb einer Stadt nunmehr innerhalb einer ganzen Stadtregion orientieren und letztendlich entscheiden.

Der Vortrag präsentiert Fragestellungen und Ergebnisse aus einem Forschungsprojekt, das vergleichend in den Agglomerationen Köln/Bonn, östliches Ruhrgebiet und Leipzig/Halle durchgeführt wurde.

 

Vortrag am 14.3.2014
Ulrich Stottmeister (Leipzig), Ordentliches Mitglied der Technikwissenschaftlichen Klasse

Dr. habil. rer. nat. Ordentliches Mitglied der Technikwissenschaftlichen Klasse seit 1996. Leitung der Sektionen „Sanierungsforschung“ und „Umweltbiotechnologie“ im UFZ Umweltforschungszentrum (1991–2004); Professur „Technische Chemie/ Biotechnologie“ an der Universität Leipzig (1994–2004).
Hauptarbeitsgebiete: Umweltbiotechnologie (Wasser, Boden und Sedimentsanierung) sowie die Bioprozesstechnik (mikrobiologisch erzeugte Bausteine für die organische Synthesechemie). Leitung des Vorhabens „Nachwachsende Rohstoffe: Risiken und Chancen für Mitteldeutschland“ der Arbeitsstelle „Technikbewertung und -gestaltung“ der Technikwissenschaftlichen Klasse, Mitglied der Vorhabenbezogenen Kommission (2009–2013). 


Die stoffliche Nutzung nachwachsender Rohstoffe: Chancen und Risiken

Es ist ein Anliegen der Technikwissenschaftlichen Klasse, die einzelnen Arbeitsgebiete der an Arbeitsvorhaben beteiligten Mitglieder der Klasse so zu verbinden, dass neue technologische Entwicklungen schon in der Forschungs- und Entwicklungsphase unter den Aspekten von möglichen Folgen und Risiken bewertet werden. Darüber hinausgehend sollen beispielhaft nicht nur die direkten „Technikfolgen“, sondern auch allgemeine und indirekte Auswirkungen auf die Gesellschaft berücksichtigt werden. Diese angestrebte frühzeitige Kopplung zwischen For-schung und der späteren technologischen Prozessgestaltung soll helfen, nachträglich eventuell notwendige, jedoch schwer korrigierbare Verfahrensänderungen zu vermeiden.

In der einleitenden Übersicht des Vortrages werden die grundsätzlichen Nutzungsmöglichkeiten der nachwachsenden Rohstoffe und deren Einordnung in das Gesamtkonzept eines zukünftigen deutschen Energiemixes betrachtet. Die Perspektiven des Einsatzes von Biomasse als „erneuerbarer“ Energieträger werden anhand aktueller Daten, Statistiken und Studien in kurzer Form diskutiert. Auf dieser Grundlage wird das Gesamtgebiet der nachwachsenden Rohstoffe in einer komplexen Betrachtung von Risiken, Schwächen, Chancen und Stärken analysiert, zu denen auch die viel diskutierte Konkurrenz zu Nahrungsmitteln und die Anwendung der Gentechnik gehören. Ein Ergebnis dieser Analyse zeigt, dass neben unumgänglichen und zeitlich begrenzten Kompromisslösungen langfristig gesehen die stofflichen und nicht die energetischen Nutzungen das höchste Innovationspotenzial und die größte Wertschöpfung aufweisen.

Das vom SMWK geförderte Projekt „Nachwachsende Rohstoffe“ führte die Arbeiten von drei Mitgliedern der Klasse zusammen, die land- und forstwirtschaftliche Produkte mit verschiedenen Themenstellungen bearbeiten: OM Wagenführ (Holz und Faserstoffe) sowie OM Bley und OM Stottmeister (Bioprozesstechnik). Die gemeinsame Klammer der Einzelthemen ist die vorrangige stoffliche Nutzung der nachwachsenden Rohstoffe.

Ausgewählte Forschungsergebnisse dieser Themen werden in den übergeordneten Rahmen der angestrebten Einheit von „Technikbewertung und -gestaltung“ eingeordnet. Als erstes Beispiel wird das im Institut für Bioverfahrenstechnik der TUD bearbeitete Thema „Konditionierung von Lignin und Lignocellulose enthaltenden Biomassen“ über die naturwissenschaftlichen Aspekte hinausgehend betrachtet. Das zweite Beispiel aus dem Institut für Holz- und Faserstoffe illustriert Anwendungen zum Thema „Faserhanf für Leichtbauplatten“. Eine übergreifende Betrachtungsweise führt zu Erkenntnissen, die Rückwirkungen auf die angestrebte Verfahrensentwicklung haben. Als drittes Beispiel wird in kurzer Form das im Helmholtz-Zentrum für Umweltforschung UFZ entwickelt „Modulsystem“ zur biotechnologischen Herstellung von Synthesebausteinen der organischen Chemie vorgestellt. Diese interdisziplinäre Entwicklung berücksichtigt beides: Flexibilität im Einsatz nachwachsender Rohstoffe und Umweltaspekte.

 

Vortrag am 14.2.2014
Udo Reichl (Magdeburg), Ordentliches Mitglied der Technikwissenschaftlichen Klasse

Dr.-Ing., Ordentliches Mitglied der Technikwissenschaftlichen Klasse seit 8. Februar 2013; Lehrstuhl für Bioprozesstechnik an der Otto-von-Guericke Universität Magdeburg, Direktor und Wissenschaftliches Mitglied am Max-Planck-Institut für Dynamik komplexer technischer Systeme.
Hauptarbeitsgebiete: Bioprozesstechnik (Säugerzellen, Hefen, Bakterien), Downstream Processing (Separation, Chromatographie), Überwachung und Regelung von Bioprozessen, Mathematische Modellbildung und Simulation, Virale Impfstoffe.

 

High-Throughput Glycoanalysis for the Characterization of Glycoproteins and Carbohydrates

Rapp, E.1,2, Hennig, R.1,2, Muth, T.1,2, Kottler, R.1, Reichl, U.1,3

1 Max Planck Institute for Dynamics of Complex Technical Systems, 39106 Magdeburg, Germany
2 glyXera GmbH, 39106 Magdeburg, Germany
3 Otto-von-Guericke University, Chair of Bioprocess Engineering, 39106 Magdeburg, Germany

Glycomics is a rapidly emerging field that can be viewed as a complement to other „omics“-approaches including proteomics and genomics. The fields of application range from basic and applied research in life science and medicine to industrial manufacturing of biopharmaceuticals and food production. With the continuing improvements in analytical tools, in particular mass spectrometric measurements and capillary (gel)-electrophoresis, there is a dramatic increase in the demand for reliable standards, sophisticated data analysis and comprehensive databases to support further advancement of glycobiology respectively, glycobiotechnology.

Here, the development of an innovative glycoanalysis system (analytical method, software and database) is presented. Applications range from production of viral antigens for influenza vaccine manufacturing and quality control of recombinant proteins used as pharmaceuticals to monitoring of oligosaccharides in human milk.

The focus will be on a method based on multiplexed capillary gel-electrophoresis with laser-induced fluorescence detection (xCGE-LIF), which was developed at the Max Planck Institute in Magdeburg over the recent years. Optimization of this method with respect to sample preparation, separation performance and data analysis will be demonstrated, which now allows high-throughput measurements of glycans with unprecedented resolution and accuracy. First, an improved modular sample preparation method and a workflow are presented with respect to performance and feasibility. Second, with up to 96 capillaries in parallel, a fully automated separation with an impressive sensitivity is shown that results in massive reduction of the effective separation time per sample. Third, automated data analysis with a newly developed modular software-tool for data-processing and -analysis, interfacing a corresponding oligosaccharide-database is introduced. Using this high-performance glycoanalysis system, the generated “normalized” electropherograms of glycomoieties (“fingerprints”) can be evaluated on three stages: (1) “simple” qualitative and quantitative pattern comparison ("fingerprint"-analysis), (2) identification of compounds in complex mixtures via database matching (“glycoprofiling”) and (3) extended structural analysis using exoglycosidase sequencing in combination with xCGE-LIF based glycoprofiling.

Overall, this novel modular high-performance glycoanalysis system allows fully automated, sensitive, "real" high-throughput glycoanalysis to address a wide range of challenging research topics and industrial applications.

 

Vortrag am 14.2.2014
Gabriele Irmgard Stangl (Halle), Ordentliches Mitglied der Mathematisch-naturwissenschaftliche Klasse

Dr. oec. troph. habil., Ordentliches Mitglied der Mathematisch-naturwissenschaftliche Klasse seit 08.02.2013; Professorin für Humanernährung am Institut für Agrar- und Ernährungswissenschaften der Martin-Luther-Universität Halle-Wittenberg.
Hauptarbeitsgebiete: Einfluss von Vitamin D auf den Lipidstoffwechsel, kardiovaskuläre Risikofaktoren und die Atherogenese, Funktionelle Bedeutung von Peroxisomenproliferator-aktivierten Rezeptoren (PPARs) in der Regulation des Lipid- und Energiestoffwechsels, Biofunktionalität von spezifischen Aminosäuren und pflanzlichen Proteinen, Einfluss von oxidierten Fetten und des Redoxstatus auf die Lipogenese.

Vitamin D-Mangel – ein unterschätztes Krankheitsrisiko?

Vitamin D nimmt unter den Vitaminen eine Sonderstellung ein, da es nicht zwingend mit der Nahrung aufgenommen werden muss, sondern in der Haut durch ultraviolette Strahlung aus einem Metaboliten des Cholesterolstoffwechsels synthetisiert werden kann. Damit erfüllt Vitamin D streng genommen nicht mehr die Kriterien eines essentiellen Nährstoffes. Dass dennoch in Deutschland sehr viele Personen unzureichend mit Vitamin D versorgt sind, liegt daran, dass in unseren Breitengraden aufgrund des niedrigen Sonneneinfallswinkels zwischen Oktober und April keine kutane Vitamin D-Synthese erfolgen kann. Auch unser moderner Lebensstil mit überwiegenden Tätigkeiten in geschlossenen Räumen sowie die Verwendung von Sonnenschutzmitteln tragen zum Vitamin D-Defizit bei.

Unter den Nahrungsmitteln gibt es zudem nur wenige mit nennenswerten Gehalten an Vitamin D.

Obgleich durch Präventionsmaßnahmen bei Säuglingen klassische Vitamin D-Mangelerkrankungen wie die Rachitis selten geworden sind, deuten aktuelle Zahlen auf eine insgesamt schlechte Vitamin D-Versorgungslage der deutschen Bevölkerung hin. Besonders schlecht versorgt sind Menschen im höheren Lebensalter. Folgen dieses Vitamin D-Defizits sind ein erhöhtes Sturz- und Frakturrisiko. Mit der Entdeckung des Vitamin D-Rezeptors im Jahr 1969 wurden viele neue Funktionen des Vitamin D beschrieben. Insbesondere die Forschung der letzten Jahre hat gezeigt, dass die Wirkungen von Vitamin D weit über die klassischen Effekte auf den Kalzium- und Knochenstoffwechsel hinausgehen. Es wird vermutet, dass 1–5% des gesamten humanen Genoms durch Vitamin D reguliert werden und dass eine Unterversorgung an Vitamin D auch das Risiko für Herz-Kreislauf-, Autoimmun-, Infektions- und Krebserkrankungen erhöht. Schätzungen gehen davon aus, dass allein in Deutschland jährlich Krankheitskosten in Höhe von mehreren Mrd. Euro und 20.000 Todesfälle auf eine unzureichende Vitamin D-Versorgung zurückzuführen sind.

Derzeit werden die verschiedenen Strategien zur Verbesserung der Vitamin D-Versorgung in der Bevölkerung kontrovers diskutiert.

 

Vortrag am 10.1.2014
Jan Michael Rost (Dresden), Mitglied der Mathematisch-naturwissenschaftlichen Klasse

Dr. rer. nat., Ordentliches Mitglied der Mathematisch-naturwissenschaftlichen Klasse seit 10. Speichern 2012; Direktor am Max-Planck-Institut für die Physik komplexer Systeme in Dresden und Professor für Quantendynamik an der TU Dresden.
Forschungsgebiete: Die Theorie komplexen Verhaltens endlicher, mikroskopischer Systeme. Geschuldet einem ursprünglichen Studium der Philosophie, gilt sein weiteres Interesse der Rolle der Zeit in der naturwissenschaftlichen Beschreibung und im Allgemeinen dem Aufkommen von spannenden Themen an der Schnittstelle von Wissenschaftsgebieten.


Komplexes Verhalten: Was haben Chaos und Nachhaltigkeit aus der Perspektive der Physik miteinander zu tun?

Seit Anfang der physikalischen Weltbeschreibung in der Neuzeit galt das Prinzip der Linearität: „Kleine Ursache, kleine Wirkung, große Ursache, große Wirkung“. Damit verbunden war der physikalische Zugang, Mechanismen und Systeme für sich selbst und isoliert von ihrer Umgebung zu verstehen.

In den 80iger Jahren des letzten Jahrhunderts wurde chaotisches Verhalten, und damit die starke Beeinflussbarkeit eines physikalischen Systems von seiner Umgebung, ein zentraler Forschungsschwerpunkt, bekannt geworden unter der oft falsch verstandenen Devise „Der Flügelschlag eines Schmetterlings kann die Welt verändern“. Nach etwa zwei Dekaden hat sich die Einsicht durchgesetzt, dass die Realität weder allein durch Chaos noch allein durch Linearität geprägt ist, sondern durch Koexistenz von beidem, durch komplexes Verhalten, welches sich an den Schnittstellen von Chaos und Linearität abspielt. Auch die Beschreibung und das Verständnis dieses Verhaltens nimmt eine faszinierende und rasche Entwicklung, in der wir mitten darin stehen, von komplexen über autonome hin zu intelligenten Systemen. Im Vortrag wird der Versuch gemacht, diese Entwicklung durch eine systematische Kategorisierung der verschiedenen Arten komplexer Systeme im Hinblick auf das Verhältnis zu ihrer Umgebung zu kategorisieren und diese Einteilung mit Beispielen zu unterlegen.

Mit dem neuen, nicht nur im Studium komplexer Systeme vorherrschenden Paradigma der Physik, Systeme eingebettet in ihre Umgebung zu betrachten, liegt es nahe, über den recht umstrittenen Begriff der Nachhaltigkeit nachzudenken. Zusammen mit der Beobachtung, dass Strukturbildung entgegen dem globalen Prinzip der Entropiezunahme, nur transient und fernab vom thermodynamischen Gleichgewicht erfolgen kann, folgt daraus eine inhaltsfreie Definition von Nachhaltigkeit, die aber dennoch klar nachhaltiges von nicht nachhaltigem Handeln unterscheidet.

 

Vortrag am 10.1.2014
Heinrich Magirius (Radebeul), Ordentliches Mitglied der Philologisch-historischen Klasse

Dr. phil. habil., Ordentliches Mitglied der Philologisch-historischen Klasse seit 11. Oktober 1991, Professor i.R. für Kunstgeschichte und Methodik der Denkmalpflege an der Hochschule für Bildende Künste in Dresden, Landeskonservator von Sachsen, seit 2000 emeritiert. Als Denkmalpfleger unter anderem leitend tätig beim Wiederaufbau der Semperoper und der Frauenkirche in Dresden. 

 

Erinnerungswerte und Denkmalpflege

Seit etwa fünfundzwanzig Jahren sind Erinnerungswerte, die der Wiener Kunsthistoriker Alois Riegl schon 1903 wissenschaftlich definiert hat, wieder stärker ins Bewusstsein der Denkmalpflege getreten und zwar besonders im Zusammenhang mit dem Thema der Wiederherstellung von zerstörten Bauwerken. Rekonstruktionen wurden schon um 1900 theoretisch verurteilt, in praxi aber nicht immer vermieden. Infolge der Kriegszerstörungen des 20. Jahrhunderts wuchs auch der Wunsch nach Rekonstruktionen.

Die Denkmalpflege suchte sich davon mit guten Gründen theoretisch abzugrenzen. Während sich die Fachdisziplin mehr und mehr auf die historische Substanz als eigentliche Aufgabe konzentrierte, gerieten Erinnerungswerte im umfassenden Sinne Riegls oft aus dem Blick. So bildeten sich im ausgehenden 20. Jahrhundert Fronten zwischen Denkmalpflegern, die Rekonstruktionen prinzipiell ablehnen, und solchen, die berücksichtigen, dass Erinnerungswerte vor allem gerade an gestalthaften Zügen erkennbar werden und sogar über die Erhaltung von Substanz hinaus reichen. Mehr oder weniger vollständige Wiederherstellungen von zerstörten Baudenkmälern ermöglichen nicht zuletzt am sichersten auch die Bewahrung von historischer Substanz. Das wird am Beispiel des Wiederaufbaus der Semperoper und der Frauenkirche in Dresden erläutert.

Dem Architekten der Gegenwart kann es beim Wiederaufbau eines teilzerstörten Bauwerks durchaus gelingen, Erinnerungswerte zur Anschauung zu bringen, wenn er Alterswerte behutsam kennzeichnet, wie das beim Neuen Museum in Berlin geschehen ist. Der Nachbau des Paulinums in Leipzig ist im Verständnis Riegls ein gewolltes Denkmal unserer Zeit, hätte aber bei größerem Respekt vor den vernichteten historischen Gestaltqualitäten durchaus die Chance gehabt, entsprechende Erinnerungswerte an das Verlorene wachzurufen.

Artikelaktionen