Wie wichtig ist Wissenschaft für die Gesellschaft? (1) – Der Blick von Außen

Posted on 30. Januar 2018

3


Das Verhältnis der Wissenschaft zur Gesellschaft steckt in der Krise. Wie kam es dazu? Wer das verstehen will, muss auch die andere Seite sehen. Der Technikhistoriker Prof. Ulrich Wengenroth hat das versucht und historisch analysiert, wie die Gesellschaft die Forschung wahrnimmt. Seine Ergebnisse sind dramatisch: Die großen Zeiten der Wissenschaft sind vorbei. Ein Gastbeitrag:

#fwk17

Prof. Dr. Ulrich Wengenroth, Ordinarius für Geschichte der Technik i.R., Technische Universität München Foto: Eckert/Heddergott TUM

Teil 1: Enttäuschte Erwartungen

Es ist eine Binsenweisheit, dass das Gelingen von Wissenschaftskommunikation – wie das Gelingen jeder Kommunikation – in hohem Maß von der Glaubwürdigkeit der Inhalte und der Kommunikatoren abhängt. Bei der Wissenschaftskommunikation stellt sich das Problem noch verschärft, da die Inhalte in der Regel so  komplex und das Verständnis der sachlichen Argumente so voraussetzungsvoll sind, dass diese Glaubwürdigkeit durch eigenen gedanklichen Nachvollzug gar nicht überprüft werden kann. Die Überzeugungskraft des einfachen, leicht zu verstehenden Versuchs im Physik- oder Chemieunterricht lässt sich in einer hochkomplexen und hochkontingenten Wirklichkeit nicht reproduzieren. Und wenn der Versuch einer einfachen und einleuchtenden Erklärung dennoch gemacht wird, dann weiß das erfahrene Publikum schon, dass das nicht alles gewesen sein kann. Zumal die ebenso einfache und einleuchtende Gegenerklärung meist nicht lange auf sich warten lässt.

Wichtiger als die Details der einzelnen Wissenschaftsnachricht erscheint darum, wie erfolgreich sie in eine größere Erzählung von der Wissenschaft eingebettet ist. Passt die Nachricht zu einem in jahrzehntelanger Erfahrung entstandenen Bild von Wissenschaft? Kann sie auf ein Kontextvertrauen zurückgreifen? Oder will sie mich von etwas überzeugen, was sich allzu oft als nicht wahr, als einseitig, oder zumindest als stark übertrieben herausgestellt hat? Und glauben die Kommunikatoren eigentlich selbst so fest an ihre Botschaften, dass sie auch ihr eigenes Leben sichtbar danach einrichten?

Nach gut zwei Jahrhunderten rasanter technisch-wissenschaftlicher Entwicklung ist die heutige Gesellschaft keineswegs unerfahren in derartigen Metadiskursen zur Wissenschaft, deren Veränderungen selbst die Lernprozesse im Umgang mit Wissenschaft widerspiegeln. Kern dieser Lernprozesse ist ein Verständnis davon, wie moderne Wissenschaft funktioniert und was von ihr realistischerweise zu erwarten ist. Mein optimistischer historischer Befund hierzu ist, dass diese Lernprozesse – nicht zuletzt dank medialer Unterstützung – recht gut gelungen sind und ein hohes Maß kollektiver Vernunft im politischen Umgang mit einer stark verwissenschaftlichten Lebenswelt hervorgebracht haben.

An erster Stelle steht hier sicher die ganz fundamentale Einsicht der Moderne, dass das bessere Wissen nicht durch Offenbarung höherer Prinzipien, sondern durch die ständige kritische Selbstbefragung fehlbarer und zur Selbstkorrektur fähiger Forscherkollektive zu erreichen ist. Die tragfähigste Theorie wird nicht von einem gesalbten Genie ex ovo gefunden oder erfunden, sondern ist das, was nach dem Ausscheiden der vielen Irrwege in der breiten Fachdiskussion als am ehesten zu verteidigende These übrig bleibt. Die größte wissenschaftliche Tugend ist nicht die Begeisterung, sondern die Skepsis, die alles in Frage stellende gründliche Untersuchung, Betrachtung und Prüfung aller Phänomene und aller darüber angestellten Vermutungen. Ihr verdankt die Gesellschaft der Moderne ihre allen früheren  Kulturen überlegene Gestaltungskraft.

Wenn es eine genuin wissenschaftliche Begeisterung gibt, dann ist das eine Begeisterung für die Skepsis. Nur daraus entsteht Spitzenforschung. Eine naive Begeisterung für Wissenschaft gab es dagegen nur in den Anfangszeiten der wissenschaftlich-technischen Moderne und außerhalb der wissenschaftlichen Community, als die einfachen großen Fortschritte mit der skeptischen Methode der Wissenschaftlichkeit erzielt wurden. Es waren die tief hängenden Früchte, die zuerst mit wenig Aufwand gepflückt wurden und dabei den voreiligen Eindruck vermittelten, es könne immer so einfach weitergehen. Doch nach zweihundert Jahren  technisch-wissenschaftlicher Entwicklung hat die Öffentlichkeit gelernt, dass Wissenschaft keine Schwärmerei, sondern eine von fruchtbaren Zweifeln und ständigen Revisionen einmal für richtig gehaltener Lehrmeinungen getragene Veranstaltung ist.

Ein kurzer Rückblick auf diesen sehr dichten, erfahrungsbasierten Lernprozess moderner Gesellschaften hilft, die gegenwärtigen Metadiskurse zur Wissenschaft und damit die Plausibilitätskriterien der Öffentlichkeit zur Beurteilung der Glaubwürdigkeit und Triftigkeit von Wissenschaftskommunikation zu verstehen. Um ihn kognitiv fassen zu können, habe ich diesen umfassenden Lernprozess – in guter modern wissenschaftlicher Manier – in seiner Komplexität stark reduziert und in drei Aspekte gefasst.

1 – Enttäuschung der Wissenserwartung

Zunächst exemplarisch für die Wissenserwartung zu Beginn des Industriezeitalters dieses Statement des überragenden Physikers und Physiologen Hermann von Helmholtz, der am Ende des 19. Jahrhunderts in einem Vortrag den wissenschaftlichen Fortschritt des Jahrhunderts resümierte.

„Indessen können wir jetzt in der That schon grosse Gebiete von Naturvorgängen, namentlich innerhalb der einfacheren Verhältnisse der anorganischen Natur, auf wohlbekannte und scharf definierte Gesetze vollständig zurückführen. Wer aber das Gesetz der Phänomene kennt, gewinnt dadurch nicht nur Kenntniss, er gewinnt auch die Macht bei geeigneter Gelegenheit in den Lauf der Natur einzugreifen und sie nach seinem Willen und zu seinem Nutzen weiter arbeiten zu lassen. Er gewinnt die Einsicht in den zukünftigen Verlauf dieser selben Phänomene. Er gewinnt in Wahrheit Fähigkeiten, wie sie abergläubische Zeiten einst bei Propheten und Magiern suchten.“

Statt die Prophetie als gescheitertes Projekt in der Vormoderne ruhen zu lassen, wird sie hier triumphierend als Leistung moderner Naturwissenschaft wiederbelebt.

Die Wissenserwartung, die der Gesellschaft von den Wissenschaftlern des 19. Jahrhunderts in ihrer Naturwissenschaftspropaganda nahegelegt wurde, zielte auf absolutes und sicheres Wissen. Für das Umsetzen dieser kognitiven in eine praktische Beherrschung hatte dann die moderne Technik zu sorgen, die sich als angewandte Naturwissenschaft präsentierte. Die Erwartung an die Entwicklung des wissenschaftlichen Wissens war eine von fortschreitender Klärung noch offener Fragen, Beseitigung von Ungewissheiten und monotoner Annäherung an einen Zustand der Vollständigkeit. Wissen würde immer umfassender und zweifelsfreier, sodass Technik immer leistungsfähiger und sicherer werden könne.

Doch die Zahl der offenen Fragen nahm nicht ab, sondern eher zu. Je genauer Wissenschaft die Welt untersuchte, umso komplexer zeigte sie sich. Das Ende scheint weiter denn je oder vielleicht eher grundsätzlich unerreichbar. Mit jedem neuen Wissen wird in ähnlichem und manchmal auch größerem Umfang neues Nichtwissen produziert. Die große Zahl der Probleme wird durch Forschung nicht abgearbeitet; sie vervielfältigt sich. Zudem wurde aus der Welt mit offen liegender Kausalität, die schön einfach zu denken ist und Hoffnungen auf eine gut beherrschte technische Umsetzung macht, eine in vielen wesentlichen Aspekten probabilistische Welt, von der wir zwar oft glauben, sehr gut sagen zu können, bis zu welchem Grade der Genauigkeit wir sie kennen, ohne deswegen sagen zu können, wie sie sich im konkreten Falle mit Sicherheit verändern wird. Hier passten die Art des wissenschaftlichen Erkenntnisfortschritts und die der individuellen Nöte emotional nicht zusammen und führten zu entsprechenden Enttäuschungen über die Leistungsfähigkeit der Wissenschaft.

Schließlich hat sich das Monotonievertrauen in den Wissensfortschritt nicht bewährt. Statt dass sich Wissenschaft stets nachvollziehbar in Richtung absoluter Wahrheit bewegt, hat sowohl das Konzept der absoluten Wahrheit schweren Schaden erlitten, und es haben auch viele Revisionen und Revisionen von Revisionen das Vertrauen in die Richtigkeit einmal eingeschlagener Wege deutlich relativiert. Den chronischen Expertendissens braucht man dazu noch gar nicht ins Auge zu fassen. Mehr zu wissen, hieß jetzt nicht mehr automatisch, recht zu behalten. Die Ergebnisse ehemals neuester Forschung erwiesen sich immer wieder mal als voreilig. Was gestern noch eine dringende Empfehlung zum Schutz von Gesundheit und Umwelt war, konnte morgen schon als gefährlich identifiziert werden: von radioaktiver Zahnpasta zu ausgiebigem Sonnenbaden, von hygienisch unbedenklichem PVC zum umweltfreundlichen Dieselmotor usw. Die von Helmholtz konstatierte „Einsicht in den zukünftigen Verlauf [der] Phänomene“ bleibt auch nach einem weiteren Jahrhundert intensiver Forschung meist vage.

Gleichwohl ist es der Technik seit Helmholtz unzweifelhaft gelungen, viele Gefahren zu bannen. Antibiotika, sanitäre Anlagen, Lebensmittelkonservierung, Vermeidung von offenem Feuer, wettergeschützte Räume, Vermeidung von körperlicher Arbeit mit gefährlichen Dingen usw. Das immer bessere Beherrschen natürlicher Gefährdungen brachte es nun mit sich, dass die zunächst nicht so hoch veranschlagten technischen Gefährdungen in Relation dazu wuchsen – was nicht heißen muss: absolut.

Die Ironie des technischen Fortschritts: Technik erscheint umso gefährlicher, je erfolgreicher sie in der Beherrschung natürlicher Gefahren ist.

Hierzu ein einfaches Gedankenspiel: Nehmen wir an, technische Lebensgefahren bleiben in der Moderne gleich, was empirisch ziemlich gut hinkommt und legen wir sie in der Grafik als Basis. Darüber die natürlichen Gefahren, die durch den Einsatz von Technik und Wissenschaft kontinuierlich sinken. Dann kommen wir irgendwann an den Punkt, an dem die natürlichen Gefahren auf ein Maß gedrückt wurden, das kleiner als die konstant gebliebenen technischen Gefahren ist. Von diesem Moment an ist es völlig rational, sich mehr vor der Technik als vor der Natur zu fürchten, ohne dass die Technik tatsächlich gefährlicher wurde. Aber sie ist jetzt, dank 200 Jahren technisch-wissenschaftlichen Fortschritts, das Gefährlichere von beiden.

2 – Kombinatorisches Durchgehen

Ein zentrales Argument für das Verständnis der gesellschaftlichen ebenso wie der technischen Dynamik der Moderne ist das enorme Potenzial kombinatorischer Prozesse. Die Zahl der möglichen Kombinationen gerät sehr schnell außerhalb jeder Übersichtlichkeit geschweige denn Kontrolle. Das erlaubte sowohl eine gesellschaftliche wie auch eine technische Dynamik in der Moderne, die historisch ohne Parallelen sind und möglichst große individuelle Freiheit zur Voraussetzung haben. Die damit verbundene rasante Vervielfachung nicht-intendierter und nicht-antizipierter Nebenfolgen hat eine vollständig kontrollierte Entfaltung der technisierten Welt und ihrer gesellschaftlichen Beziehungen schon im Ansatz unmöglich gemacht. Ein klassisches technisches Beispiel ist die Vervielfachung chemischer Verbindungen, die ihrerseits miteinander in oftmals unbekannter und unvorhergesehener Weise reagieren und deren metabolische Pfade ganz überwiegend im Dunkeln liegen. Alle Chemielabors der Welt sind zusammen nicht in der Lage, den rasch wachsenden Verzweigungen analytisch zu folgen, worauf sich das Regulierungswesen mittlerweile resignierend eingestellt hat.

Im Umgang mit unübersehbarer und damit unkontrollierbarer kombinatorischer Dynamik geht es am Ende wieder um das Vertrauen auf einen eingebauten Sicherheitsüberschuss ähnlich der gerade diskutierten Hoffnung auf eine Monotonie der Wissensentwicklung. Anknüpfungspunkt für dieses mögliche Vertrauen ist der Umstand, dass kombinatorisches Wachstum seine große Vielfalt aus vergleichsweise wenigen Grundelementen und Grundprozessen erzeugt, bei denen es sehr viel aussichtsreicher als bei den komplexen Endprodukten erscheint, sie zu überblicken und zu verstehen. In dieser Sparsamkeit der Elemente, die die rasche Ausdifferenzierung der Produkte und Verfahren in wenigen Generationen so enorm begünstigt hat, liegt zugleich die Chance für ein reduktionistisches Programm der Erklärung und daraus folgend der wissenschaftlich abgesicherten Beherrschung. Wenn diese Erklärung dann noch in mathematischer Form gelingt, kann ein Höchstmaß an Konsistenz und Widerspruchsfreiheit erreicht werden.

So hat die mathematische Beschreibbarkeit oft ein nachgerade religiöses Vertrauen in die als absolut empfundene Wahrheit der naturwissenschaftlichen und analog dazu entwickelten technikwissenschaftlichen Sätze begründet. Eugene P. Wigner, Physiknobelpreisträger, vertraute, wie Helmholtz viele Jahrzehnte zuvor, voll und ganz auf die prognostische Kraft reduktionistischer Naturwissenschaft und gab dazu 1959 in einem Vortrag vor Fachkollegen das geradezu klassische Glaubensbekenntnis der Naturwissenschaft der Moderne ab:

“[T]hese laws of nature contain, in even their remotest consequences, only a small part of our knowledge of the inanimate world. All the laws of nature are conditional statements which permit a prediction of some future events on the basis of the knowledge of the present, except that some aspects of the present state of the world, in practice the overwhelming majority of the determinants of the present state of the world, are irrelevant from the point of view of the prediction.”

Und wenn das so ist, dann können Ingenieure – oder für Wigner Physiker, die die Naturgesetze besser kennen – auch Maschinen in die Welt setzen, deren Verhalten vollkommen vorhergesagt werden kann.

““[T]he construction of machines, the functioning of which he can forsee, constitutes the most spectacular accomplishment of the physicist. In these machines, the physicist creates a situation in which all the relevant coordinates are known so that the behavior of the machine can be predicted. Radars and nuclear reactors are examples of such machines.”

Dass Wigner Ende der Fünfzigerjahre als Beispiele ausgerechnet Radar und Atomkraftwerke gewählt hat, muss aus unserer heutigen Perspektive unglücklich aber auch erhellend erscheinen. Den an Krebs erkrankten Bedienungsmannschaften der Radarstationen wie auch den vielen Opfern und Vertriebenen der katastrophalen Atomkraftwerksunfälle war ihr individuelles Schicksal sicher nicht irrelevant. Und die Öffentlichkeit reagierte genauso. Die Blindheit des reduktionistischen physikalischen Arguments für die Kontingenz der Welt ist frappierend.

Die technisierte Welt wächst sehr viel schneller als beabsichtigt. Sicherheit muss nicht nur für neue Produkte, sondern darüber hinaus für ein Vielfaches an unbeabsichtigten und meist überraschend auftauchenden Nebenfolgen geschaffen werden. Der Schwerpunkt technischer Entwicklung verschiebt sich dadurch allmählich von der Erzeugung neuer Effekte zur Bewältigung neuer und alter Gefährdungen. Die technische Entwicklung wird immer mehr als Reparatur vorangegangener Technik und der Abwehr technisch erzeugter Gefahren wahrgenommen. Daraus kann die Öffentlichkeit nur den Schluss ziehen, dass Technik gefährlich ist und offensichtlich immer gefährlicher wird.

Eine konstante Gefährdung durch Technik gibt es nur bei steigender Sicherheit der Technik, denn die Zahl der Anwendungen steigt.

Dahinter steckt das ganz reale Problem, dass mit zunehmender Technikverwendung bzw. Technikbegegnung im Alltag diese Technik mindestens um den Faktor sicherer werden muss, um welchen ihre Häufigkeit zunimmt, damit die Gesamtgefährdung durch Technik nicht am Ende doch noch absolut wächst. Die Sicherheitsanforderungen an die Technik wachsen mit der Ausweitung ihres Einsatzes. Auch das lässt sich einfach visualisieren.

Ein Beispiel: Seit dem Zweiten Weltkrieg sterben jedes Jahr recht konstant einige hundert Menschen bei Unfällen von Verkehrsflugzeugen – mit Spitzenwerten weit über 1000 in den Siebziger- und Achtzigerjahren, als auch die Autounfälle in den reichen Ländern ihre Spitzenwerte erreichten. Diese Todesrate scheinen wir in der Fliegerei zu akzeptieren. Dass sie bei rasant wachsendem Flugverkehr nicht steigt, verdanken wir alleine der steigenden Verkehrssicherheit der Fliegerei. Stünde die Sicherheit unserer Verkehrsfliegerei immer noch auf dem Stand von 1950, so hätten wir beim heutigen Flugverkehr jährlich 4000 Abstürze – mehr als 10 pro Tag. Die Kapazitäten der heutigen Flugzeugindustrie würden nicht ausreichen, um nur die abgestürzten Flugzeuge zu ersetzen. Dann würde ganz sicher nicht so viel geflogen. Dass so viel geflogen wird, liegt zum Großteil daran, dass die Flugsicherheit heute um den Faktor 300 besser ist als 1950. Und trotzdem sterben Jahr für Jahr immer noch einige hundert Menschen bei Flugzeugabstürzen.

Expansion einer Technik setzt voraus, dass sie wenigstens in gleichem Maße sicherer wird, um für die Gesellschaft insgesamt nicht gefährlicher zu erscheinen. Die Gesellschaft kann die Erfahrung steigender technischer Sicherheit nur machen, wenn die Sicherheit aller, nicht nur die der zusätzlich konsumierten Komponenten, überproportional zu ihrer Anzahl wächst. Das heißt, dass auch alte vertraute Technik permanent sicherer werden muss, damit wachsender materieller Wohlstand nicht in eine wachsende Gefährdung mündet.

Im Teil 2: Der Grenznutzen nimmt ab – Von vitalen Errungenschaften zu Lifestyle-Produkten

Dieser Text basiert auf einem Vortrag, den Prof. Ulrich Wengenroth am 28. November 2017 bei „Forum Wissenschaftskommunikation“ in Braunschweig gehalten hat. Er verwendet dabei Ausschnitte aus den Kapiteln 10 und 11 seines E-Books „Technik der Moderne“ (2015), das unter diesem Link zum Download bereitsteht. Dort finden Sie alle Belege, Literaturhinweise und ausführlichen Begründungen.