13.05.2011

Vorwärts und stets vergessen

zurück

Vorwärts und stets vergessen

Die unbelehrbare Wissensgesellschaft nach Fukushima und Finanzkrise von Ulf Kadritzke

Wie sich die Bilder gleichen. Nach Tschernobyl (1986) trat der diensthabende Berliner Wissenschaftssenator auf die Treppe des Rathauses Schöneberg und verzehrte öffentlich grinsend ein paar strahlenbelastete Salatblätter. Ausgerechnet der Minister des Wissens gab es der Bevölkerung mit Brief und Siegel: Fürchtet euch nicht.

Nach Fukushima (2011) ist es ein türkischer Minister, der die Gefährlichkeit von Atomkraftwerken und Propangasflaschen in der heimischen Küche auf eine Stufe stellt, um das politische Investitionsklima für den Bau eines Reaktors des Typs Fukushima zu pflegen.

In letzter Klarheit treten die Widersprüche der modernen „Wissensgesellschaft“ erst im öffentlichen Umgang mit Katastrophen zutage. Vor deren Eintreten kalkulieren die wirtschaftlichen und politischen Eliten die Risiken ihrer „Innovationen“ vorzugsweise in Geld. Ihre Experten entwerfen Szenarien, die angeblich nichts mit den Interessen der Auftraggeber zu tun haben, sondern nur „der unsichtbaren Hand“ des Markts und der Logik der technischen Systeme folgen. Nach der Katastrophe ist allerdings ein höfliches Innehalten vor öffentlicher Kritik angeraten. So auch jetzt wieder. Denn Fukushima verweist auf eine „unsichtbare Hand“ ganz anderer Art: auf das Risiko, das immer wieder zu einem anderen Zeitpunkt zuschlägt, als die Wahrscheinlichkeitsstatistiker es gerne hätten.

Gemeinsam ist Harrisburg, Tschernobyl und Fukushima die Herrschaft einer wahnhaften Logik der Machbarkeit. Das im Handeln des modernen Menschen verankerte Missverhältnis zwischen der Vorstellungs- und der Herstellungskraft hat Günther Anders das „prometheische Gefälle“ genannt. Der Wahn, der sich in der militärischen und zivilen Nutzung atomarer Energie entfaltete, trat 1979 und 1986 in der Unfähigkeit zutage, nach Eintritt der Katastrophen das Geschaffene zu überprüfen oder gar – aufgrund neuer Einsichten – wieder abzuschaffen. Schon 1975 hatte Anders mit unerbittlichem Wirklichkeitssinn befunden: „Wir sind unfähig, das einmal Gekonnte nicht mehr zu können.“1

Ein nur scheinbarer Ausweg aus Anders’ Dilemma besteht darin, die Risiken der technisierten Welt, anstatt über sie gründlich und aus verschiedenen Blickwinkeln nachzudenken, auf wiederum technische Weise kleinzuarbeiten. Das leistet das Expertenwissen mittels Modellen, die ihren begrenzten Anwendungsbereich mit der wirklichen Welt verwechseln. Mit haltloser Naivität definieren sie das Risiko eines Schadens als mathematisches Produkt aus Eintretenswahrscheinlichkeit und Schadensfolge. Auf solche statistischen Annahmen berufen sich die Experten immer wieder, wenn nach der Katastrophe die Schamfrist des höflichen Moralisierens verstrichen ist: Das war so nach der Emission von Giften im indischen Bhopal wie von Radioaktivität in Tschernobyl. Danach kehrt unsere „Wissensgesellschaft“ wieder zu ihrem „Alltag“ zurück: zur Beschönigung ihrer Risiken durch interessiertes Vergessen. Im herrschenden Fortschrittsdenken ersetzt der best faith den worst case.

Wenn nun die Bilder geborstener Reaktoren aus Japan auf uns eindringen, hält die Wissensgesellschaft erneut den Atem an. Und dann? Zwar kann die erneute Blamage der Wahrscheinlichkeitsstatistik den Glauben nicht mehr stützen, dass Fukushima „bei uns“ nicht passieren könne. Aber die Eliten versuchen stur, in der öffentlich geforderten Antwort auf das Geschehen die künftigen Risiken nur so weit zu begrenzen, wie das Weiter-so des Gewinnstrebens und die festgetretenen Innovationspfade nicht bedroht sind. Zur Absicherung ihres Tuns benötigen sie die Sachkunde der Experten. Mit deren Hilfe will das Bündnis aus Wirtschaft und Politik den moralischen Überschuss eindämmen und der Verunsicherung im Volke entgegentreten.

Die heute enger denn je verkoppelte Herrschaft von Ökonomie und Technik zieht ihre politische Legitimation aus den frühen Bildern der Moderne. Das Pathos der Fortschrittsrhetorik wird aus der historisch-politischen Sphäre in die Welt der Technik übernommen. Scheinbar naturwüchsig fördert der technische Fortschritt – ganz wie der Markt – unser aller Wohlstand und Glück. Beide versprochenen Paradiese sind dieser Logik zufolge nur gefährdet, wenn wir, risikoscheu und damit blöde, einige seiner Früchte verschmähen. Der Markt und unser Vertrauen sind damit die wichtigsten Stützen des herrschenden Innovationsregimes. Franz Josef Strauß konnte den GAU von Tschernobyl noch als „sozialistischen Reaktorunfall“ abtun, auf die Idee konnte nach Fukushima keiner mehr kommen. Doch sind damit die alten Wege des Verdrängens von Ängsten schon versperrt? Sind damit neue Wege des Denkens eröffnet?

Die Antwort mag der Rückblick auf ein Buch geben, das – ins Deutsche übersetzt – ein Jahr nach Tschernobyl erschien: „Normale Katastrophen. Die unvermeidbaren Risiken der Großtechnik“.2 Der US-amerikanische Autor Charles Perrow stellt in seiner fünf Jahre nach dem Reaktorunfall von Harrisburg (1979) verfassten Studie die zentrale These auf: In bestimmten großtechnischen Systemen sind katastrophenartige Unfälle mit unvorhersehbaren Folgen fast unvermeidbar. Der Organisationsforscher Perrow zeigt anhand von Fallstudien, besonders gründlich am GAU von Three Miles Island, wie objektive technische und subjektive menschliche Fehler auf unvorhersehbare Weise auftreten und sich wechselseitig verstärken können, bis es zum bedrohlichen Systemversagen kommt.

Perrows Risikoanalysen nehmen die konkreten Organisationen ins Visier, in denen immer Menschen mit Technik umgehen, auch wenn viele Abläufe automatisiert sein mögen. Die beiden wesentlichen Merkmale sind Komplexität und Kopplung. Der Charakter, die Stärke und die Folgen von Systemrisiken hängen davon ab, wie diese beiden Faktoren zusammenspielen.

Komplexe Systeme mit einer Vielfalt von „Interaktionen“ mögen effizienter sein als lineare, sie sind aber auch störanfälliger. Doch gibt es komplexe Systeme, die im Störfall wenig Schaden anrichten. Hier kommt das Merkmal der Kopplung ins Spiel. Eng gekoppelt sind Systeme, deren regulärer Prozessablauf keine Puffer und keine „Umwege“ kennt, etwa Staudämme, großchemische Anlagen und AKWs. Hier müssen Redundanzen und „Ersatzsysteme“ fest eingeplant sein, in lose gekoppelten Systemen bleibt dagegen mehr Spielraum für improvisierte Lösungen.

Das größte Risiko bergen technisch-industrielle Systeme mit hoher Komplexität bei gleichzeitig enger Koppelung. Perrow zeigt überzeugend, warum großchemische Anlagen, die Gentechnologie und Kernkraftwerke die mit Abstand gefährlichsten sind. Bei Nuklearanlagen ist die Wahrscheinlichkeit besonders hoch, dass am Ende einer Kette von Störungen ein nicht beherrschbarer Prozesszustand eintritt – eben die Katastrophe. Diese Erkenntnis zwingt den nüchternen Wissenschaftler Perrow zu einem Schluss, den man in Deutschland über Jahrzehnte als „Ideologie des Ausstiegs“ einer technikfeindlichen Meute von Studienräten und Heilpraktikerinnen denunziert hat: „Die Gründe für ein Abschalten sämtlicher Kernkraftwerke in den USA liegen offen auf der Hand.“3

Eine Kette vernetzter Geldreaktoren

In der amerikanischen Erstausgabe von 1984 schrieb Perrow, er rechne binnen zehn Jahren mit einem weiteren Reaktorunfall, mit vielen Toten und radioaktiver Verstrahlung in größerem Umfang. 1986 war diese Katastrophe da. Zwei Jahre nach Tschernobyl ließ der Spiegel die deutsche Ausgabe von Perrows Buch besprechen, freilich von einem Experten besonderer Art: Adolf Birkhofer, Professor für Reaktorsicherheit und bis heute Präsidiumsmitglied des Deutschen Atomforums.4

Birkhofer bekrittelte einzelne Sätze Perrows, um dessen Fachkompetenz anzuzweifeln. Die Pointe seines Technikdenkens enthüllte der Rezensent mit dem Hinweis, vor allem die Fortschritte in der Informationstechnik ließen einen erheblichen Sicherheitsgewinn für die Nukleartechnik erwarten. Das liest sich in einer Zeit, in der Computerviren in die atomaren Anlagen des Gegners eingeschleust werden, wie ein unfreiwilliger Witz.

Wie genau der Organisationsforscher Charles Perrow der modernen Welt und ihren Risiken auf die Schliche gekommen ist, zeigt sich auch jenseits des industriellen Komplexes. Die neue Hochrisikozone der Finanzmärkte ist das entscheidende Systemmerkmal des globalisierten Kapitalismus. Diese Zone ist global vernetzt und bildet gleichsam eine Kette von „Geldreaktoren“ mit eng verkoppelter Wechselwirkung. Im Frühjahr 2008 warnten Aline Van Duyn und Gillian Tett vor der Spekulationsblase bei Anleiheversicherungen in Perrows Worten: „Der Bankensektor hat ein finanzielles System geschaffen, das nicht nur hochkomplex ist, sondern auch auf eine Weise eng gekoppelt, die nicht einmal mehr die Finanzakteure selbst, geschweige denn die politischen Entscheidungsträger verstehen.“5

Bei Störfällen im System der Vermarktung spekulativer Finanzprodukte wird zwangsläufig der Herdentrieb wirksam, der die Blasenbildung vorantreibt, die zum Beispiel 2008 in die globale Finanzkrise mündete. Freilich sind „normale Katastrophen“ in der Geschichte des Kapitalismus ein alter Wegbegleiter. Wir haben es nur – wie nach den „technischen“ Katastrophen – immer wieder verdrängt.

Nach Tschernobyl schaffte es der nuklear-industrielle Komplex noch einmal, den Fundus des „gesicherten Wissens“ gegen Perrows Erkenntnisse über großtechnische Risiken abzuschotten. Und heute? Nach Finanzkrise und Fukushima ahnen wir, dass unsere „Wissensgesellschaft“ ein Kind ist, „das mit Geräten spielt, von denen es nicht weiß, was geschieht, wenn sie kaputtgehen“.6

Zwei Monate nach dem 11. März zieht sich der atomkritische Diskurs in die Feuilletons zurück. In der hastig gegründeten „Ethikkomission Atomkraft“ flanieren Monsieur le Capital und Madame la Science schon wieder Hand in Hand; ein paar Kirchenvertreter, Elder Statesmen und Risikoforscher dürfen artig die Ethik vortragen. Schon gilt es wieder als schick, grün etikettierte Befürworter der Atomenergie wie Stewart Brand auf die Bühne zu bitten.7 Die Argumente, mit denen der in den Medien die Nukleartechnik als Retter vor dem Klimatod anpreist, würde man den Chefs von Eon oder RWE nicht mehr abnehmen – ein Fortschritt?

Die Politik des interessierten Nichtwissens geht im Grunde weiter, sie hat sich nur ein wenig Zeit gekauft. Die Wissensgesellschaft pflegt nach wie vor ihre Sprache der Beschönigung, die über die Machtverhältnisse schweigt. Das Vergessen ist auch in internationalen Institutionen verlässlich organisiert. Schon macht sich die OECD daran, Fukushima positiv aufzubereiten. Getreu dem Logo „Better Policies for Better Lives“ versammelt sie Anfang Juni 2011 Nuklearexperten aus den OECD- und G-20-Ländern mit dem Ziel, „bessere Schutzmaßnahmen in den Kernkraftwerken für eine Post-Fukushima-Welt einzuführen“.8

Ein Etappenziel haben die Lobbyisten des Atomstroms im Kampf gegen das Umsteuern bereits erreicht: Die EU-Innenminister wollen es den Betreibern der Atomkraftwerke ersparen, bei ihren Sicherheitstests menschliche Bedienungsfehler oder einen Flugzeugabsturz in Rechnung zu stellen.9 Perrows grundlegende Erkenntnisse über den „Risikofaktor Mensch“ sind damit erneut in den Wind geschlagen.

Wissensgesellschaft? Ein alter Im-ker hat vom Unglück in Tschernobyl, das die staatlichen Stellen unterdrücken, auf eigene Weise erfahren. „Ich komme am Morgen in den Garten, und irgendetwas fehlt, ein vertrautes Geräusch. Keine einzige Biene? Keine einzige Biene war zu hören. Was war los? Hinterher erfuhren wir von der Havarie im Atomkraftwerk, und das ist ganz in der Nähe. Aber lange wussten wir nichts. Die Bienen wussten Bescheid, aber wir nicht.“10

Fußnoten: 1 Günther Anders, „Die Antiquiertheit des Nichtkönnens“ (1975), in: „Die Antiquiertheit des Menschen, Zweiter Band: Über die Zerstörung des Lebens im Zeitalter der dritten industriellen Revolution“, München ( C. H. Beck) 1980, S. 394–395. 2 Charles Perrow, „Normale Katastrophen. Die unvermeidbaren Risiken der Großtechnik“, Frankfurt/New York (Campus Verlag) 1987. 3 Charles Perrow, siehe Anmerkung 2, S. 406. 4 Adolf Birkhofer, „Sind Katastrophen unvermeidbar?“, Der Spiegel, Nr. 25/1988, S. 99–100. 5 „Markets assess the costs of a monoline meltdown“, Financial Times Europe, 20. Februar 2008. 6 Jürgen Kaube, „Wählen Sie jetzt 112“, Frankfurter Allgemeine Zeitung, 2. April 2011. 7 Siehe Frankfurter Allgemeine Zeitung, 9. April 2011, und Süddeutsche Zeitung, 28. April 2011. 8 OECD-Presseerklärung vom 28. April 2011. 9 Auch sollen unabhängige Experten zu den Anlagen keinen Zutritt haben. Siehe Süddeutsche Zeitung, 4. Mai 2011. Dazu auch Peter Becker „Aufstieg und Krise der deutschen Stromkonzerne“, Bochum (Ponte Press) 2010. 10 Swetlana Alexijewitsch, „Tschernobyl. Eine Chronik der Zukunft“, Berlin (Bloomsbury) 2006, S. 48. Ulf Kadritzke ist Professor für Soziologie an der Berliner Hochschule für Wirtschaft und Recht. © Le Monde diplomatique, Berlin

Le Monde diplomatique vom 13.05.2011, von Ulf Kadritzke