Start>>Themen>>Wissensgesellschaft - Risikogesellschaft?>>


Wolfgang Bonß

Riskantes Wissen?
Zur Rolle der Wissenschaft in der Risikogesellschaft

I

Die Selbstbeschreibungen moderner Gesellschaften sind unübersichtlich geworden. Stritt man früher darüber, ob "Spätkapitalismus" oder "Industriegesellschaft" die angemessenen Etiketten seien (Adorno 1969), so scheinen diese Stichworte zur Kennzeichnung der gesellschaftlichen Kernstrukturen nur noch begrenzt tauglich. Zwar sind die meisten entwickelten Gesellschaften des beginnenden 21. Jahrhunderts nach wie vor (und in mancher Hinsicht mehr als früher) durch industrielle Produktionsweisen und kapitalistische Wirtschaftsverfassungen geprägt. Gleichwohl werden wichtige Charakteristika mit diesen Stichworten nicht getroffen, weshalb andere Schlagwörter angeboten werden - zum Teil ergänzend, zum Teil konkurrierend. So wurde Anfang der achtziger Jahre aus der kapitalistischen Industriegesellschaft die (eher als krisenhaft begriffene) "Arbeitsgesellschaft" (Matthes 1983). Nach der Katastrophe von Tschernobyl erlebte das ganz anders ansetzende Stichwort der "Risikogesellschaft" (Beck 1986) eine schwindelnde Karriere. Danach und daneben war von "Erlebnisgesellschaften" (Schulze 1992) die Rede, von "Multioptions"- (Gross 1994), "Netzwerk"- (Castells 1996) und "Verantwortungsgesellschaften" (Etzioni 1997) sowie nicht zuletzt von "Wissens"-, "Informations"- und "Wissenschaftsgesellschaften". (vgl. Stehr 1994, Hubig 2000, Bühl 1994, 1996, Kreibich 1986).

Wolfgang Bonß
ist Professor für allgemeine Soziologie an der sozialwissenschaftlichen Fakultät der Universität der Bundeswehr, München und korrespondierendes Mitglied des Hamburger Instituts für Sozialforschung.
Veröffentlichungen (Auswahl): Weder Sozialtechnologie noch Aufklärung? Analysen zur Verwendung sozialwissenschaftlichen Wissens (Hrsg. zus. mit U. Beck, 1989); Wissenschaft als Kontext - Kontexte der Wissenschaft (Hrsg. zus. m. R. Hohlfeld u. R. Kollek, 1993); Vom Risiko. Unsicherheit und Ungewißheit in der Moderne (1995). Reflexive Modernsierung - Zur Transformation der industriellen Moderne (Hrsg. zus. mit U. Beck u. C. Lau) Frankfurt 2001

So eingängig die verschiedenen Formeln auch sein mögen, so unklar ist ihr analytischer Gehalt, ganz zu schweigen von ihrem Zusammenhang. Quer durch alle Lager fällt jedoch eine Fokussierung auf Information und Wissen auf, die stets als mehr oder weniger neue, auf jeden Fall aber zentrale Querschnittskategorien gelten. So konstatiert Manuel Castells eine "Information Technology Revolution" (Castells 1996, 29), in deren Gefolge sich Ökonomie, Kultur, soziale Beziehungen und soziale Ungleichheit nachhaltig wandeln. Nicht ganz so differenziert, aber in der Zielrichtung ähnlich argumentiert im deutschen Sprachraum Meinhard Miegel. Er sieht in der heraufziehenden Wissensgesellschaft einen epochalen Bruch, der ähnlich wie bei Alvin Toffler (1987) beschrieben wird. Was für Toffler "die dritte Welle", ist bei Miegel "der dritte gewaltige Paradigmenwechsel in der Geschichte der Menschheit" (Miegel 2001, 203), der sich in sämtlichen Bereichen des Lebens abzeichne, alles umwälze und völlig neue Chancen und Strukturen schaffe.

Mit dieser ebenso emphatischen wie allgemeinen These steht Miegel nicht allein. Die Herausforderungen der Wissensgesellschaft zu betonen gehört längst zum Standardrepertoire der Politik, die hier eindeutig (vor-)schneller ist als die wissenschaftliche Diskussion. Während auf wissenschaftlicher Ebene noch keineswegs geklärt ist, was unter Wissensgesellschaft (in Abgrenzung von Informations- und Wissenschaftsgesellschaft) genau zu verstehen ist (vgl. Maasen 1999, Heidenreich 2000), verwenden Ministerien (z.B. BmB&F 1997) und Parteien dieses Stichwort sehr viel unbefangener und mit prinzipiell positiven Konnotationen. Unter Verweis auf die exponential wachsende Informationsproduktion wird Wissensgesellschaft zugleich in der Regel mit Informationsgesellschaft gleichgesetzt, und die notwendigen "Innovationen für die Wissensgesellschaft" werden dementsprechend vor allem in ein "Förderprogramm Informationstechnik" (BmB&F 1997) übersetzt.

Ob dies ausreicht, kann bezweifelt werden. Dies um so mehr, als die entscheidenden Probleme nicht unbedingt auf der Ebene der Bereitstellung von Informationen liegen, sondern in deren Transformation in Wissen (das im Unterschied zur Information stets bedeutungs-, handlungs- und kontextbezogen ist). Ungeachtet dessen sehen nicht wenige Akteure in den "Innovationen für die Wissensgesellschaft" einen wichtigen Schritt, um aus der "Risikogesellschaft" (Beck 1986) eine "Chancengesellschaft" (Teufel 2001) werden zu lassen. Zwar hat sich dieser Etikettenwechsel bislang nur in Ansätzen durchgesetzt. Aber die dahinter stehende Intention verweist auf eine veränderte Interpretation der gesellschaftlichen Entwicklungsdynamik, über die in den kommenden Jahren noch häufiger gestritten werden dürfte.

Betont das Stichwort der "Risikogesellschaft" die seit den achtziger Jahren unübersehbar gewordenen Schattenseiten der okzidentalen Rationalisierung, die als unvermeidbaren Nebenfolgen des Modernisierungsprozesses beschrieben werden, so setzen die Anhänger der "Chancengesellschaft" andere Akzente. Für sie sind Ereignisse wie Seveso, Bhopal, Harrisburg und Tschernobyl eher Chiffren für vermeidbare Unglücke, die bei zureichender Information und Vorsorge nicht hätten passieren müssen. Ausgehend von der Gleichung "Mehr Information = mehr Wissen = bessere Handlungsmöglichkeiten" erscheinen die risikogesellschaftlichen Nebenfolgen als ein eher vorübergehendes Problem, das sich durch konsequente Nutzung und Ausbau der Wissensressourcen grundsätzlich bewältigen lässt.

So bemerkenswert eine solche Lesart auch sein mag - unter wissensgeschichtlichen wie -soziologischen Gesichtspunkten ist sie nur begrenzt überzeugend. Denn in den einschlägigen Beiträgen wird der angebliche Übergang zur Wissensgesellschaft sowohl historisch verkürzt als auch systematisch unterkomplex dargestellt. Weder ist die Wissensgesellschaft ein Phänomen des späten 20. oder des beginnenden 21. Jahrhundert noch läuft sie auf eine unaufhaltsame Verbesserung der Herrschaft über die äußere und innere Natur hinaus. Ganz abgesehen davon, daß der Rekurs auf Wissen mehr bedeutet als Informationszuwachs und letztlich als Bezugnahme auf wissenschaftliches Wissen zu dechiffrieren wäre, ist dieser Rekurs ein für die Moderne insgesamt kennzeichnendes Moment, das zunächst programmatisch, dann faktisch wirksam wurde und vor diesem Hintergrund weit ambivalenter gedeutet wird als noch drei oder vier Jahrzehnten.

Wurde Verwissenschaftlichung früher meist linear gedacht, nämlich als "unendliche Entzauberung" (Max Weber) der Welt, als ein Prozeß der Rationalisierung und kumulativen Wissensanhäufung, der zu einer kontinuierlichen Verbesserung der Herrschaft über die äußere und innere Natur führt, so hat diese Überzeugung inzwischen Risse bekommen. Denn mit der Durchsetzung der modernen Wissensgesellschaft, also mit der tatsächlichen Umstellung auf wissenschaftliches Wissen als programmatisch gesellschaftskonstitutives und faktisch gesellschaftssteuerndes Moment, ist eine "Dialektik der Aufklärung" (Horkheimer/Adorno 1947) in Gang gesetzt worden, die folgenreich ist und sich nicht unbedingt in dem erschöpft, was die Protagonisten der Kritischen Theorie in den vierziger Jahren herausgearbeitet haben.

Die von Horkheimer/Adorno skizzierte Problematik der Verwissenschaftlichung betraf letztlich zweierlei: Auf der einen Seite konstatierten sie ein Auseinanderfallen von Wissenschaft und Philosophie (bzw. genauer: die Aufspaltung des Wissens in instrumentelle Wissenschaft und emanzipatorische Kritik); auf der anderen Seite beschrieben Horkheimer/Adorno die unter diesen Bedingungen sichtbar werdenden Aporien einer wissenschaftlichen Praxis, die mit dem Anspruch (rationaler) Aufklärung beginnt, aber gerade wegen ihrer instrumentellen Vereinseitigung in (irrationalen) Mythos umschlägt. So scharfsinnig dieser Zusammenhang auch analysiert wurde, so hilflos blieb letztlich die Kritik. Denn angesichts der unübersehbaren Erfolge der instrumentellen Wissenschaft bei der Beherrschung der äußeren und inneren Natur war ihr Siegeszug für Horkheimer/Adorno kaum zu verhindern, auch wenn die "unendliche Entzauberung" mit wachsenden Entfremdungspotentialen zu bezahlen war.

Eben diese Einschätzung steht nach den Verwissenschaftlichungserfahrungen der letzten Jahrzehnte in Frage. So ist deutlich geworden, daß die Erfolgsbilanz der instrumentellen Wissenschaft eher zweispältig ist. Die intendierten Erfolge werden oft durch nichtintendierte Nebenfolgen konterkariert, weshalb keineswegs sicher ist, ob die Beherrschung der äußeren und inneren Natur tatsächlich steigt. Dagegen spricht, daß die Grenzkosten zur Bereitstellung zusätzlicher Beherrschungsmöglichkeiten systematisch wachsen und kaum eindeutig kalkulierbar sind. Unabhängig aller theoretisch konstatierbaren Entfremdungspotentiale erweist sich die instrumentelle Wissenschaft somit selbst als ein riskantes Wissen. Denn die neuen Möglichkeiten werden mit Folgeproblemen und Nebenfolgen erkauft, deren Abarbeitung nicht selten mehr Aufwand verlangt als die Realisierung der intendierten Effekte. Diese von den Apologeten der Wissens- und Chancengesellschaft meist ausgeblendete Problematik läßt die Wissenschaft nicht nur zu einem Motor, sondern zugleich zu einem Risiko der modernisierten Moderne werden und zwingt zu einer tiefer gehenden Reflexion des Stichworts "Wissensgesellschaft". Zwar ist die Rede von der Wissensgesellschaft keineswegs falsch, wohl aber unscharf, und es gilt diese Unschärfen auszuleuchten, um die Möglichkeiten, aber auch die Grenzen von Wissenschaft in der modernisierten Moderne genauer abschätzen zu können.

II

Wenn in den gängigen Lexika (Brockhaus 2001, Meyers 2002) behauptet wird, daß "Wissensgesellschaft" ein "Ende der 1990er-Jahre geprägter Begriff" sei, so ist dies eindeutig falsch. Im angelsächsischen Sprachraum kam das Stichwort von den knowledgeable societies in der zweiten Hälfte der sechziger Jahre auf, wobei die einschlägigen Autoren bereits damals die Wissens- und Wissenschaftsabhängigkeit als neues Strukturmerkmal moderner Gesellschaften betonten (Lane 1966, Drucker 1968). Ohne den Begriff zu verwenden war dieser Sachverhalt aber auch im deutschen Sprachraum bekannt. So charakterisierte Helmut Schelsky die Moderne als eine "wissenschaftlich-technische Zivilisation", die geprägt sei durch die "Sachgesetzlichkeit, die der Mensch als Wissenschaft und Arbeit selbst produziert" (Schelsky 1961, S. 22). Mit dieser Formulierung knüpfte Schelsky an Max Webers Analysen zur okzidentalen Rationalisierung an, die darauf hindeuten, daß die in Rede stehenden Veränderungen sich keineswegs in einem bloßen Informationswachstum erschöpfen.

Ähnliche Vorbehalte wurden in der angelsächsischen Diskussion geäußert, weshalb das Etikett "Wissensgesellschaft" zunächst auch keineswegs Karriere machte. Wie die Akzente statt dessen gesetzt wurden, läßt sich an Daniel Bell studieren, der ursprünglich selbst von knowledgeable societies als neuer Strukturform gesprochen hatte. In seiner berühmt gewordenen Studie "The Coming of the Postindustrial Society" (Bell 1973) ersetzte er den Terminus "Wissensgesellschaft" jedoch durch den der "postindustriellen Gesellschaft". Ausschlaggebend hierfür war in mancher Hinsicht ein gesellschaftstheoretischer Traditionalismus. Denn entscheidend für den Strukturkern moderner Gesellschaften gilt nicht erst seit Marx zunächst und vor allem die Art und Weise der Produktion. Hieran knüpfte auch Bell an, der sich gleichwohl nur begrenzt in der damals üblichen Alternative "Spätkapitalismus oder Industriegesellschaft" verortete. Denn durch die Revolution des Wissens, so seine These, werden die industriellen Gesellschaften in ihrer Kernstruktur verändert und eben zu postindustriellen Gesellschaften.

Auch wenn die Rede von der postindustriellen Gesellschaft auf große Resonanz stieß, kann man darüber streiten, ob Bells Begriffswahl angemessen war. Zwar ist es richtig, daß die industriellen Gesellschaften des späten 20. mit denen des 19. Jahrhunderts nur begrenzt verglichen werden können. Aber auch in den neuen Konstellationen verschwindet der industrielle Sektor keineswegs und verliert auch nicht unbedingt an Bedeutung. Was sich ändert, ist vielmehr die Struktur und Form der Produktion. Ein vergleichbares Argument läßt sich aber auch gegen das Etikett der Wissensgesellschaft ins Feld führen. So wies Barry Barnes Mitte der neunziger Jahre darauf hin, daß wissensbasierte Aktvitäten im Prinzip nichts Neues seien, sondern etwas höchst Basales. Sofern die Differenz zwischen instinktgesteuertem Reagieren und menschlichem Handeln durch einen wie auch immer gearteten Wissensbezug markiert wird, ist letztlich jegliches Handeln wissensbasiert. Unter dieser Perspektive erscheint die Rede von einer increasingly knowledge-based society auch unsinnig (vgl. Barnes 1995, 111). Denn es geht nicht um einen Ausbau, sondern um einen Strukturwandel der Wissensbasierung des Handelns. Oder anders ausgedrückt: Nicht der Bezug auf Wissen (im Sinne von handlungs-, bedeutungs- und kontextbezogenen kognitiven Schemata) ist neu, sondern die sich verändernde Spezifik dieses Bezuges, wobei der interessierende Strukturwandel weiterführend als "Verwissenschaftlichung" zu beschreiben wäre.

Der Idee nach ist die Umstellung des gesellschaftlichen Problemlösungswissens auf wissenschaftliche Begründungen und Überprüfungen seit der Aufklärung Programm. Allerdings wurde dieses Programm nur sehr mühsam und auch nicht immer in der ursprünglich intendierten Form eingelöst. Breitenwirksam durchgesetzt haben sich Verwissenschaftlichungsprozesse erst im 20. Jahrhundert, und zwar in den USA seit den vierziger und in Europa seit den sechziger Jahren. Allerdings vollzieht sich der kognitive Strukturwandel nicht im luftleeren Raum, sondern ist auf Parameter wie Produktion, Wertorientierungen und gesellschaftliche Statuszuweisung bezogen. Unter dieser Perspektive lieferte Bell mit seiner Beschreibung auch wichtige Argumente, und hier sind vor allem drei Punkte festzuhalten, die inzwischen durch andere Autorinnen und Autoren weiter ausgearbeitet worden sind:

  1. In ökonomischer Hinsicht sind die Gesellschaften des späten 20. und beginnenden 21. Jahrhunderts nicht mehr vorrangig an der industriellen Fertigung orientiert, sondern an einer (postindustriellen) Dienstleistungsökonomie, "in which knowledge, not labor or raw material or capital, is the key resource" (Drucker 1994, S. 53). Dem entspricht eine systematische Verschiebung der Schwerpunkte der Wertbildung. Dominierend werden wissensintensive Dienstleistungsberufe und Dienstleistungen, die von Sachgütern als immaterielle und häufig personengebundene Güter zur Befriedigung menschlicher Bedürfnisse abzugrenzen sind. Sofern diese Momente quantitativ wie qualitativ in den Vordergrund treten und Strukturveränderungen nach sich ziehen, stellen sich die sozialen Formationen als Dienstleistungsgesellschaften (Häußermann & Siebel 1995) dar.
  2. In kognitiver Hinsicht sind derartige Dienstleistungsgesellschaften in doppelter Hinsicht wissensintensiv: Zum einen verändert sich das Verhältnis zwischen Wissensarbeit und Fertigung, da die wissensbezogene Vor- und Nachbereitung immer mehr Zeit beansprucht. Zum anderen knüpfen die produktiven Tätigkeiten kaum noch an traditionelles Erfahrungswissen an, sondern werden zunehmend von theoretischem bzw. wissenschaftlichem Wissen abhängig. Gerade immaterielle Güter vom Computerprogramm bis zur Entwicklungsplanung entstehen weniger auf der Grundlage sinnlicher Erfahrung, sondern setzen technische Kompetenzen und wissenschaftliches Know-how voraus. Unter diesen Perspektiven wären modernisiert-moderne Gesellschaften als Wissenschaftsgesellschaften (Kreibich 1986) zu beschreiben, die durch einen Ausbau der Wissenschaft zur ersten Produktivkraft und eine parallele Abwertung des traditionellen Erfahrungswissens gekennzeichnet sind.
  3. Darüber hinaus sind die Gesellschaften des späten 20. und beginnenden 21. Jahrhunderts durch einen sozialstrukturellen Wandel dergestalt gekennzeichnet, daß auch für die Zuweisung des sozialen Status die Verfügung über (wissenschaftliches) Wissen zunehmende Bedeutung erlangt. Die prägende Symbolfigur ist nicht mehr, wie im 19. Jahrhundert, der sachgüterproduzierende Arbeiter mit Muskelkraft und Erfahrungswissen, sondern der dienstleistungsorientierte Wissensarbeiter oder "Symbolanalytiker" (Reich 1993), der über eine akademische Ausbildung verfügt, sich im wesentlichen mit der Manipulation von Symbolen beschäftigt und bereit ist zum lebenslangen Lernen. Die akademisch gebildeten, neuen Professionellen gewinnen dabei in allen Bereichen des sozialen Lebens an Bedeutung und etablieren sich als neue (politische) Klasse in einer Gesellschaft, die unter diesem Gesichtspunkt als Expertengesellschaft zu charakterisieren wäre.

Sofern in allen drei Dimensionen der Strukturwandel des Wissens eine entscheidende Rolle spielt, mag die Rede von der Wissensgesellschaft für viele naheliegend sein. Dies um so mehr, als "Wissenschaft und Technik .. die Möglichkeiten für neue Formen des Handelns (liefern)" (Stehr 2000, 75) und zu zentralen Bezugspunkten für affirmatives und kritisches Verhalten gleichermaßen werden. Aber festzuhalten bleibt, daß eine so verstandene Formation letztlich eher als eine Wissenschaftsgesellschaft zu beschreiben wäre. Denn die neuen Formen des Handelns werden nicht durch irgendein Wissen ermöglicht, sondern durch ein spezifisches, durch Forschung und Lehre überliefertes wissenschaftliches Wissen, das gesellschaftlich allgemein wirksam wird, und zwar in höchst unterschiedlichen Bereichen. Um die Folgen dieses Prozesses insbesondere unter gesellschaftstheoretischen Perspektiven genauer benennen zu können, erscheint die angedeutete Dreifachbeschreibung als Dienstleistungs-, Wissenschafts- und Expertengesellschaft auch angemessener. Denn sie benennt die Dimensionen, in denen der zu beobachtende kognitive Strukturwandel eine gesellschaftlich prägende Rolle spielt und erlaubt notwendige Differenzierungen, die mit der Kategorie der Wissensgesellschaft allein kaum zureichend erfaßt werden können.

III

Weder bei Bell noch bei neueren Autoren wie Reich (1993) oder Castells (1996) wird die sich entfaltende Dienstleistungs-, Wissenschafts- und Expertengesellschaft als krisenhafte Angelegenheit oder gar als eine "Risikogesellschaft" beschrieben. Statt dessen herrscht ein fortschrittsortiertes Verständnis von sozialem Wandel vor - bei Bell explizit, bei Reich und Castells in etwas abgeschwächter Form. Zumindest bei Reich und Castells ist dies insofern irritierend, als sie ihre Argumentationen nach der Katastrophe von Tschernobyl entwickelten, die endgültig deutlich machte, daß der wissenschaftliche Fortschritt Risiken in sich birgt und sich in sein Gegenteil verkehren kann. Ungeachtet dessen begreifen Reich und Castells die beobachtbaren Veränderungen als einen Prozeß, der in letzter Instanz auf eine sukzessive Perfektionierung der Herrschaft über die innere und äußere Natur hinausläuft. Denn der unterstellte, wenngleich an keiner Stelle explizit zum Thema gemachte Fortschritt der Wissenschaft bedeutet auch in ihren Augen einen Zuwachs an Beherrschungswissen, Rationalität und Autonomie, wobei gegenläufige Entwicklungstendenzen nicht als systematisches Problem, sondern eher als vorübergehende Abbremsungen wahrgenommen wurden.

Diese seit der Aufklärung zunächst mühsam, aber dann nachhaltig eingeschliffene Überzeugung hat ehrwürdige Vorläufer. Ebenso wichtig wie einflußreich ist Francis Bacon (1561-1626), dessen Utopie Nova Atlantis (Bacon 1624) nach wie vor lesenswert ist. Als neues Atlantis stellte Bacon das Eiland Bensalem vor, eine fiktive Insel in pazifischen Gewässern, die alle sonst bekannten Länder an Reichtum und Friedfertigkeit übertraf. Ursache dieser Überlegenheit war das Wirken des "Haus Salomons", einer interdisziplinär organisierten Wissenschaftlergemeinschaft, die sich das Ziel gesetzt hatte, "die inneren Kräfte der Natur zu erforschen und die Grenzen der menschlichen Macht so weit auszudehnen, um alle möglichen Dinge zu bewirken" (Bacon 1982/1624, S. 43). Dies mit durchaus beeindruckenden Erfolgen. Denn mit ihren Erfindungen und Experimenten konnten die Mitglieder des Hauses Salomons die Natur schon fast nach Belieben verändern und verbessern. Sie verfügten sogar über eine Art Gentechnologie, und da sie die "Grenzen der menschlichen Macht" immer weiter ausdehnten, waren sie die eigentlichen Herren des Eilands.

An dieser Vision sind insbesondere zwei Punkte interessant: Bemerkenswert ist zunächst das explizit praktisch orientierte Wissenschaftskonzept Bacons. Wissenschaft war für ihn gleichbedeutend mit einer experimentellen Veränderung vor allem der äußeren Natur, deren Rechtfertigung allein in ihrem Erfolg, nämlich in der Verbesserung der Lebensverhältnisse auf Bensalem, begründet war. Als zweite Besonderheit fällt darüber hinaus die vollständige Ausblendung der Mißerfolge auf. Zwar war es keineswegs ausgeschlossen, daß das "Haus Salomons" Fehler machte. Aber diese drangen schon deshalb nicht an die Öffentlichkeit, weil nur die erfolgreichen experimentellen Veränderungen der Natur bekannt gegeben wurden, und die wiederum begeisterten die staunenden Laien, weil sie das Leben erleichterten und sicherer machten. Daß Bacon sich mit dem Problem des experimentellen Mißerfolgs nicht beschäftigte, kann man ihm kaum zum Vorwurf machen. Ihm ging es darum, die Chancen und Möglichkeiten einer verwissenschaftlichten Zivilisation zu demonstrieren, wie sie sich schon zweihundert Jahre zuvor mit den Künstlern, Ingenieuren und Alchemisten der Renaissance am Horizont andeutete. Die Künstler und Ingenieure der Renaissance hatten erstmals die alten Pfade der Scholastik in Frage gestellt und Neues auszuprobieren versucht. Ihre experimentell geprägte Suche nach einer neuen Welt und einem neuen Wissen war dabei eine ebenso innovative wie riskante Angelegenheit. Denn niemand konnte vorab wissen, was bei der Suche nach Neuem genau heraus kam. So passierte es gelegentlich, daß kühn konstruierte Gewölbe zusammenbrachen, Vorrichtungen versagten und Experimente in einer Explosion endeten.

Solche Fehlschläge waren zwar nicht unbedingt die Regel; sie ließen und lassen sich jedoch prinzipiell nicht ausschließen. Als mehr oder weniger systematisch geplante Versuche zur (Natur-) Erkenntnis, die auf angebbaren Erwartungen über gezielt herbeizuführende Effekte aufbauen, sind Experimente stets ein "gewagtes", weil unsicheres Unterfangen. Sie werden nach dem Motto "probieren, ob" durchgeführt, und selbst bei einer in allen Einzelheiten geplanten Versuchsanordnung ist ein Fehlschlag nicht völlig auszuschließen. So können die vorausgesetzten Erwartungen falsch sein und neben erwarteten können "unerwartete" Effekte auftreten. Hiermit zu rechnen, ist letztlich sogar ein Gütekriterium für Experimente. Denn diese sind nur dann sinnvoll bzw. erkenntniserweiternd, wenn man nicht absolut sicher sein kann, wie sie ausgehen werden. In genau diesem Sinne ist die für die Moderne charakteristische Verwissenschaftlichung der Erfahrung von Anfang an eine "Risikoverwissenschaftlichung", bei der bewußt Unsicherheiten eingegangen werden, um bislang unbekannte Zusammenhänge aufzudecken und spezifische Effekte zu erzeugen. Die Gefahren und Unsicherheiten dieser Versuche wurden freilich schon früh verdrängt. Bei Bacon geschah dies durch Ausblendung der Mißerfolge, bei anderen durch die Einbettung des Experimentierens in die systematische Suche nach Gesetzeswissen. So formulierte Isaac Newton (1643-1727) mit der Idee der "Naturgesetze" das Versprechen, die "unsicheren" Experimente auf eine "sichere" Grundlage zu stellen und ein potentiell abschließbares, "festes" Wissen zu liefern - eine Vision, die erheblich zur Durchsetzung des neuen Weltbildes beitrug und die Selbstwahrnehmung nicht nur der Wissenschaften zum Teil bis heute prägt. Denn selbst Kritiker des realexistierenden Wissenschaftsbetriebs gingen und gehen oft jetzt noch davon aus, daß der wissenschaftliche Fortschritt an sich keine Negativeffekte habe. Probleme und Defizite, so sie überhaupt gesehen werden, erscheinen eher den jeweiligen gesellschaftlichen Verhältnissen geschuldet zu sein, die für die wissenschaftliche Entwicklung günstig oder ungünstig sein können.

Diese Perzeption ist selbst für die Ende der fünfziger Jahre neu auftauchende Risikoforschung kennzeichnend. Entstanden im Kontext des Ausbaus der Atomtechnologie beschäftigte sich diese erstmals explizit mit Risikoabschätzungen (vgl. Rowe 1980), also mit der Frage, welche potentiellen Gefahren neue Technologien und Entscheidungen unter Unsicherheit in sich bergen. Hierbei orientierte man sich zunächst wie selbstverständlich an dem, was Charles Perrow (1984, S. 369f.) einmal als "absolute Rationalität" bezeichnet hat. Absolute Rationalität, wie sie nach Perrow vor allem bei Ingenieuren und Wirtschaftswissenschaftlern zu finden ist, verweist auf den Glauben an (wissenschaftliche) Eindeutigkeit, Lösbarkeit und Berechenbarkeit. Hiernach gibt es für alles eine optimal-eindeutige und/oder mehrere suboptimal-mehrdeutige Lösungen.

Zwar ist diese Unterstellung im konkreten Einzelfall oft unrealistisch oder gar kontrafaktisch. Aber sofern sie an die schrittweise Dechiffrierung der "Grundgesetze" von Natur und Gesellschaft glaubten, waren die Vertreter insbesondere des risk assessments der ersten Stunde davon überzeugt, durch den Fortschritt der Forschung und die Kumulation vorhandener Wissensbestände zu immer besseren Lösungen und präziseren Berechnungen zu gelangen. Dies schlug sich in Sätzen nieder wie denen, daß Kernkraftwerke langfristig sicherer werden, daß mehr Forschung weniger Unsicherheit bedeute und mehr Wissen zwangsläufig zu einer stetig steigenden Risikobeherrschung führe.

Sofern sich die wachsende Risikobeherrschung in der Praxis nicht so nachweisen ließ wie gedacht und die Auseinandersetzungen um die Kernkraft eskalierten, setzte sich allerdings bereits Ende der sechziger Jahre in der Risikoforschung ein abgeschwächtes Rationalitätsmodell durch.

Exemplarisch läßt sich dieses Modell an einem Aufsatz von Chauncey Starr mit dem Titel "How safe is safe enough?"(Starr 1969) studieren. Mit dieser Formulierung räumte Starr bereits ein, daß es unter den Bedingungen der Risikoverwissenschaftlichung keine absolute Sicherheit gibt; selbst bei größten Anstrengungen lassen sich nicht alle Unsicherheiten in Sicherheiten überführen. Aber daß im Prinzip alles berechenbar sei, stand für Starr gleichwohl außer Frage. Denn der Streit um die Kernenergie war für ihn weniger ein Problem der wissenschaftlichen Risikoanalyse, sondern ein solches der "public acceptance of any risk" (Starr 1987, S. 64). Die Akzeptanz, so seine These, müsse letztlich unabhängig von den Möglichkeiten der wissenschaftlichen Risikoanalyse gesehen werden. Sie hänge nicht vom wissenschaftlich Machbaren ab, sondern vom öffentlichen Vertrauen in das risk management, das aus politischen Gründen gestört sei. Genau deshalb blieb nicht nur Starr auch ein "Risikooptimist", der davon ausging, daß die wissenschaftliche Beherrschbarkeit und Eindeutigkeit der Welt trotz aller vorübergehenden politischen Einschränkungen im Prinzip zunimmt.

IV

Daß dieser Risikooptimismus aus systematischen Gründen unangebracht ist, hat nicht zuletzt die neuere Forschung über Entscheidungsstrategien unter Unsicherheit gezeigt. Instruktiv sind hier Dietrich Dörners Untersuchungen über die "Logik des Mißlingens" (Dörner 1989), die sich auf Experimente mit einem computerunterstützten Planspiel stützen, bei dem es darum ging, die Geschicke der Moros, eines fiktiven afrikanischen Stammes, über 20 Jahre zu steuern. Den typischen Verlauf dieser Simulation illustriert Dörner am Beispiel von zwei Probanden, einem Volkswirt und einem Physiker, die als Protagonisten absoluter Rationalitätskozepte gelten können. Zu Beginn des Experiments machen sich beide noch über gescheiterte, weil falsch geplante Verkehrsberuhigungen in bundesdeutschen Kleinstädten lustig, wobei der Unterton, daß sie es in jedem Falle besser, weil rationaler und reflektierter machen würden, nicht zu überhören war. Zwei Stunden später war ihnen das Lachen vergangen. Denn trotz bester Absichten und auf den ersten Blick vernünftiger Maßnahmen wie Bohren von Brunnen, Verbesserung des Gesundheitswesens etc. hatten sie nach 20 simulierten Jahren bei den Moros eine irreversible Hungerkatastrophe ausgelöst und das Gebiet weitgehend zugrundegerichtet, da unerwartete Interaktionen bzw. Interdependenzen zwischen den einzelnen Maßnahmen übersehen und nichtintendierte Nebenwirkungen nicht in Rechnung gestellt worden waren. Peinlicherweise fielen diese Defizite im Nachhinein auch noch leicht auf. Denn aus den Uneindeutigkeiten ex ante waren Eindeutigkeiten ex post geworden, so daß den beiden Probanden nur die Alternative blieb, entweder die eigene Intelligenz und Rationalitätswahrnehmung in Frage zu stellen oder den Anspruch, daß im Prinzip alles planbar und berechenbar sei.

Diesen Anspruch zu relativieren ist nicht einfach in einer verwissenschaftlichten Zivilisation, die durch die Idee einer wachsenden Naturbeherrschung und Gesellschaftssteuerung entscheidend geprägt ist. Entsprechende Akzentverschiebungen konnten sich letztlich auch erst nach Mißerfolgen der Verwissenschaftlichung durchsetzen, und hier kommt dem Tschernobyl-Schock ohne Frage eine besondere Bedeutung zu. Vor diesem Hintergrund wurde nicht nur die Unsicherheit und "Zerbrechlichkeit moderner Gesellschaften" (Stehr 2000) neu entdeckt. Es veränderte sich auch die Einschätzung des wissenschaftlichen Erkenntnisfortschritts, der, wie schon zuvor in der Wissenschaftstheorie, nun auch in der Gesellschaftstheorie ambivalenter erschien.

Ebenso früh wie folgenreich wurde dies in der Theorie der Risikogesellschaft (Beck 1986) zum Thema, die den Übergang zur Dienstleistungs-, Wissenschafts- und Expertengesellschaft als einen Strukturbruch in der Moderne interpretiert, der weiterführend als Übergang von der "einfachen" zur "reflexiven Modernisierung" beschrieben wird. Identifizieren läßt sich dieser Übergang vor allem an einem Strukturwandel der gesellschaftlichen Konfliktlinien, die nicht mehr dominant durch Reichtumsprobleme bestimmt werden. Denn über Rationalisierungs- und Verwissenschaftlichungsprozesse ist es (zumindest in der ersten Welt) gelungen, das für die industriegesellschaftliche Moderne typische Armutsproblem zu relativieren. Dafür tauchen mit der Beschleunigung des wissenschaftlich-technischen Fortschritts neuartige Risikoprobleme auf, die sich in schleichenden ökologischen Bedrohungen ebenso niederschlagen wie in manifesten Katastrophen.

Sofern derartige Risikoprobleme wissenschaftsinduziert sind und wissenschaftsabhängig entstehen, falsifizieren sie die seit der Aufklärung eingeschliffenen Annahmen eines linearen wissenschaftlichen Fortschritts zunehmend. Statt dessen ist von einer spezifischen "Dialektik der Verwissenschaftlichung" auszugehen, die als zeitgenössische Reformulierung und Weiterführung der "Dialektik der Aufklärung" gelesen werden kann. Mit der Rede von der "Dialektik der Verwissenschaftlichung" ist dabei zweierlei gemeint: (1) Zunächst einmal, daß die unbestreitbaren Verwissenschaftlichungsprozesse ungeachtet aller Informationsexplosionen keineswegs auf einen kumulativen Wissenszuwachs und eine wachsende Berechenbarkeit der Welt hinauslaufen. Wie die ökologische Selbstgefährdung der Menschheit in der Folge wissenschaftlich-technischer Großprojekte zeigt, können Verwissenschaftlichungsprozesse vielmehr in ihr Gegenteil umschlagen und potentiell destruktiv werden. (2) Zum anderen ist festzuhalten, daß die Wissenschaft als zentrales Medium der Entzauberung im Zuge ihrer Durchsetzung selbst entzaubert wird; gerade weil sie in allen ihren Spielarten kein eindeutiges und definitiv sicheres Wissen produziert, verliert sie ihren unabweisbaren Überlegenheitsanspruch und wird zu einem Wissensmuster unter anderen. Der erste Punkt, nämlich die Enttäuschung des Berechenbarkeitsglaubens und dieErfahrung der potentiellen Destruktivität wissenschaftsinduzierter Umgestaltungen wird in der Theorie der Risikogesellschaft zumeist unter dem Stichwort der "Nebenfolgen" diskutiert. Daß jede wissenschaftlich-technische Innovation neben intendierten Zielen auch nicht-intendierte Folgen hat, ist an sich nicht neu, wie überhaupt jedes Handeln intendierte und nicht-intendierte Konsequenzen aufweist. Unter den Bedingungen einer nicht nur programmatisch, sondern real verwissenschaftlichten Zivilisation steigt die Möglichkeit unerwarteter Folgeprobleme, Nebenwirkungen und Unsicherheiten jedoch erheblich, und es verschiebt sich das Verhältnis zwischen intendierten und nicht-intendierten Momenten. Wurde früher davon ausgegangen, daß Nebenfolgen durch mehr Forschung und komplexere Modelle langfristig stets in den Griff zu bekommen sind, so ist dies heute nicht mehr unbedingt der Fall. Sofern die Bearbeitung der Nebenfolgen oft aufwendiger wird als die Forschungen zu den intendierten Folgen, stellt sich vielmehr die Frage, ob die Kosten der Verwissenschaftlichung ihren Nutzen nicht zum Teil übersteigen. Denn die Realisierung der intendierten Effekte und Handlungsmöglichkeiten scheint stets mit der gleichzeitigen Erzeugung von Bedrohungspotentialen erkauft werden, die ungewollt und oft schwer einzuschätzen sind, da sie zunächst meist unsichtbar, umstritten und als Potentiale überdies kaum eindeutig faßbar sind.

Aus der Nebenfolgenproblematik läßt sich allerdings kaum der Schluß ziehen, daß die aktuell beobachtbare Risikoverwissenschaftlichung mit immer mehr Unsicherheiten verknüpft sei. Eine solche These wäre ebenso falsch wie der alte Wissenschaftsoptimismus, der den Fortschritt der Forschung mit linearem Erkenntnis- und Sicherheitsgewinnen gleichsetzte. Statt die Behauptung linearer Sicherheitsgewinnne durch die umgekehrte These linearer Unsicherheitszuwächse zu ersetzen, ist vielmehr von einer neuartigen Gemengelage von Sicherheit und Unsicherheit auszugehen, die um so problematischer ist, als die durch Wissenschaft und Technik ermöglichte Eingriffstiefe in natürliche und soziale Prozesse zunimmt und eine zeitliche, soziale und bzw. oder sachliche Entgrenzung potentieller Schäden droht.

In Reaktion hierauf haben sich die Anforderungen an die Fehlerfreiheit erheblich verschärft. Denn wie sich insbesondere an Hochrisikotechnologien studieren läßt, sind Fehler aufgrund der oft unkalkulierbaren Schadenspotentiale immer weniger akzeptabel. Umgekehrt gilt aber auch, daß aufgrund der Komplexität der Systeme die Fehlermöglichkeiten steigen (Perrow 1984). Je mehr Komponenten, Elemente und Prozesse beteiligt sind, desto mehr falsche Verknüpfungen, nichtintendierte Interaktionen und Ausfälle können auftreten - ein Problem, das sich besonders deutlich in der Softwareentwicklung studieren läßt. So können Programme, die über Jahre entwickelt werden und an denen Hunderte von Personen beteiligt waren, weder fehlerfrei sein noch fehlerfrei gemacht werden, und manchmal hilft auch nur eine radikale Veränderung der Systemarchitektur unter der Perspektive der "Fehlerfreundlichkeit" (Weizsäcker & Weizsäcker 1984). Sofern das Bemühen um wachsende Fehlerfreiheit selbst wieder Nebenfolgen erzeugt, entsteht ein kaum lösbares Problem, das auf Grenzen der Risikobewältigung ebenso verweist wie auf eine doppelte Riskanz des wissenschaftlich-technischen Fortschritts: Zum einen wird Wissenschaft zum Risiko, wenn die wissenschaftsinduzierten Schadenspotentiale den Nutzen übersteigen; zum anderen wird Wissenschaft aber auch riskant, wenn sie im Sinne "absoluter Rationalität" daran festhält, alles berechnen und somit in letzter Instanz vollständige Sicherheit realisieren zu können. Denn genau das ist nicht möglich, und zur Risikovermeidung gehört es deshalb auch, die mit dem jeweiligen Vorgehen verknüpften Unsicherheiten von vornherein zu betonen und zu berücksichtigen.

Die Dialektik der Verwissenschaftlichung betrifft aber nicht nur die Enttäuschung des Berechenbarkeitsglaubens. Mindestens ebenso wichtig ist der zweite Aspekt, nämlich die Entzauberung der Experten und die Einsicht, daß wissenschaftliches Wissen nicht unbedingt auf ein überlegenes, sondern auf ein per definitionem unsicheres Wissen verweist. Diese sicherlich nicht intendierte Entwicklung ist in der Dynamik der Verwissenschaftlichung selbst angelegt. In dem Maße wie die gesellschaftlichen Diskurse mit wissenschaftlichen Begriffen und Begründungsfiguren überformt und durchsetzt werden, setzen sich zwar veränderte Wirklichkeitswahrnehmungen durch. Aber die Umstellung auf wissenschaftliche Argumentationsmuster läuft keineswegs auf eine lineare Steigerung ihrer Definitionsmacht und Eindeutigkeit hinaus. Sofern ihr Status als gesellschaftliches Sonderwissen verloren geht, ist vielmehr eine Art von "Vernutzung" der Wissenschaft zu beobachten, und zwar in kognitiver wie in sozialer Hinsicht.

Wenn jede gesellschaftlich relevante Gruppe von Parteien über Verbände bis hin zu Bürgerinitiativen über eigene "Hauswissenschaftler" verfügen, die anlaß- und interessenbezogen produzieren und sich öffentlich bis hin in Talk-Shows streiten, dann haben wissenschaftliche Argumentationen nur noch begrenzt jene Exklusivität, wie sie in Gestalt akademischer Einrichtungen früher auch institutionell repräsentiert waren. Zugleich wird deutlich, daß wissenschaftliche Argumentationen nicht eindeutig und unbestreitbar sind, sondern vorläufig und bedingt. Zu jeder Expertise gibt es eine Gegenexpertise, und diese Erfahrung trägt nicht unbedingt zu einer Erhöhung der Autorität und Glaubwürdigkeit der Experten bei, sondern zu einem wachsenden Skeptizismus.

Dieser sollte freilich nicht mit einer wachsenden "Anti-Science-Haltung" verwechselt werden. Im Gegenteil: Die Tatsache, daß wissenschaftliche Aussagen nicht mehr sakrosankt sind, sondern alltagsweltlich bestritten werden können, bedeutet nichts anderes, als daß der systematische Zweifel als strukturtragendes Prinzip des wissenschaftlichen Diskurses kein Privileg desselben mehr ist. Oder anders ausgedrückt: Je mehr der systematische Zweifel die Grenzen des Wissenschaftssystems überschreitet, desto stärker schwindet die Differenz zwischen Laien und Experten und verwandelt sich in eine Konkurrenz unterschiedlicher Experten, die zwangsläufig an Autorität einbüßen. Denn sie verkünden keine unumstößliche Wahrheiten ex cathedra, sondern im günstigsten Falle methodisch kontrollierte und dementsprechend überprüfbare Aussagen, die, wie andere Urteile auch, durch Wertebeziehungen bestimmt sind und auch unter diesem Gesichtspunkt bezweifelt werden können.

V

Die Veränderung der Wissensstrukturen im Übergang zur Dienstleistungs-, Wissenschafts- und Expertengesellschaft hat höchst paradoxe Folgen. Auf der einen Seite zeichnen sich die Gesellschaften an der Schwelle vom 20. zum 21. Jahrhundert durch eine wachsende und in mancher Hinsicht irreversible Wissenschaftsabhängigkeit aus. Sie sind soziale Formationen, für deren Entwicklung und Integration der Rekurs auf wissenschaftliches Wissen (im Unterschied zu Glaubensgewißheiten) von entscheidender Bedeutung ist. Auf der anderen Seite steigt hierdurch zugleich die Kontingenz, Unsicherheit und potentielle Selbstgefährdung der Gesellschaft. So wird mit der fortschreitenden Verwissenschaftlichung deutlich, daß die Umstellung auf wissenschaftliche Deutungsmuster keineswegs zu dem erhofften Mehr an Eindeutigkeit, Sicherheit und Rationalität führt; statt dessen zeichnet sich eine "Rückkehr der Unsicherheit in die Gesellschaft" (Stehr 2000, S. 299ff.) ab, da immer weniger Fragen innerhalb der gesellschaftlichen Diskurse als Ordnungsprobleme behandelt werden können, sondern als Risikoprobleme behandelt werden müssen.

Entgegen den Hoffnungen der Aufklärung ist dieser Strukturwandel auch nicht durch mehr Wissen zu lösen. Die alte Formel "mehr Wissen = mehr Vernunft = mehr Beherrschbarkeit der inneren und äußeren Natur" steht vielmehr selbst in Frage. Zugleich rücken andere Probleme und Konzeptionen in den Vordergrund, nämlich das "unsichere Wissen", das "nicht-wissenschaftliche Wissen" und das "Nicht-Wissen". In der Wahrnehmung der ersten Moderne gelten alle drei Phänomene als defizitär, und es wird alles daran gesetzt, sie zu überwinden. So erscheint das Nicht-Wissen als Noch-Nicht-Wissen, das unsichere Wissen als noch nicht sicheres Wissen und das nicht-wissenschaftliche Wissen als noch nicht verwissenschaftlichtes Wissen. Unter den Bedingungen der modernisierten Moderne ist eine solche Perzeption kaum länger angemessen. Denn abgesehen davon, daß sie gar nicht überwunden werden können, stellen unsicheres, unwissenschaftliches und Nicht-Wissen nicht unbedingt eine Bedrohung dar, sondern sind eher als Ressource zu begreifen.

Zur Ressource können sie insofern werden, als die drei Muster auf unterschiedliche Probleme der Verwissenschaftlichung reagieren und für alternative Formen gesellschaftlicher Entscheidungsfindung tauglich sind. So ist es in einem Feld, in dem es kein sicheres, eindeutiges Wissen gibt, höchst sinnvoll, eine Logik des unsicheren Wissens und der Fehlerfreundlichkeit zu erarbeiten. Dort wiederum, wo das wissenschaftlich-eindeutige Wissen und die Berechnung keine Lösung bringen, kann das nicht-wissenschaftliche Wissen in Gestalt künstlerischer Kompetenzen weiter helfen. Aber auch das Nicht-Wissen erlangt einen veränderten Stellenwert. Es läßt sich nicht mehr in jedem Fall als Defizit interpretieren, und an Beispielen wie der pränatalen Diagnostik und dem genetischen Screening wird umgekehrt bereits das Recht auf Nicht-Wissen diskutiert, Denn gerade in einer verwissenschaftlichten Gesellschaft darf nicht der Zwang entstehen, alles wissen zu müssen, was man instrumentell wissen und damit kontrollieren kann. Es muß vielmehr legitime Sphären des Nicht-Wissens geben, und deren Herausarbeitung dürfte in Zukunft stärker als bislang zum Regulativ der Wissensentwicklung werden.

Die Anerkenung von unsicherem Wissen, nicht-wissenschaftlichem Wissen und Nicht-Wissen bedeutet keineswegs eine Absage an die Wissens- bzw. Wissenschaftsabhängigkeit modernisiert-moderner Gesellschaften. Dies um so weniger, als sich der seit Weber als Entzauberung und Rationalisierung beschriebene Strukturwandel des Wissens auch gar nicht rückgängig machen läßt. Statt dessen geht es darum, die Folgeprobleme zu handhaben, oder wie Anthony Giddens es ausdrückt: "to ride the tiger". Dies ist ohne Frage selbst ein riskantes Unterfangen, zumal sich der Tiger nicht in eine Hauskatze verwandeln läßt. Aber in einer kontingenzorientierten Gesellschaft, in der Unsicherheit und Offenheit ein entscheidendes Strukturmerkmal sind, gibt es keine risikofreien Optionen. Denkbar und hilfreich ist allerdings eine Risikosensibilität, die auch auf Wissenschaft selbst anzuwenden ist. Denn Wissenschaft ist selbst riskant, und zwar sowohl unter der Perspektive der ihr eigenen Unsicherheitspotentiale als auch unter dem Gesichtspunkt ihrer instrumentellen Herrschaftsansprüche. In beiden Dimensionen ist risk assessment als Daueraufgabe notwendig, um so die Möglichkeiten und Gestaltungspotentiale der Wissenschaft zu bewahren.

Literatur

  • Adorno, Theodor W. (Hrsg.) (1969): Spätkapitalismus oder Industriegesellschaft? Verhandlungen des 16. Deutschen Soziologentages, Stuttgart: Enke
  • Bacon, Francis (1982, zuerst erschienen 1624): Neu-Atlantis, Stuttgart: Reclam
  • Barnes, Barry (1995): The Elements of Social Theory, Princeton: University Press
  • Beck, Ulrich (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne, Frankfurt/M.: Suhrkamp
  • Bell, Daniel (1973): The Coming of Post-Industrial Society. A Venture in Social Forecasting, New York: Basic Books
  • Brockhaus (2002): Der Brockhaus in Text und Bild. Edition 2002 (CD-Fassung für PC-Bibliothek), Mannheim: Bibliographischer Verlag
  • Bühl, Achim (1996): CyberSociety. Mythos und Realität der Informationsgesellschaft, Köln: PapyRossa
  • Bühl, Walter L. (1994): Wissenschaft und Technologie. An der Schwelle zur Informationsgesellschaft, Göttingen: Schwartz
  • Bundesministerium für Bildung und Forschung (1997): Innovationen für die Wissensgesellschaft. Förderprogramm Informationstechnik, Bonn: Bundesdruckerei
  • Castells, Manuel (1996): The Rise of the Network Society, Malden/Oxford: Blackwell
  • Dörner, Dietrich (1989): Die Logik des Mißlingens, Reinbek: Rowohlt
  • Drucker, Peter F. (1968): The Age of Discontinuity. Guidelines to our Changing Society, New York: Harper Row
  • Drucker, Peter F. (1994): The Age of Social Transformation. The Atlantic Monthly, 11/94, S. 1-37
  • Etzioni, Amitai (1997): Die Verantwortungsgesellschaft. Individualismus und Moral in der heutigen Demokratie. Frankfurt/New York: Campus
  • Gross, Peter (1994): Die Multioptionsgesellschaft, Frankfurt: Suhrkamp
  • Häußermann, Hartmut/Siebel, Walter (1995): Dienstleistungsgesellschaften, Frankfurt/M.: Suhrkamp
  • Heidenreich, Martin (2000): Die Debatte um die Wissensgesellschaft, Bamberg: Internet-Manuskript [http://www.uni-bamberg.de/sowi/europastudien/erlangen.htm]
  • Horkheimer, Max/Adorno, Theodor W. (1969, zuerst erschienen 1947): Dialektik der Aufklärung, Frankfurt: Fischer
  • Hubig, Christoph (2000): Unterwegs zur Wissensgesellschaft. Grundlagen - Trends - Probleme, Berlin: edition sigma
  • Kreibich, Rolf (1986): Wissenschaftsgesellschaft. Von Galilei zur High-Tech-Revolution, Frankfurt/M.: Suhrkamp
  • Lane, Robert E. (1966): The decline of politics and ideology in a knowledgeable society, in: American Sociological Review, 31, S. 649-662
  • Maasen, Sabine (1999): Wissenssoziologie, Bielefeld: transcript verlag
  • Matthes, Joachim (Hrsg.) (1983): Krise der Arbeitsgesellschaft? Verhandlungen des 21. Deutschen Soziologentages in Bamberg 1982, Frankfurt/New York: Campus
  • Meyers (2001): Meyers großes Taschenlexikon (CD-Fassung für PC-Bibliothek), Mannheim: Bibliographischer Verlag
  • Miegel, Meinhard (2001): Die deformierte Gesellschaft. Wie die Deutschen ihre Wirklichkeit verdrängen, Berlin: Propyläen
  • Perrow, Charles (1987, engl. Erstausgabe 1984): Normale Katastrophen. Die unvermeidbaren Risiken der Großtechnik, Frankfurt a.M.: Campus
  • Reich, Robert B. (1993): Die neue Weltwirtschaft. Das Ende der nationalen Ökonomien, Berlin: Ullstein
  • Rowe, William D. (1980): Ansätze und Methoden der Risikoforschung, in: Conrad, J. (Hrsg.), Gesellschaft, Technik und Risikopolitik, Berlin/Heidelberg/New York: Springer 1983, S. 14-42
  • Schelsky, Helmut (1965): Der Mensch in der wissenschaftlichen Zivilisation, in: ders.: Auf der Suche nach Wirklichkeit. Gesammelte Aufsätze, Düsseldorf/Köln: Diederichs, S. 439-480
  • Schulze, Gerhard (1992): Die Erlebnisgesellschaft, Frankfurt: Campus
  • Starr, Chauncey (1969): Social Benefit versus Technological Risk. What is our society willing to pay for safety?, in: Science, 165, S. 1232-1238
  • Starr, Chauncey (1987): Risk management, assessment and risk acceptability, in: V. T. Covello et al. (Hrsg.), Uncertainty in Risk Assessment, Risk Management and Decision Making, New York: Plenum Press, S. 63-70
  • Stehr, Nico (1994): Arbeit, Eigentum und Wissen. Zur Theorie von Wissensgesellschaften, Frankfurt/M.: Suhrkamp
  • Stehr, Nico. (2000): Die Zerbrechlichkeit moderner Gesellschaften, Weilerswist: Velbrück
  • Teufel, Erwin (Hrsg.) (2001): Von der Risikogesellschaft zur Chancengesellschaft, Frankfurt/M.: Suhrkamp
  • Toffler, Alvin (1987): Die dritte Welle, München: dtv
  • Weizsäcker, Christine von/Weizsäcker, Ernst-Ulrich von (1984): Fehlerfreundlichkeit, in: Kornwachs, K. (Hrsg.): Offenheit, Zeitlichkeit, Komplexität: Zur Theorie der offenen Systeme, Frankfurt/M.: Campus

Wolfgang Bonß: Riskantes Wissen?
Zur Rolle der Wissenschaft in der Risikogesellschaft
Beitrag zum Kongress "Gut zu Wissen", Heinrich-Böll-Stiftung, aus: Heinrich-Böll-Stiftung(Hg.): Gut zu Wissen, Westfälisches Dampfboot 2002


NACH OBEN # ZURÜCK # TEXT ALS PDF-DATEI


WWW.WISSENSGESELLSCHAFT.ORG # HEINRICH-BÖLL-STIFTUNG # 2001