§ 14 Soziologie als empirische Wissenschaft

Literatur: Norman Braun, Theorie in der Soziologie, Soziale Welt 59, 2008, 373-395; Albert, Traktat über kritische Vernunft, 2. Aufl. 1969; Esser/Klenovits/Zehnpfennig, Wissenschaftstheorie, 2 Bde., 1977; Habermas, Zur Logik der Sozialwissenschaften, 5. Aufl. 1982; Herberger/Simon, Wissenschaftstheorie für Juristen, 1980; Popper, Logik der Forschung, 8. Aufl. 1984; Röhl, Das Dilemma der Rechtstatsachenforschung, 1974; Seiffert, Einführung in die Wissenschaftstheorie, 2 Bde., 7. Aufl. 1974; Stegmüller, Wissenschaftliche Erklärung und Begründung, Bd. I, 1974; ders., Hauptströmungen der Gegenwartsphilosophie, 2 Bde., 1975; Topitsch (Hg.), Logik der Sozialwissenschaften, 7. Aufl. 1971

I.  Was ist Wissenschaft?

Rechtswissenschaft und Soziologie behandeln denselben Gegenstand. Sie befassen sich beide mit den zwischenmenschlichen Beziehungen, wie sie zu einem wesentlichen Teil vom Recht bestimmt werden. Daher stellt sich sofort die Frage, was Soziologen anders und besser leisten können als Juristen und umgekehrt. Es geht dabei offensichtlich um ein wissenschaftstheoretisches Problem, darum, dass beide Disziplinen den gleichen Stoff mit unterschiedlichen Methoden angehen. Um diesen Gegensatz zu kennzeichnen, spricht man von der Soziologie als einer empirischen und der Jurisprudenz als einer normativen Wissenschaft. Was soll damit gesagt werden?

Es ist nicht ausgemacht, sondern im Gegenteil heftig umstritten, dass die Soziologie (nur) eine empirische Wissenschaft zu sein hätte. Tatsächlich ist die Soziologie aber als empirische Wissenschaft angetreten und tatsächlich wird sie weitgehend als solche betrieben. Auch die Rechtssoziologie ist von Eugen Ehrlich als empirische Wissenschaft konzipiert worden. Wenn wir uns das Vorwort zu Ehrlichs Rechtssoziologie (§ 6) in Erinnerung rufen, so besagt es dreierlei:

  •  Ehrlich bestreitet der Rechtswissenschaft die Wissenschaftlichkeit.
  • Er behauptet, dass nur die Rechtssoziologie wissenschaftlich sei.
  • Er gibt an, worin die Wissenschaftlichkeit der Rechtssoziologie bestehen soll, nämlich in der Beobachtung der Gesellschaft.

Was ist eigentlich Wissenschaft? Unter Wissenschaft versteht man gewöhnlich die Suche nach Wahrheit und Objektivität. Auf die Frage nach der Wahrheit gibt es anscheinend keine endgültige Antwort. Man ist sich daher heute weitgehend darüber einig, dass es auch für die Frage: Was ist Wissenschaft? keine verbindliche Lösung geben kann. Als wissenschaftlich lässt man entweder jede planmäßige, methodisch angeleitete Suche nach Erkenntnis gelten, oder man sieht auf die historische Entwicklung und rechnet zur Wissenschaft alles, was in Vergangenheit und Gegenwart als solche anerkannt worden ist, wenn man nicht sogar so weit geht, es jeder Disziplin selbst zu überlassen, ob sie sich als Wissenschaft ausgeben will oder nicht. Als Wissenschaft gelten daher heute so heterogene Disziplinen wie Mathematik und Theologie, Physik und Jurisprudenz, Soziologie und Philosophie, Ingenieurwissenschaften und Kunst. Wenn aber die Rechtssoziologie polemisch gegen die Jurisprudenz gestellt wird, ähnlich wie früher Comte die Soziologie gegen die Sozialphilosophie stellte, dann meint man offenbar einen engeren, nämlich den positivistischen Wissenschaftsbegriff. Dieser engere Wissenschaftsbegriff ist der Wissenschaftsbegriff der Naturwissenschaften. Er will nur Beobachtung und Logik als Elemente der Wissenschaft gelten lassen, die in ihrer Verknüpfung zu Theorien im Sinne von Kausalgesetzen führen sollen.

Die Soziologie steckt voller Theorien, die am Schreibtisch ersonnen und erarbeitet werden. Denkt man an das Werk von Émile Durkheim, Max Weber oder Niklas Luhmann, so hat man leicht den Eindruck einer theoretischen Vogelperspektive ohne Erdung in der Empirie. Und tatsächlich lassen sich ihre großen Theorien nicht durch exakte Hypothesentests beweisen oder widerlegen. Dennoch sind sie in dem Sinne empirisch gemeint, dass sie den Anspruch erheben, die Rechtsentwicklung angemessen zu beschreiben und zu erklären. Zwar halten sich »Theoretiker«, die Erwägungen darüber anstellen, wie man den Zustand und die Entwicklung der Gesellschaft grundsätzlich beschreiben und erklären kann, im allgemeinen von empirischen Untersuchungen fern. Umgekehrt benutzen »Empiriker« oft nur rudimentäre Theorien. Das liegt einerseits natürlich daran, dass die Theorien der Theoretiker auf einem so hohen Abstraktionsniveau angesiedelt sind, dass sie sich nur schwer für eine konkrete Hypothesenprüfung öffnen. Das liegt aber auch an einem zu engen Empiriebegriff. Empirie beschränkt sich nicht auf das Zählen und Messen. Auch die Geschichte liefert Erfahrungsmaterial. Max Weber war ein Meister der historischen Soziologie.

II.   Grundannahmen des Positivismus

Die Hauptthese des Positivismus oder Empirismus besagt, dass echtes Wissen über die Welt nicht durch reines Nachdenken, durch die Vernunft, sondern nur durch Erfahrung gewonnen werden kann. Allein in der Erfahrung, also in dem, was uns unsere Sinnesorgane vermitteln, besitzen wir einen Zugang zur Welt. Daher ist nach empiristischer Auffassung nur ein solcher Satz sinnvoll, der unmittelbar Aussagen enthält oder sich auf Aussagen zurückführen lässt, die durch Beobachtung, durch Sehen, Fühlen, Hören, Schmecken oder Riechen nachprüfbar sind. Alle anderen Aussagen werden in den Bereich der Spekulation oder Metaphysik – gemeint ist damit: in den Bereich der Unwissenschaftlichkeit – verdammt.

Allerdings soll es für dieses empiristische Sinnkriterium nicht darauf ankommen, ob die Beobachtung schwierig oder aus praktischen Gründen überhaupt ausgeschlossen ist. Das Paradebeispiel für eine praktisch nicht prüfbare und dennoch sinnvolle Behauptung war früher etwa: Auf der Rückseite des Mondes befindet sich ein Berg von 3000 Meter Höhe. Inzwischen ist auch diese Behauptung beobachtbar geworden. Wir müssen daher zu Beispielen Zuflucht nehmen wie diesem: Was hat Plato an seinem 50. Geburtstag zu Mittag gegessen? Sinnlos, weil nicht beobachtbar, wäre dagegen nach empiristischer Auffassung etwa die Behauptung: Plato ist ein großer Philosoph.

Der Empirismus steht und fällt mit der Annahme, dass unsere Sinnesbeobachtungen etwas Festes, Wahres, Reales sind, und vor allem, dass jeder Mensch die gleichen Beobachtungen macht, dass die Ergebnisse menschlicher Beobachtungen stets die gleichen sind. Diese Annahme wird auch als Invarianzthese bezeichnet, und hier setzt die Kritik am Empirismus ein.

Die zweite Grundannahme des Empirismus geht dahin, dass die Natur voller Gesetzmäßigkeiten steckt, die unabhängig sind von der Erkenntnistätigkeit des Menschen, dass also etwa das Kausalgesetz etwas Reales sei, das es nur zu erkennen gelte. Da es Naturgesetze gibt, wiederholen sich die beobachtbaren Natur­erscheinungen. Und da man Naturerscheinungen objektiv beobachten kann, kann man auch deren Gleichartigkeit feststellen. Wenn man aber mehrere gleichartige Naturerscheinungen beobachtet hat, kann man daraus induktiv auf das zugrundeliegende Gesetz schließen. Also: Galilei ließ Steine verschiedener Größe vom Schiefen Turm zu Pisa fallen. Sie erreichten unabhängig von Gewicht und Größe gleichzeitig den Boden. Daraus erschloss er das Fallgesetz.

Verschiedene besondere Gesetze können dann zu allgemeineren Gesetzen zusammengefasst werden. Als klassisches Beispiel für einen derartigen Vorgang wird immer wieder die Entwicklung der Newtonschen Gravitationstheorie angeführt. Man sagt von ihr, sie sei eine Synthese der Gesetze Keplers und Galileis. Kepler hat bekanntlich generelle Gesetze über die Umlaufbahnen der Planeten aufgestellt. Die Entdeckungen Galileis befassen sich dagegen mit den Bewegungen irdischer Körper. Beide Gesetze beziehen sich auf beobachtbare Vorgänge aus verschiedenen Realitätsbereichen, zwischen denen man zunächst keinen Zusammenhang sah. Dies änderte sich erst, als Newton die Idee der Anziehungskräfte einführte und mit diesem neuen theoretischen Prinzip eine gemeinsame Erklärungsgrundlage für die Anwendungsfälle der Gesetze Keplers und Galileis schuf. Er konnte nämlich zeigen, dass sowohl die Planetenbewegungen als auch die Bewegungen irdischer Körper aus der Wirksamkeit der gleichen Anziehungskräfte erklärbar sind. Auf diese Weise – so lautet die Ansicht vieler empiristischer Wissenschaftstheoretiker – wurde es möglich, die Keplerschen und Galileischen Gesetze in unveränderter Gestalt innerhalb eines umfassenden theoretischen Rahmens zu vereinigen. Trotz des neuen Erklärungsprinzips, das hierzu notwendig war, hat sich nichts an dem ursprünglichen Aussagesinn der Gesetze geändert. Die Bedeutung der beobachtungssprachlichen Begriffe und Aussagen ist dieselbe geblieben, wie sie ursprünglich war.

III.  Deduktiv-nomologische Erklärungen

Wenn man induktiv einmal ein allgemeines Gesetz gewonnen hat, dann kann man den Vorgang auch umkehren und aus dem allgemeinen Gesetz deduzieren, was sich im besonderen Falle ereignet. Man kann – und das ist wohl das eigentliche Ziel der empirischen Wissenschaft – einzelne Beobachtungen mit Hilfe von Gesetzen erklären. Solche Erklärungen nennt man daher auch deduktiv-nomologische, kurz DN-Erklärungen. Sie werden gewöhnlich mit Hilfe des sogenannten Hempel-Oppenheim-Schemas dargestellt, kurz auch HO-Schema genannt. Hempel und Oppenheim waren die Autoren, die dieses Schema erstmals klar beschrieben haben.[1]

Es geht also um die Erklärung von Beobachtungen, und zwar von Einzelbeobachtungen, wie sie in sogenannten Protokoll- oder Basissätzen beschrieben werden. Die Frage lautet etwa: Warum kann man an einem bestimmten Ort zu einer bestimmten Zeit eine bestimmte Erscheinung beobachten? Als Antwort wird ein Kausalgesetz angeboten, d. h. es werden eine oder mehrere Ursachen angegeben, mit deren Hilfe das beobachtete Ereignis erklärt werden soll.

Als erster hat Anfang der 30er Jahre Karl R. Popper die logische Struktur kausaler Erklärungen klar beschrieben. Er sagt nämlich, dass eine kausale Erklärung nichts anderes als eine logische Ableitung sei. Dazu folgendes Beispiel: Es soll erklärt werden, warum ein Fußgänger von einem Auto angefahren wurde. Die Erklärung lautet, dass der Autofahrer im Hinblick auf die gefahrene Geschwindigkeit nicht früh genug gebremst hat. Eine genauere Analyse dieses Erklärungsvorschlags ergibt, dass darin zwei Typen von Komponenten stecken, nämlich (1) Gesetzmäßigkeiten und (2) gewisse Anfangsbedingungen, die wir durch singuläre Sätze beschreiben. Das benötigte Gesetz kann etwa so formuliert werden:

  • Für jedes Auto von einer gegebenen Bauart B, die bestimmt wird durch Art und Zustand der Bremsen, Reifen usw. besteht bei gegebenen Fahrbahnverhältnissen F, die insbesondere bestimmt werden durch den Fahrbahnbelag, Temperatur und Feuchtigkeit, eine maximale Bremsverzögerung b.
  •  Aus der Bremsverzögerung und der Ausgangsgeschwindigkeit lässt sich der Bremsweg s errechnen nach der Formel s = v2 : 2b.
  • Für jedes Auto der speziellen Bauart B1 unter Berücksichtigung der besonderen Fahrbahnverhältnisse F1 ist die höchste Bremsverzögerung b =
  • Die Anfangsbedingungen können durch folgende Aussagen beschrieben werden:
  • Dies ist ein Auto vom Typ B1, das sich auf einer Fahrbahn mit der Beschaffenheit F1 bewegte.
  • 40 m vor dem Fußgänger betrug die Geschwindigkeit des Autos mehr als 120 km/h (= xx m/sec).
  • S = [Hier fehlt die Gleichung, weil das programm die Formatierung nicht übernimmt.]
  • Aus diesen vier Prämissen ist der Satz, der den zu erklärenden Vorgang beschreibt, deduzierbar, nämlich der Satz
  • Der Fußgänger F wurde von dem Auto Angefahren.

Anderes Beispiel: Es soll erklärt werden, warum ein Mann, nachdem er Alkohol getrunken hat, gestorben ist. Die Erklärung lautet, dass eine Blutalkoholkonzentration von mehr als 5·‰ meistens tödlich ist, und dass im Blut des Toten mehr als 5·‰ Alkohol ermittelt wurden.

  • Für einen gesunden Menschen ist eine Blutalkoholkonzentration von über 5·‰ in der Regel tödlich.
  • Die Anfangsbedingungen werden durch folgende Aussagen beschrieben:
  • M1 war ein gesunder Mensch.
  • Die Blutalkoholkonzentration bei M1 betrug 5·‰. Aus diesen Prämissen ist der Satz, der den zu erklärenden Vorgang beschreibt, deduzierbar, nämlich der Satz:
  • M1 ist gestorben.

Abstrakt lässt sich dieses Erklärungsschema so formulieren:

  • G1…….G1 (Gesetzmäßigkeiten: Wenn X gegeben ist, dann tritt y auf).
  •  A1…….An (Antecedensbedingungen, Randbedingungen)

(1) und (2) bilden zusammen das Explanans = das Erklärende.

  • E (Explanandum = Beschreibung des zu erklärenden Ereignisses)

Will man ein bestimmtes Ereignis erklären, sucht man nach dem Gesetz, unter dessen Dann-Komponente das zu erklärende Ereignis fällt. Wenn die Bedingungen, die dieses Gesetz in seinem Wenn-Teil generell nennt, an einem bestimmten Ort und zu einer bestimmten Zeit vorliegen, dann ist eine Ursache für das Auftreten von E gefunden. Im Zusammenhang empirischer Untersuchungen bildet das Explanandum eine Ausprägung der abhängigen Variablen, während die Randbedingungen unabhängige Variable genannt werden.

Unsere Beispiele zeigen aber auch schon, dass solche Erklärungen immer nur sehr partiell sind. Tatsächlich erklärt eine Theorie niemals ein Ereignis in seiner Totalität, sondern stets nur gewisse Aspekte, die uns aus irgendeinem praktischen Grunde problematisch erscheinen. So erfahren wir z. B. nicht, warum M1 getrunken hat, sondern nur, dass der Alkohol die unmittelbare Todesursache war.

IV.   Induktion und Falsifizierung

Gültig sind Schlüsse nach dem HO-Schema natürlich nur, wenn die verwandte Theorie auch zutreffend und die Randbedingungen ebenso wie das Explanandum richtig beobachtet sind.

Gesetze oder Theorien werden zunächst aus der Beobachtung von Einzelfällen induktiv mehr oder weniger erraten. Solche vorläufigen Gesetze nennt man Hypothesen. Die Hypothesen werden dann geprüft, indem man möglichst viele Einzelfälle beobachtet. Als unwissenschaftlich gelten Gesetze oder Hypothesen, aus denen sich keine empirisch beobachtbaren Konsequenzen ableiten lassen, z. B. der Satz: Wer die zehn Gebote einhält, kommt in den Himmel! Auch in sich widersprüchliche Sätze sind natürlich unwissenschaftlich.

Empirische Gesetze haben in der Regel die logische Form von Allsätzen, d. h. sie behaupten, dass unter der Voraussetzung bestimmter Randbedingungen stets eine gewisse beobachtbare Folge eintritt. Gelingt es, die vom Gesetz vorhergesagte Folge möglichst oft zu beobachten, so hat sich das Gesetz bewährt. Aber es können, da ja das Gesetz auf unendlich viele Fälle anwendbar ist, nie alle Fälle beobachtet, das Gesetz kann also nie als ausnahmslos bewiesen werden. Wichtiger ist daher, dass mit der Behauptung bestimmter Folgen andere Folgen ausgeschlossen werden. Wird auch nur ein einziges Mal zuverlässig beobachtet, dass eine ausgeschlossene Folge eintritt, dass das Gesetz also nicht zutrifft, so ist das Gesetz widerlegt. Die Verifizierungsmöglichkeiten von Allsätzen sind also asymmetrisch. Schon durch eine einzige, dem Gesetz zuwiderlaufende Beobachtung kann ein Gesetz widerlegt werden. Aber noch so viele das Gesetz bestätigende Beobachtungen können es nicht beweisen, denn man kann nie alle Anwendungsfälle eines Gesetzes durchprüfen. Die positive Bewährung bleibt immer nur vorläufig. Die empirische Überprüfung eines Gesetzes muß daher besonderen Wert darauf legen, solche Beobachtungen zu finden, die dem Gesetz widersprechen. Die Bewährung eines empirischen Gesetzes kann nur darin bestehen, dass es sich nicht widerlegen lässt, es kann jedoch nie endgültig positiv bewiesen werden. Diese von Popper zuerst beschriebene Auffassung von der Struktur wissenschaftlicher Erklärungen und ihrer Konsequenz für den Fortschritt der Wissenschaft bezeichnet man als Falsifikationismus.

V.  DN-Erklärungen in der Sozialwissenschaft

Das HO-Modell benutzt zunächst Gesetzesaussagen in der logischen Form von Allsätzen; z. B.: Alles Wasser kocht bei einem Luftdruck von 770·mmbar und einer Temperatur von 100˚ C. Grundsätzlich läßt es sich aber auch bei solchen Gesetzesaussagen anwenden, die nur statistischen oder stochastischen Charakter haben. Mit solchen Gesetzen haben wir es in der Psychologie, der Soziologie und der Volkswirtschaft hauptsächlich zu tun.

Statistische Gesetze bieten zwar, wenn man ins Detail geht, erhebliche wissenschaftstheoretische und mathematische Probleme. Aber im Prinzip kann man mit ihnen doch ebenso umgehen wie mit Allsätzen. Nehmen wir dazu folgendes Beispiel: Der Jugendliche J ist zum wiederholten Male straffällig geworden. Um diesen singulären Satz zu erklären, suchen wir nach einem Gesetz, das die wiederholte Straffälligkeit erklären kann. Ein solches Gesetz haben bereits in den 30er Jahren die Eheleute Elenor und Sheldon Glueck in den USA formuliert[2]. Es lautet sehr vereinfacht: Wenn

  • die Erziehung des Jungen durch die Mutter überstreng, unzureichend oder wechselhaft ist und
  • auch die Zuneigung der Mutter gleichgültig oder feindlich und schließlich
  • in der Familie kein Zusammenhalt vorhanden ist,
  • dann wird der Junge mit über 80·%iger Wahrscheinlichkeit kriminell.

Lässt sich im konkreten Fall feststellen, dass bei dem als kriminell beobachteten Jugendlichen diese Voraussetzungen gegeben sind, dann ist der Fall geklärt, und zwar mit einer speziellen deduktiv-nomologischen Erklärung, einem je-desto-Satz, also einem statistischen Gesetz.

An diesem Beispiel lassen sich zwei wichtige Probleme der empirischen Sozialforschung demonstrieren. Das erste ist das der Operationalisierung (Meßbarmachung). Das Glueck’sche Gesetz benutzt Ausdrücke wie

  • überstrenge oder wechselhafte Erziehung
  • wechselhafte Aufsicht
  • gleichgültige oder feindliche Einstellung
  • Zuneigung
  • Zusammenhalt in der Familie.

Wer diese Ausdrücke hört, hat wahrscheinlich eine gewisse Vorstellung, was damit gemeint sein könnte. Aber innerhalb einer sozialwissenschaftlichen Theorie bedeuten solche Begriffe nur theoretische Konstrukte. Sie müssen durch die Suche nach geeigneten Indikatoren operationalisiert werden. Ein Indikator ist dann geeignet, wenn er einerseits unmittelbar durch empirische Beobachtung leicht festgestellt werden kann und wenn er andererseits das theoretische Konstrukt gültig wiedergibt. In unserem Beispiel kämen als Indikatoren für Zuneigung etwa in Betracht: Die Häufigkeit des Kontaktes zwischen Mutter und Kind, die Häufigkeit körperlicher Berührung oder die Selbsteinschätzung der Beteiligten. Entsprechend könnte man für Zusammenhalt als Indikatoren eine gemeinsame Wohnung und gemeinsame Mahlzeiten annehmen.

Erneut zeigt das Beispiel, dass die Gesetzesannahmen, die zur Erklärung eines singulären Satzes herangezogen werden, in der Regel sehr partiell sind. Dabei ist das Glueck’sche Prognoseschema schon ein Mehrfaktorenansatz. Er lässt aber immer noch die Wirkungsstärke jedes einzelnen Faktors offen und ebenso die Frage, ob und wie die Faktoren zusammenwirken, ob sie sich addieren oder im Gegenteil teilweise in ihrer Wirkung aufheben.

Die methodischen, sachlichen und normativen Probleme der forensischen Gefährlichkeitsprognose sind nach wie vor ungelöst. Besonders bei der Sicherungsverwahrung gilt »im Zweifel gegen den Angeklagten«.

Bei jeder Variablen kann man wieder nach den Ursachen zurückfragen. Selbst wenn man annimmt, dass nicht jede soziale Bewegung in den Gesamtprozess eingebettet ist, so ist die Integrationsstufe doch so hoch, dass eine Totalanalyse aller relevanten Zusammenhänge die menschliche Forschungskapazität regelmäßig überfordert. Die Betrachtung von Teilprozessen enthält jedoch stets schon eine willkürliche, aber notwendige Beschränkung des Blickfeldes. Diese beiden zuletzt genannten Gesichtspunkte stellen also eine gewisse Kritik an der empirisch-analytischen Sozialforschung dar. Viele Feinheiten gehen bei ihr verloren. Verloren geht aber auch der Gesamtzusammenhang, die Totalität der Ereignisse. Dennoch ist die Ansicht weit verbreitet, dass Soziologie sich darauf zu beschränken habe, nach deduktiv-nomologischen Erklärungen zu suchen. Man spricht insoweit von der positivistischen oder genauer von der neo-positivistischen Richtung der Soziologie.

VI. Kausalität, Direktionalität und strukturelle Kopplung

Grundsätzlich muss man auch für die empirische Rechtssoziologie an der Idee der Kausalität festhalten. Das gilt auch, wenn man allgemeinere Fragen behandelt. Die allgemeinste wäre die nach dem Einfluss des Rechts auf die Gesellschaft und umgekehrt nach dem Einfluss der Gesellschaft auf das Recht. Die übliche Antwort lautet, dass sowohl das Recht die Gesellschaft beeinflusst wie umgekehrt die Gesellschaft das Recht. Sie ist ebenso richtig wie wertlos. Sie macht aber immerhin deutlich, dass Kausalität in beiden Richtungen möglich ist. Kausalität und ihre Richtung lässt sich immer nur für spezifische historische Situationen und Kontexte ermitteln.

Gehaltvollere Antworten gibt es nur auf spezifischere Fragen, die entweder auf der Seite des Rechts oder auf der Seite der Gesellschaft oder auch auf beiden Seiten engere Bereiche definieren, um deren wechselseitige Abhängigkeit zu untersuchen. Eine geläufige Methode der Spezifierung bietet die Systemtheorie, indem sie das Rechtssystem auf der einen und verschiedene gesellschaftliche Teilsysteme auf der anderen Seite unterscheidet. So kann man etwa nach dem Einfluss des Rechts auf die Wirtschaft, die Erziehung oder die Kunst und umgkehrt nach dem Einfluss der Wirtschaft, der Medien oder der Wissenschaft auf das Recht fragen. Auch solche Fragen bleiben immer noch zu allgemein, um sie gehaltvoll zu beantworten. Auch wenn die Fragen noch konkreter werden, bleiben die Zusammenhänge doch in aller Regel so vielschichtig, dass sich keine einfachen Kausalbeziehungen ermitteln lassen, sondern dass man sich mit der Feststellung von Interdependenzen (Wechselwirkungen) zufrieden geben muss. Es klingt anspruchsvoller, trägt aber zur Klärung nicht wirklich bei, wenn man stattdessen von struktureller Kopplung redet. Dieser Begriff gehört eigentlich in die Luhmannsche Systemtheorie (unten § 71II). Aber es spricht nichts dagegen, ihn als Synonym für Wechselwirkungen zu trivialisieren. Das ist sozusagen die Volksausgabe der strukturellen Kopplung.

Am Beispiel des Verhältnisses zwischen den Gerichten und der Polizei: Beide arbeiten regelmäßig zusammen und sind wechselseitig aufeinander angewiesen. Die Verkoppelung kann sich positiv für beide auswirken. Gerichte sorgen dafür, dass die Arbeit der Polizei als rechtmäßig anerkannt wird und dass sie zu Konsequenzen in Gestalt von Verurteilungen führt. Auf der anderen Seite sind die Gerichte von der guten Arbeit der Polizei abhängig. Sie müssen sich darauf verlassen, dass die Polizei ordentliche Ermittlungsarbeit leistet, dass sie ihnen die Delinquenten zuführt und sie nach der Verhandlung wieder in Gewahrsam nimmt. Die wechselseitige Abhängigkeit kann sich auch negativ auswirken, wenn die eine oder die andere Seite das Funktionieren der anderen verhindert. Die Gerichte sind darauf angewiesen, dass die Polizei professionell ermittelt und dadurch die erforderlichen Beweise fixiert. Das führt gelegentlich dazu, dass die Polizei Beweise konstruiert und damit ihr Verhältnis zur Justiz stört. Immer wieder gibt es Fälle, in denen nachlässige oder übereifrige Polizeiarbeit zu Fehlurteilen führt, die dann erhebliches Aufsehen erregen und das Verhältnis zwischen den Institutionen belassen. Wenn die Kooperation zwischen Justiz und Polizei einmal gestört ist, leidet die Kooperation, weil beide Seiten sich misstrauen. Die Richter sehen ihre eigene Legitimation durch die Polizei gefährdet; während der Polizei die notwendige Unterstützung ihrer Arbeit durch die Gerichte fehlt.[3] [Inwiefern können die Gerichte die Polizei verärgern?]

VII. Kritik des wissenschaftlichen Rationalitätsanspruchs

Literatur: Ludwik Fleck, Entstehung und Entwicklung einer wissenschaftlichen Tatsache, Einführung in die Lehre vom Denkstil und Denkkollektiv [1935], 4. Aufl., Frankfurt am Main 1999; Erfahrung und Tatsache, Gesammelte Aufsätze [1927-1960], 3. Aufl., Frankfurt am Main 2008; Thomas S. Kuhn, Die Struktur wissenschaftlicher Revolutionen, (The Structure of Scientific Revolutions, 1962), 2. Aufl., 1976.

Bis hierher habe ich habe ich Grundzüge einer Erkenntnistheorie referiert, die sich an der Tradition des »Wiener Kreises« orientiert, wie sie durch Popper ausgearbeitet und geläufig geworden ist. Der damit verbundene Rationalitätsanspruch gilt vielen Wissenschaftlern und den meisten Wissenschaftstheoretikern als obsolet. Sie verweisen darauf, dass Wissenschaft ein historisches, kulturelles und soziales Phänomen ist, folgern daraus, dass alles Wissen situativ und kontingent sei und relativieren damit auch die Forderung nach methodenstrenger Forschung. Die Kritik stützt sich gerne auf das Buch des Wissenschaftshistorikers Thomas S. Kuhn über die »Die Struktur wissenschaftlicher Revolutionen«. Als Beispiele solcher Revolutionen behandelt Kuhn die Ablösung der Pflogistontheorie durch Lavoisiers Sauerstofftheorie, die Verdrängung der klassischen Newtonschen Physik durch Einsteins Relativitätstheorie und vor allem die kopernikanische Wende vom geozentrischen zum heliozentrischen Weltbild. Die Beispiele dienten Kuhn, um zu zeigen, dass der Erkenntnisfortschritt nicht stets nach dem Modell Poppers erarbeitet worden ist, sondern dass konsequentes Vorgehen nach der Methode von trial and error in der Geschichte der Wissenschaft allenfalls in den von ihm so genannten normalen Perioden durchgehalten worden sei, nämlich solange wie eine allgemein akzeptierte Großtheorie, ein Paradigma, Bestand gehabt habe. Dazwischen lägen aber immer wieder Zeiten der Umwälzung, in denen auf logisch nicht erklärbare, geradezu revolutionäre Weise ein neues Paradigma entstehe. Ein Paradigma in Gestalt einer sehr allgemeinen und grundlegenden Theorie wirkt als Instrument, das überhaupt nur solche Beobachtungen und Erklärungen zulässt, die es mit sich bringt. So revolutionär diese und andere Umbrüche der Wissenschaft auch waren, so hatten sie doch nie eine tabula rasa zur folge. Stets ließ sich an die überlieferten Begriffe, Theorien und Erfahrungen anknüpfen.[4]

Zwar vollzieht sich der Erkenntnisfortschritt nicht einfach als Anhäufung. Immer wieder werden ganze Gebäude nicht nur umgebaut, sondern abgerissen und neu errichtet. Aber es bleibt doch mehr als Spolien. Wachstuim und Kontinuität des Wissens ist so erstaunlich groß, dass man bei aller Abhängigkeit von historischen Zufällen und lokalen Kontexten von Rationalität und Fortschritt reden darf.

Heute gilt es als ausgemacht, dass Wissenschaft auch ohne Umwälzungen vom Format eines Paradigmenwechsel Wissenschaft überall von lokalen Kontexten, spezifischen Forschungssituationen und sogar sprachlichen Rahmenbedingungen abhängig ist. Schon vor Kuhn hatte Ludvik Fleck u. a. an dem dramatischen Beispiel einer Laborsitution im Konzentrationslager Auschwitz, wohin er als Mikrobiologe verschleppt worden war, beschrieben wie eine Wissenschaftlergruppe als »Denkkollektive« unbemerkt ein künstliches Ergebnis produziert. Seither häufen sich historische und soziologische Untersuchungen über die Genese von Forschungsergebnissen.

Dabei ist auch aufgefallen, dass sich die Forschung oft von Metaphern leiten lässt, die sich später als irreführend erweisen. Dahinter steckt das Problem, dass es keine der Deduktion vergleichbare rationale Methode der Entdeckung neuer Theorien gibt. Bemühungen etwa, im Anschluss an Peirce mit der Abduktion eine methodische Heuristik zu entwickeln, waren bisher vergeblich (und werden es wohl auch bleiben). Daher dienen nach wie vor im Entdeckungszusammenhang Metaphern als Theorieersatz. Für die Sozialwissenschaften ist so das »Netzwerk« zur Supermetapher geworden. In der Wissenschaftstheorie hat es insoweit den »Baum der Erkenntnis« abgelöst.

In den letzten drei Jahrzehnten meinte hat nicht zuletzt die durch Luhmann populär gewordene konstruktivistische Wissenssoziologie, einer sich als rationalistisch verstehenden Wissenschaft das Fundament weggeschlagen zu haben. Die operative Wissenschaft macht hier mit der Wissenschaftstheorie eine Erfahrung, die Jurisprudenz mit der Rechtssoziologie schon hinter sich hat, die Erfahrung nämlich, dass sich das law in the books nicht unbefleckt in Praxis umsetzten lässt. Für Juristen ist das aber kein Anlass, auf den Geltungsanspruch des Rechts zu verzichten, sondern allenfalls Grund, damit realistischer umzugehen. Und so folgt auch aus wissenschaftstheoretischen Zweifeln keine Notwendigkeit, das Rationalitätsmodell über Bord zu werfen. Wichtig ist nur, die Irrtumsanfälligkeit von Wissenschaft ernst zu nehmen und nach Hilfsmitteln Ausschau zu halten, mit denen sich solche Irrtümer möglichst vermeiden und notfalls entdecken lassen.

Die wissenschaftstheoretische Skepsis ist so groß, dass es ist beinahe ein Tabubruch ist, noch von wissenschaftlichem Fortschritt zu reden. Erst recht Konvergenzvorstellungen, nach denen sich die zahllosen Detailinformationen, die von der Wissenschaft beigebracht werden, letztlich doch in irgend einer Weise zu einem System zusammenfügen könnten, gilt als naiv. Stattdessen wird die kurze Verfallszeit neuer Forschungsergebnisse betont.



[1] Carl Gustav Hempel/Paul Oppenheim, Studies in the Logic of Explanation, in: Philosophy of Science 15, 1948, 135 – 175.

[2] Five Hundred Criminal Careers, New York 1930; dies., Unraveling Juvenile Delinquency, Cambridge, Mass., 3. Aufl. 1957; dies., Predicting Delinquency and Crime, 1959.

[3] Nach Alan Hunt, Foucault’s Expulsion of Law, Law and Social Inquiry 17, 1992, 1-38, S. 32 f.

[4] Zur Kuhn-Diskussion vgl. den Sammelband von Imre Lakatos/Alan Musgrave, Kritik und Erkenntnisfortschritt, 1974, sowie die ausführliche Darstellung von Stegmüller, Theorie und Erfahrung, Berlin 1973, 2. Halbband: Theoriestrukturen und Theoriedynamik. Als Einführung eignet sich Stegmüller, Hauptströmungen der Gegenwartsphilosophie, 1975, Bd. II, S. 483 ff.