EINE
DER
THEORIE
KAUSALITÄT
Wolfgang Spohn
Habilitationsschrift
eingereicht
bei der Fakultät für Philosophie,
Wissenschaftstheorie und Statistik
der Ludwig-Maximilians-Universität
in München
im Oktober 1983
Konstanzer Online-Publikations-System (KOPS)
URL: http://nbn-resolving.de/urn:nbn:de:bsz:352-135451
INHALTSVERZEICHNIS
Vorbemerkung ....................................................................................... 4
TEIL I: PRÄLIMINARIEN.................................................................... 7
1
Aspekte der Kausalität. Ein Problemüberblick................................. 9
2
Einige Explikationen des Ursachenbegriffs.................................... 31
2.1
2.2
2.3
2.4
Die klassische Regularitätstheorie................................................. 32
Die verbesserte Regularitätstheorie............................................... 36
Der kontrafaktische Ansatz............................................................ 43
Das probabilistische Paradigma ................................................... 53
3
Eine Sammlung möglicher Kausalverhältnisse .............................. 61
3.1
3.2
3.3
3.4
Die wichtigsten Fälle..................................................................... 64
Außerkraftsetzungen und Relais-Funktionen.................................. 78
Noch mehr Fälle: Seltsames und Zweischneidiges ......................... 88
Zusammenfassung ......................................................................... 93
TElL II: DIE THEORIE ..................................................................... 103
4
Prozeßräume: die Gegenstände von Ursachenaussagen................ 105
4.1
4.2
4.3
4.4
Prozeßräume: der mathematische Apparat .................................. 106
Mögliche Verläufe und mögliche Welten ..................................... 115
Sachverhalte und Propositionen .................................................. 122
Sachverhalte und Ereignisse........................................................ 134
5
Prozeßgesetze: zur Theorie des Konditionals............................... 143
5.1
5.2
5.3
5.4
Wahrscheinlichkeitsmaße und ihre Konditionalisierungen........... 144
Zur Standardtheorie des Konditionals ......................................... 151
Eine verbesserte Grundlage für die Theorie des Konditionals...... 170
Popper-Maße und ihre Repräsentation........................................ 190
6
Kausalität in deterministischen und probabilistischen Prozessen.. 205
6.1
6.2
6.3
6.4
6.5
Gründe und direkte Ursachen...................................................... 207
Wann direkte Ursachen Gründe sind ........................................... 223
Warum der Ursachenbegriff und das Kausalprinzip wichtig sind. 230
Über indirekte Ursachen und kausale Abhängigkeit .................... 238
Über Naturgesetze und die realistische Interpretation von OKFs 245
Literaturverzeichnis ........................................................................... 255
VORBEMERKUNG
Seit dem Entstehen der modernen Naturwissenschaft haben sich Philosophie
und Wissenschaft mit größerer Hingabe als je zuvor des Gegenstands Kausalität
angenommen. Freilich war man diesem Thema eher in Haßliebe verbunden; schon
oft hoffte man, es erledigt und so seine geistige Ruhe wiedergefunden zu haben.
So zählt die Philosophie diverse Lösungen oder Auflösungen der Kausalitätsproblematik. Für viele, die der kruden Gleichung „kausal = deterministisch“ anhingen, brach mit der Quantenmechanik, wenngleich unter Geburtswehen, einfach
das akausale Zeitalter an. Andere suchten ihren Vorteil in der Ersetzung von Kausalität durch Funktionalität. Und wieder andere hofften, den Geltungsanspruch der
Kausalität kraft teleologischen Denkens kupieren zu können. Nichtsdestotrotz ist
festzustellen, daß sich dieser Gegenstand bester Gesundheit, ja nachgerade verwirrender Lebendigkeit erfreut. Für die Philosophie ist er brisant wie eh und je
und für die Wissenschaften nicht minder aktuell. Er füllt nach wie vor Zeitschriften und Monographien und hat sich, quecksilbrig wie er ist, noch nicht in einheitlicher, allgemein akzeptierter Weise disziplinieren lassen, auch wenn die Versuche dazu ohne Frage viele Teilerfolge aufweisen können.
Hier wird ein weiterer solcher Versuch vorgelegt. Sein Hauptziel wird durch
den Titel genau bezeichnet: es geht um eine Theorie der Kausalität, und deren
Kern soll in einer präzisen Explikation kausaler Begrifflichkeit bestehen. Wie
unschwer zu erkennen sein wird, ist der Versuch im Rahmen der analytischen
Philosophie angesiedelt, und die Verwendung formaler Methoden ist für ihn
schließlich unumgänglich. Worauf das alles inhaltlich hinauslaufen soll, ist damit
freilich kaum umrissen; aus dem Stand heraus läßt es sich auch schwer erläutern.
Daher seien dem Leser jetzt nur einige orientierende Bemerkungen an die Hand
gegeben; mit ihnen und den vielen orientierenden Bemerkungen in den einzelnen
Kapiteln wird er hoffentlich keine große Mühe haben, sich in dem Text zurechtzufinden.
Die hier vorgeschlagene Theorie wird erst im zweiten Teil der Arbeit entwickelt. Der erste Teil dient eher der Einführung und Vorbereitung; was in ihm abgehandelt ist, leitet jedoch seinen Wert nicht allein von diesem Zwecke her und ist
5
daher breiter und gründlicher ausgefallen, als es zur Vorbereitung des zweiten
Teils nötig gewesen wäre. Genauer: Das erste Kapitel fängt am Anfang an; es
zählt erst einmal die wichtigsten Probleme auf, die wir mit dem Gegenstand Kausalität haben. So vermessen, diese Probleme später alle behandeln zu wollen, ist
diese Arbeit nicht; doch bietet die Aufzählung Gelegenheit zu sagen, welche
Probleme wo aufgegriffen werden sollen. Das zweite Kapitel liefert einen kurzen
elementaren Abriß derjenigen Kausalitätsauffassungen, die der hier entwickelten
Theorie am nächsten stehen. Im letzten Kapitel des ersten Teils liste ich dann eine
Menge konkreter Fälle auf, bei denen unsere intuitiven Urteile über die in ihnen
bestehenden Kausalverhältnisse, wie ich annehme, im wesentlichen eindeutig und
übereinstimmend sind, die jedoch lehrreiche und charakteristische Schwierigkeiten für eine Kausalitätsanalyse deutlich machen; damit wird gleichzeitig greifbarer, was es alles bei einer Explikation kausaler Begriffe zu tun gibt.
Wie gesagt, widmet sich dann erst der zweite Teil unmittelbar der zu entwickelnden Kausalitätstheorie. Doch auch hier ist es erst das sechste Kapitel, welches Explikationen und Theoreme für kausale Begriffe formuliert; im vierten und
fünften Kapitel werden nur die geeigneten Grundlagen dafür erarbeitet. So gehe
ich im vierten Kapitel der Frage nach, welcher Art überhaupt die Gegenstände
sind, die in kausalen Beziehungen zueinander stehen; ich unterscheide dabei drei
Arten von Gegenständen, die nicht immer sauber auseinandergehalten werden –
nämlich Sachverhalte, Propositionen und Ereignisse –, und begründe, daß es die
erstgenannten sind, die Ursachen und Wirkungen sein können. Im zentralen fünften Kapitel erarbeite ich diejenigen Begriffe, relativ zu denen dann kausale Begriffe expliziert werden und auf denen also die Theorie des sechsten Kapitels aufbaut.
Es sind gerade zwei Gedanken in diesem zweiten Teil, die mir – so viel Selbstkommentierung will ich mir gestatten – gegenüber der bisherigen Kausalitätsdiskussion einen Fortschritt zu bringen scheinen. Der erste Gedanke findet sich im
Abschnitt 5.3 und besteht in der Einführung sogenannter ordinaler Konditionalfunktionen (OKFs). Diese liefern die Grundlagen für eine Theorie des Konditionals, d.h. des Wenn-Dann, bzw. für eine Theorie der Überzeugungsänderung
(ersteres ist die semantische und zweiteres die psychologische Seite ein und derselben Sache); wie zentral beides nicht nur für das Thema Kausalität ist, braucht
dabei jetzt nicht ausgeführt zu werden. Natürlich gab es dafür auch bisher schon
Grundlagen; diese werden jedoch durch die OKFs verbessert, wie ich in Kapitel 5
6
zu begründen versuche. Der zweite Gedanke, der sich ohne den ersten nicht hätte
sauber ausführen lassen, findet sich in Abschnitt 6.1 und besteht in der gleichzeitigen und parallelen Explikation sowohl des zentralen erkenntnistheoretischen
Begriffs des Gründe-Habens wie des ersten kausalen Begriffs, dem der direkten
Ursache. Die erkenntnistheoretischen Bezüge der Kausalitätsproblematik ergeben
sich dadurch fast automatisch – in präziser und, wenn richtig formuliert, sogar
beweisbarer Form.
In der Tat schien mir, zumindest in meinen optimistischeren Augenblicken, die
Entwicklung einer Kausalitätstheorie nach diesen zwei Grundgedanken großenteils eher eine Fleißarbeit zu sein. Es ist allerdings einzuräumen, daß diese Fleißarbeit, wenn es denn nur eine solche ist, im Kapitel 6 derzeit nur recht unvollständig geleistet ist. Auch findet sich im Text so manche Ankündigung, die noch nicht
wirklich eingelöst ist. Doch hoffe ich, daß das Kapitel 6 auch schon in seinem
jetzigen Zustand dem Leser meinen Optimismus nicht unbegründet erscheinen
läßt.
TEIL I
PRÄLIMINARIEN
KAPITEL 1
ASPEKTE DER KAUSALITÄT. EIN PROBLEMÜBERBLICK
Welche Fragen sind es, mit denen uns die Kausalität immer wieder herausfordert? Davon eine Bestandsaufnahme herzustellen, ist nützlich, vermeidet eine
vorzeitige Blickverengung – sofern sie nicht lückenhaft ist – und soll daher Aufgabe dieses Kapitels sein. Damit ist freilich nicht die Absicht verknüpft, später
alle genannten Problemgebiete zu behandeln; doch werde ich jeweils anmerken,
wo ich auf welche Problemgebiete eingehen will. Auch sollen hier nur die Probleme selbst aufgezählt werden; begründete Meinungen zu ihnen auszubreiten,
würde viel zu weit führen. Daher ist hier nicht der Platz für eigene Stellungnahmen, auch wenn ich einige Fußnoten dazu nicht unterdrückt habe. Die Bestandsaufnahme soll aber im wesentlichen vollständig sein; ich habe sie in achtzehn Punkte eingeteilt.
(1) Die in der Vorbemerkung festgestellte Lebendigkeit kausaler Begrifflichkeit ist ein nur zu offenkundiger Tatbestand. Die Umgangssprache ist von kausalen Wendungen tief durchdrungen, und den Wissenschaften geht es trotz gelegentlichen heftigen Sträubens nicht anders. Ja, es scheint, als sei mit Erfahrungswirklichkeit befaßtes Denken fast unweigerlich sogleich kausales Denken. Nun
kann man die offenbare Fundamentalität kausaler Terminologie, oder auch bloß
ihre Verbreitetheit, schulterzuckend als schiere Gegebenheit hinnehmen. Philosophisch befriedigend ist das allerdings nicht. Man sollte doch annehmen, daß diese
Fundamentalität einen tieferen Grund hat. Damit haben wir unser erstes Problem:
Warum sind – wie es scheint – kausale Begriffe für unsere Erfassung empirischer
Wirklichkeit eigentlich so grundlegend?
Zwei mögliche Antworten seien nur kurz angedeutet: Für Hume bestand ein
wesentlicher Teil menschlichen Denkens in der Assoziation oder Verknüpfung
von Vorstellungen; von den insgesamt nur drei Formen der Verknüpfung, die er
unterschied, ist eine dabei gerade die von Ursache und Wirkung. Bedenkt man
10
noch, daß für Hume die kausale Beziehung zwischen zwei Gegenständen im wesentlichen gerade darin besteht, daß ihre Vorstellungen auf diese Weise im Denken verknüpft sind, so ergibt sich die zentrale erkenntnistheoretische Stellung des
Ursachenbegriffs bei Hume von selbst.1 Bei Kant wird das noch deutlicher, da er
dieses Verknüpfen von Ursache und Wirkung, welches bei Hume passivisch
durch gewohnheitsmäßige Verfestigung zustande kommt, zur aktiven logischen
Funktion des Verstandes erhebt; damit wird die Kausalität für Kant zu einem der
wenigen „reinen Verstandesbegriffe“.2
Freilich ist diese erste Frage bestimmt nicht die als erste zu beantwortende,
auch wenn sie in gewisser Hinsicht vielleicht die wichtigste und interessanteste
ist, da eine gescheite Antwort darauf uns überhaupt erst einmal einsichtig macht,
wieso wir uns mit der Kausalitätsproblematik immer wieder auseinanderzusetzen
haben. Im Gefolge unserer Explikationen im Abschnitt 6.1 wird sich im Abschnitt
6.3 eine einfache, aber vermutlich unvollständige Antwort dazu ergeben.
(2) Als die fundamentalste, mit kausalen Begriffen formulierte Aussage gilt das
Kausalprinzip, welches in etwa besagt, daß jedes Ereignis eine Ursache habe; und
eines der klassischen Kausalitätsprobleme ist daher, welche Bewandtnis es mit
dem Kausalprinzip habe. Diese Frage gleicht der vorigen; ging es dort um die
Wichtigkeit kausaler Begriffe, so geht es hier um die Wichtigkeit der zentralen
Kausalaussage.
Genauer gesagt, gilt die Frage hier dem Status des Kausalprinzips, Erweist es
sich bei schärferer Analyse als eine leere oder triviale Aussage, die logisch oder
analytisch wahr ist?3 Oder ist es einfach eine empirische Behauptung, nicht aufregender und von nicht wesentlich anderer Art als die vielen Verallgemeinerungen
der empirischen Wissenschaften, so daß es das zu gewärtigende Schicksal empirischer Hypothesen – nämlich ad acta gelegt zu werden – erleiden kann4 und aufgrund des indeterministischen Charakters der modernen Physik vielleicht schon
erlitten hat? Oder liegt die Wahrheit irgendwo dazwischen? Kant wies ihm den
besonderen Status eines synthetischen Apriori zu, welches empirische Erkenntnis
1
Vgl. etwa Hume (1777), III. und VII. Abschnitt.
Vgl. Kant (1781), A70–83.
3
Für Davidson z.B. ist das Kausalprinzip, zumindest in einer abgeschwächten Fassung, logisch
wahr. Wenn man nämlich, wie er in (1969), ein Ereignis mit der Menge seiner Ursachen und Wirkungen gleichsetzt, so folgt daraus, daß jedes Ereignis, bis auf höchstens eines, eine Ursache oder
eine Wirkung hat.
4
So äußert sich z.B. Schlick (1925), S. 373ff.
2
11
erst ermöglicht.1 Vielleicht ist es auch wenigstens insofern nicht platt empirisch,
als es ein in allen empirischen Wissenschaften – nicht nur in der Physik – tief eingelassenes, konkurrenzloses Prinzip ist, welches in ihnen relative Immunität genießt und nur von einem geeigneten Rivalen, wenn man ihn hat, in einer veritablen Revolution gestürzt werden könnte; sein Status wäre dann dem früheren Status
der euklidischen Geometrie vergleichbar, die unlängst noch unsere einzige, alternativlose Theorie über den physikalischen Raum war und daher von allen irgendwie mit dem Raum befaßten Wissenschaften wie selbstverständlich akzeptiert
werden mußte.2 Oder es könnte sonstwie eine grundlegende Voraussetzung jeder
empirischen Wissenschaft sein; etwa in dem Sinne, daß der Forscher ans Kausalprinzip glauben müsse, um eine – sachgemäße – Motivation für sein mühseliges
Geschäft zu haben3, oder in dem Sinne, daß das Kausalprinzip vielmehr als eine
grundlegende Maxime aufzufassen sei, wonach der Forscher in seiner Suche nach
Ursachen und Naturgesetzen nie verzagen solle.4 All das sind zumindest prima
facie mögliche Einordnungen des Kausalprinzips. Innerhalb unseres Rahmens
werden wir im Abschnitt 6.3 einige Einsichten über die Bedeutung des Kausalprinzips erlangen.
Es ist noch eine terminologische Bemerkung nachzuschieben: Den Ausdruck
„Kausalprinzip“ werde ich hier und im weiteren ausschließlich als Namen für die
Aussage, daß jedes Ereignis eine Ursache habe, oder ihre Präzisierungen verwenden. Davon zu unterscheiden ist der Begriff des Kausalgesetzes. Ein Kausalgesetz
zu sein, ist eine Eigenschaft von vielen Aussagen, und zwar gerade von gesetzesartigen, generellen Kausalaussagen wie etwa „jede Erwärmung eines Körpers bewirkt seine Ausdehnung“. Der Ausdruck „das Kausalgesetz“, der anderswo zuweilen für das Kausalprinzip steht und dann leicht Verwirrung heraufbeschwört,
ist gemäß dieser Festlegung gar nicht sinnvoll und wird demnach hier nicht verwandt werden.5
1
Vgl. Kant (1781), B232ff.
Dem Kausalprinzip käme demnach das zu, was Quine (1951) als hohe Zentralität, was Putnam
(1962) als relative Apriorizität oder was Stegmüller (1983), S. 457, als Quasi-Analytizität bezeichnet.
3
Vgl. Reichenbach (1951), S. 132f., Pap (1955), S. 138f., und Stegmüller (1983), S. 548f., die
übereinstimmend meinen, daß der Forscher nur nicht vom Gegenteil überzeugt sein dürfe.
4
So versteht Popper (1959), S. 33 und S. 195f., das Kausalprinzip, und in dieser Form hält er es
für berechtigt. Nagel (1961), S. 316-324, äußert sich ähnlich und sieht in der Befolgung dieser
Maxime ein Charakteristikum dessen, was theoretische Wissenschaft heißt.
5
Ich übernehme damit die Regelung von Stegmüller (1983), S. 503f.
2
12
Natürlich gleichen (1) und (2) nicht nur einander, sie hängen auch eng miteinander zusammen. Wenn das Kausalprinzip die grundlegende Bedeutung hat, die
etwa Kant ihm zumaß, dann ist die Fundamentalität kausaler Begriffe nicht weiter
verwunderlich. Und wenn umgekehrt kausale Begriffe so wesentlich sind, wie es
scheint, dann müßten sich mit ihnen, sollte man denken, nicht nur lauter Trivialitäten und Zufälligkeiten ausdrücken lassen.
Über der Faszination der Punkte (1) und (2) darf man jedoch nicht vergessen,
daß, was immer sich Vernünftiges zu ihnen sagen läßt, erst am Ende eines sorgfältigen Klärungprozesses stehen kann. Denn bevor man der Wichtigkeit irgendwelcher Begriffe nachgrübelt, muß man natürlich eine genaue Vorstellung von
dem haben, was da so wichtig sein soll; und den Status des Kausalprinzips kann
man vernünftigerweise erst dann ausmachen, wenn man genau sagen kann, was es
überhaupt heißen soll. Mit dieser für (1) und (2) notwendigen Vorbereitung und
auch für sich wertvollen, im Wesentlichen explikativen Arbeit befassen sich die
nächsten fünf Problempunkte.
(3) Der Anfang ist vermeintlich banal, in Wahrheit jedoch denkbar knifflig:
Wenn man solche Aussagen wie, etwas sei ursächlich für etwas anderes, genauer
analysieren und explizieren will, so muß der allererste Schritt sein, sich Klarheit
darüber zu verschaffen, welcher Art denn diese Etwasse sind. Also: Welcher Art
sind die Gegenstände von Kausalaussagen? Üblicherweise sagt man, Ereignisse
verursachten einander; aber ebensogut könnte man sagen, es seien Sachverhalte
oder Tatsachen – wie in dem Beispiel „daß die Gebühren schon wieder erhöht
wurden, machte ihn wütend“. Die häufig anzutreffenden Substantivierungen machen da meist gar keinen Unterschied; so kann man zum Beispiel „die neuerliche
Gebührenerhöhung machte ihn wütend“ sowohl in der gerade genannten Weise,
als auch als „wie die Gebühren schon wieder erhöht wurden, machte ihn wütend“
lesen. Die Umgangssprache ist hier wohl nicht besonders sorgfältig. Die Philosophen dafür umso mehr. Sie haben hier zumindest den folgenden scharfen Unterschied geortet: Sachverhalte sind für sie Dinge, die typischerweise durch DaßSätze dargestellt werden; dabei ist für einen Sachverhalt nur wesentlich, was im
Daß-Satz ausgesagt ist; für sein Vorliegen irrelevant ist hingegen die Art und
Weise, in der er sich realisieren mag. Dementsprechend sind zwei Sachverhalte
gerade dann miteinander identisch, wenn die sie darstellenden Daß-Sätze in bestimmter Weise äquivalent, d.h. – wie man’s üblicherweise spezifiziert – gleichbedeutend sind. Das ist vage und problembeladen, aber hinreichend klar, um da-
13
von Ereignisse im philosophischen Sinn zu unterscheiden. Letztere lassen sich
normalerweise nicht vollständig beschreiben, sondern nur sprachlich kennzeichnen – typischerweise durch Wie-Sätze, was bedeutet, daß für ein Ereignis die gesamte Art und Weise, wie es sich realisiert, wesentlich ist, auch wenn diese im
Wie-Satz nicht vollständig beschrieben ist. Dementsprechend sind die Identitätskriterien für Ereignisse nicht sprachlicher Natur, vielmehr werden Ereignisse am
besten durch ihre raum-zeitlichen Grenzen individuiert. Dies ist wiederum vage,
insbesondere werden die raum-zeitlichen Grenzen von Ereignissen von ihren
sprachlichen Kennzeichnungen notorisch unklar gelassen. Dennoch sind Sachverhalte und Ereignisse in diesem Sinne klar verschiedene Dinge, so daß sich die
Frage stellt: Haben Ursachenaussagen Sachverhalte – bzw. Tatsachen, d.h. wahre
Sachverhalte – oder Ereignisse oder gar beides zum Gegenstand? Oder gibt es
womöglich gemischte Ursachenaussagen etwa der Art, daß ein Ereignis einen
Sachverhalt verursache?1
Dazu gesellt sich gleich eine andere Frage: Sind die Gegenstände von Ursachenaussagen extensional oder nicht? In dieser vielleicht nicht ganz glücklichen
Formulierung geht es darum, ob Ursachenaussagen in dem Sinne (referentiell)
transparent sind, daß ihr Wahrheitswert davon unberührt bleibt, daß man in ihnen
einen ein Individuum bezeichnenden Ausdruck durch einen koreferentiellen, d.h.
dasselbe Individuum bezeichnenden Ausdruck ersetzt. Beispiel: Wenn Willy
Brandt deswegen zurücktrat, weil er dem erfolgreichsten DDR-Spion geheime
Unterlagen zu lesen gegeben hatte, trifft es dann auch zu, daß Willy Brandt deswegen zurücktrat, weil er seinem persönlichen Referenten geheime Unterlagen zu
lesen gegeben hatte? Wie man’s nimmt, mag man erwidern. Es muß also keine
eindeutige Antwort auf diese zweite Frage geben; sie weist möglicherweise nur
auf zwei verschiedene Lesarten von Ursachenaussagen hin.2 Doch hängt sie mit
der ersten Frage zusammen. Denn wenn Ursachenaussagen Ereignisse zum Gegenstand nehmen, so scheint ihre Transparenz gesichert, da für die sprachliche
Kennzeichnung eines Ereignisses unerheblich ist, in welcher Weise sie sich auf
die in das Ereignis verwickelten Dinge bezieht. Bei der sprachlichen Darstellung
von Sachverhalten ist das anders – zumindest dann, wenn nur gleichbedeutende
Sätze denselben Sachverhalt beschreiben. Ursachenaussagen über so verstandene
1
Zu diesem Problem vgl. etwa Davidson (1967b), Vendler (1967), Kim (1971), Mackie (1974),
Kap. 10, und Beauchamp, Rosenberg (1981), Kap. 7.
2
Zu diesem Problem vgl. etwa Anscombe (1969) und wiederum Davidson (1967b), Mackie
(1974), Kap. 10, und Beauchamp, Rosenberg (1981), Kap. 7.
14
Sachverhalte scheinen also nicht transparent zu sein. Gleichwohl fällt die zweite
Frage nicht mit der ersten zusammen; die charakteristischen Unterschiede zwischen Sachverhalten und Ereignissen lagen ja obiger Erläuterung zufolge anderswo, und außerdem gibt es Möglichkeiten, Kausalaussagen über Sachverhalte auch
transparent zu verstehen. Wir werden auf beide Fragen im Kapitel 4, insbesondere
in den Abschnitten 4.3 und 4.4, ausführlich eingehen.
Eine dritte Frage findet hier auch noch ihren Platz. Die bisherigen Formulierungen haben vielleicht den Eindruck aufkommen lassen, als seien Kausalaussagen immer partikulare in dem Sinne, daß sie über einzelne, konkrete Ereignisse
oder Tatsachen sprechen, die sich an einem bestimmten Zeitpunkt oder an einem
bestimmten, nicht zu großen Zeitintervall festmachen lassen. Natürlich ist dem
nicht so; wir kennen ja auch generelle Kausalaussagen wie „Feuer schafft Hitze“
oder „Rauchen führt zu Lungenkrebs“, in denen Typen von Ereignissen oder
Sachverhalten kausal verknüpft werden. Angesichts der unstrittigen Sinnhaftigkeit
beider Arten von Kausalaussagen kann sich hier nur die Frage nach dem Verhältnis zwischen ihnen stellen: Bilden partikulare Kausalaussagen den geeigneten
Einstieg in die Analyse der Kausalität, und lassen sich generelle Kausalaussagen
dann einfach als Allquantifizierungen partikularer Kausalaussagen auffassen?
Oder fällt die Untersuchung genereller Kausalaussagen leichter, und ergeben sich
aus ihnen partikulare Kausalaussagen einfach dadurch, daß man in ihnen die Ausdrücke für Ereignis- bzw. Sachverhaltstypen durch Ausdrücke für konkrete Ereignisse bzw. Sachverhalte des jeweiligen Typs ersetzt?
Regularitätstheoretische Kausalitätsanalysen, wie hier in den Abschnitten 2.1
und 2.2 skizziert, sehen sich in der Regel dazu gedrängt, den zweiten Weg zu beschreiten.1 Kontrafaktischen Kausalitätsanalysen, wie hier im Abschnitt 2.3 geschildert, ist hingegen der erste Weg natürlich. Wir werden diese Frage hier nicht
diskutieren, sondern unser Interesse ohne weitere Vorklärung den partikularen
Kausalaussagen zuwenden.
(4) Entscheidend für ein Verständnis von Kausalität ist es, so etwas wie eine
Logik der Kausalaussagen zu erarbeiten, Das meine ich hier nicht im rein formalen, sondern in einem ja auch gebräuchlichen laxen, aber umfassenderen Sinn.
Das Ziel ist nicht direkt die Erstellung eines formalen Kalküls für den Ursachenbegriff nach dem Vorbild anderer philosophischer Logiken wie etwa der epistemischen Logik, denen dann doch wesentliche Aspekte der von ihnen behandelten
1
Er wurde z.B. von Feigl (1953) sondiert; vgl. dazu auch Stegmüller (1983), Kap. VII, Abschn. 5.
15
Begriffe entgleiten. Vielmehr geht es hier, etwas vage, um die Explikation und
theoretische Erfassung eines ganzen Begriffsfeldes (und letztlich auch, aber nicht
vorrangig um dessen Kalkülisierung). Denn es ist ja nicht so, daß es da lediglich
einen einheitlichen Ursachenbegriff zu explizieren gäbe; wir kennen viele verschiedene Kausalbeziehungen. Da gibt es direkte und indirekte Ursachen; ein Ereignis oder Sachverhalt kann von einem anderen kausal unabhängig sein oder
auch nicht; die Philosophen haben angefangen, notwendige und hinreichende Ursachen und Teil- und Gesamtursachen zu unterscheiden; es gibt verschiedene Arten von Kausalketten und verschiedene Fälle kausaler Überbestimmung; es gibt
Epiphänomene und Wechselwirkungen; ein Ereignis oder Sachverhalt kann von
einem anderen vor den Auswirkungen eines dritten abgeschirmt werden; ob nicht
abgeschirmte Ursachen dasselbe sind wie direkte, ist dann noch die Frage. Und so
weiter.1 Ferner können Kausalbeziehungen nicht nur zwischen den Dingen bestehen, die wir Ursachen und Wirkungen nennen, sondern auch zwischen so etwas
wie Faktoren oder Variablen. Wenn wir sagen, der Öchslegrad des 84er-Jahrgangs
hänge auch von der Sonnenscheinmenge im Jahre 1984 ab, so meinen wir damit
normalerweise: Wie lange auch immer die Sonne 1984 scheint, es wird sich auf
den Öchslegrad des 84er-Jahrgangs auswirken, wie immer dieser am Ende ist.
Und dann verstehen wir das als Kausalaussage nicht über zwei Tatsachen – die
tatsächliche Sonnenscheinmenge und den tatsächlichen Öchslegrad –, sondern
über zwei Faktoren – die Sonnenscheinmenge, wie groß sie immer sei, und den
Öchslegrad, wie hoch er immer sei. Auch Faktoren können nun füreinander kausal
relevant sein, voneinander kausal unabhängig sein, zueinander in Wechselwirkung
stehen, einander abschirmen und wieder so weiter.
All diese Begriffe gilt es zu explizieren, und zwar nicht jeden für sich, sondern
so, daß die vielfältigen zwischen ihnen bestehenden Beziehungen erfaßt werden,
daß, pauschal gesagt, unser gesamter argumentativer Vorgang mit ihnen seine
Darstellung und Erklärung findet. Z.B. setzen wir häufig voraus, daß die Relation
„... ist indirekte Ursache von ...“ transitiv ist, und eine Analyse sollte herausfinden, wann diese Voraussetzung zulässig ist; es sollte klarwerden, welche Art von
Zusatzinformation eine anscheinend indirekte Ursache zu einer abgeschirmten
degradiert; oder, um ein drittes Beispiel zu nennen, es sollte nachgezeichnet werden, wie wir von Kausalaussagen über gewisse Ereignisse oder Sachverhalte auf
1
Das Kapitel 3 ist gerade dazu da, all das in intuitiver Weise etwas systematischer in den Griff zu
bekommen.
16
entsprechende Kausalbeziehungen zwischen bestimmten Faktoren schließen. All
das gehört zu dem, was ich Logik der Kausalaussagen nenne.
Diese Charakterisierung der hier ins Auge gefaßten Problematik ist zweifellos
unscharf, ebenso wie ihre Abgrenzung gegenüber noch zu erwähnenden Kausalitätsproblemen, die den Zusammenhang zwischen Kausalität und anderen wichtigen Gegenständen oder Themen betreffen; damit geht einher, daß sich die verschiedenen Probleme natürlich nicht voneinander unabhängig behandeln lassen.
Insbesondere gibt es sozusagen nach unten hin und nach oben hin jeweils eine
Schwierigkeit.
Nach unten hin stellt sich die Frage, welche begrifflichen Mittel der Explikation des eben umrissenen Begriffsfeldes am besten zugrunde zu legen sind. Reichen
die Mittel extensionaler Logik zur Explikation hin,1 oder soll man sich in den
Rahmen der Modallogik begeben?2 Soll man die Explikation auf den Funktionsbegriff stützen3 oder doch besser auf einen in bestimmter Weise spezifizierten
Begriff der notwendigen bzw. der hinreichenden Bedingung?4 Inwieweit soll man
raum-zeitliche Beziehungen zur Explikation heranziehen? Und so weiter. Noch
grundlegender ist die Frage, ob man überhaupt begriffliche Mittel zur Explikation
finden kann, die sich ohne auch nur versteckten Rückgriff auf Kausales verstehen
lassen, oder ob sich eine Analyse der Kausalität damit bescheiden muß, die inneren Zusammenhänge kausaler Begrifflichkeit und ihre äußeren Bezüge zu anderen
Begriffen klarzulegen. Gibt es also eine Theorie der Kausalität, in der die kausale
Terminologie explizit definiert wird,5 oder nur eine, in der diese, da irreduzibel,
bloß implizit charakterisiert werden kann?6 Diese Fragen, die erst in einer fertigen
Theorie ihre Antwort finden können, sind natürlich von zentraler Bedeutung.
Nach oben hin ergibt sich die Abgrenzungsschwierigkeit, wie weit sich denn
das zu explizierende Begriffsfeld erstrecken soll. Als grobe Richtlinie könnte dienen, daß zu diesem Begriffsfeld all das gehört, worin es in irgendeiner Weise direkt um Kausalbeziehungen geht, während Dinge, für die Kausalbeziehungen lediglich eine Rolle spielen, ausgeschlossen bleiben. So gehören für mich die oben
1
Die Hoffnung darauf war immer ein starkes Motiv dafür, mit regularitätstheoretischen Kausalitätsanalysen reüssieren zu wollen.
2
Wie es etwa Burks (1951) tut.
3
Wie Russell (1912/13) meint.
4
Wie es Mackie (1965) und (1974), Kap. 2, tut – um nur einen zu nennen.
5
Wie die meisten, ich eingeschlossen, hoffen und mit ihren Explikationen und Theorien zu belegen versuchen.
6
Wie Skeptiker immer wieder meinen, z.B. Anscombe (1975) und Taylor (1966), Kap. 3.
17
genannten Dinge zu diesem Feld; nicht mehr dazu rechnen will ich hingegen z.B.
den Begriff der Verantwortlichkeit oder den der Steuerbarkeit oder die Frage nach
dem Verhältnis zwischen kausalen und teleologischen Erklärungen. Bei aller Unschärfe dieser Trennlinie kommt es mir, metaphorisch ausgedrückt, auf folgendes
an: Wenn man all unser Reden von Kausalbeziehungen als einen großen Mechanismus ansieht, so geht es in diesem Punkt (4) um das Verständnis des inneren
Funktionierens dieses Mechanismus samt seiner Bauteile, wobei dieses Verständnis so lange unvollständig ist, wie nicht der ganze Mechanismus aufgeklärt ist;
hingegen geht es nicht um den äußeren Ort und die äußeren Bezüge dieses Mechanismus. Was diese Bauteile sind und was zum Inneren des Mechanismus gehört und was nicht, darüber gehen die Meinungen natürlich auseinander; aber jeder wird am Funktionieren dessen, was er für den inneren Mechanismus nimmt,
interessiert sein und es für ein einigermaßen ausgrenzbares Problem halten.
(5) Ein weiteres wichtiges Thema ist die Epistemologie von Kausalaussagen.
Hier geht es darum herauszufinden, wie wir uns der Richtigkeit von Kausalaussagen versichern, wie wir sie überprüfen, bestätigen, entkräften und widerlegen
können. Z.B. gehört hierher die für Hume so wesentliche Frage, ob man Ursachen
und Wirkungen direkt als solche wahrnehmen könne. Natürlich hängt dieser
Punkt sehr stark vom vorangehenden ab. Entdeckt man dort einen impliziten Bezug von Ursachenaussagen auf Naturgesetze, so wird hier die Bestätigung einer
Ursachenaussage der Bestätigung des zugehörigen Naturgesetzes bedürfen. Erkennt man dort die gesamte Vorgeschichte eines Ereignisses als wesentlich für
seine Verursachung – was immer da unter der gesamten Vorgeschichte zu verstehen ist –, so wird man hier zur Feststellung seiner Verursachung die Aufklärung
dieser Vorgeschichte verlangen. Ob die Logik der Kausalaussagen ihre spezifische Epistemologie trivial macht, ist freilich so lange unklar, wie die Aussagekraft
der zu Punkt (4) gelieferten Analyse unbekannt ist. Daß sich hier eine eigenständige Problematik auftut, ist jedenfalls zu gewärtigen. Allerdings werde ich in dieser Arbeit auf diese Problematik nicht explizit und separat eingehen; sie wird aber
in all dem, was ich in den Kapiteln 5 und 6 zur Problematik (4) sage, implizit berücksichtigt.
(6) Etwas zögernd nehme ich in diesen Katalog die einigermaßen dunkle Frage
nach der Natur der Kausalität auf. Damit vollziehe ich ungefähr die Dreiteilung
von Mackie (1974), S. 1f., nach, der begriffliche, erkenntnistheoretische und ontologische Kausalitätsprobleme unterscheidet. Bei aller Dunkelheit dieser Frage
18
scheint es mir hier wichtig, festzuhalten, daß man nicht davon ausgehen darf, sie
mit dem Punkt (4) automatisch erledigt zu haben. Denn auch wenn ich nicht nur
rein begriffliche Analysen als für Punkt (4) einschlägig betrachten mag – schon
einfach deswegen, weil Begriffliches und Inhaltliches nicht immer leicht zu trennen sind –, so verlangt dieser Punkt hier doch eher als Punkt (4) statt nach begrifflicher Analyse nach weitergehenden, möglicherweise empirischen Kenntnissen. Z.B. könnte es sein, daß man die in (4) aufgeworfenen Fragen mit Hilfe bestimmter Bedingungsbegriffe in rundum stimmiger Weise analysiert, dies aber im
Hinblick auf die Frage, was denn Verursachung letztlich ausmache, als ungenügend empfindet und daher diese Frage noch auf physikalische Weise zu beantworten versucht - etwa mit der These, daß jede Verursachung in einer bestimmten
Form von Energieübertragung bestehe.1 Oder um einen Vergleich zu wählen: Man
könnte die phänomenologische Thermodynamik als eine „Logik der Wärme“, als
eine befriedigende Theorie über das Funktionieren von Wärmeerscheinungen und
-Prozessen auffassen, und doch offenbart erst die statistische Mechanik die Natur
der Wärme. Inwieweit (6) wirklich über (4) hinausgeht, ist derzeit jedoch noch
ganz unsicher, einfach weil in (4) die Tiefe der Analyse im Unklaren belassen
wurde; man wird nur für eine tatsächlich vorgelegte Analyse zu Punkt (4) sagen
können, was man an ihr in Bezug auf diesen Punkt hier noch vermißt.2
(7) Ein allgemein und speziell für (4) wichtiges Problem ist, ob Kausalanalyse
in einem deterministischen oder in einem probabilistischen Rahmen zu betreiben
sei: Gemäß der herkömmlichen Regularitätstheorie der Kausalität nimmt jede
Aussage der Form, daß der Sachverhalt A den Sachverhalt B verursacht habe,
stillschweigend Bezug auf ein striktes Gesetz der Form, daß auf jeden Sachverhalt
der Art A’s ein Sachverhalt der Art B’s folgt. Seitdem haben Philosophen Kausalaussagen meist in einen engen Zusammenhang mit einer deterministischen Weltbeschreibung gebracht. Als deterministisch sei dabei eine Beschreibungsweise
schon dann gekennzeichnet, wenn sie Sachverhalte entweder als bestehend oder
als nicht bestehend behauptet, wenn sie strikte, ausnahmslose Allaussagen formu-
1
Vgl. etwa Quine (1973), §2, oder Vollmer (1981).
Auch auf diese Problematik werde ich nicht weiter eingehen, nicht zuletzt deswegen, weil ich
glaube, daß sie von der Problematik (4) aufgesaugt wird. Denn Kausalität spielt in allen Bereichen
empirischer Erkenntnis eine Rolle, und als solche wird sie im zweiten Teil dieser Arbeit auch
analysiert werden. Darüber hinaus etwa nach einer physikalischen Natur von Kausalität zu suchen,
scheint mir ebenso verfehlt zu sein wie der Versuch, alle empirischen Wissenschaften auf die
Physik zu reduzieren.
2
19
liert etc.1 Klarer wird das durch den Kontrast zur probabilistischen Beschreibungsweise, die Sachverhalte als mehr oder weniger wahrscheinlich hinstellt, die
statistische Regularitäten formuliert etc. Natürlich schließen diese beiden Beschreibungsweisen einander nicht aus, aber sie sind jedenfalls verschieden. Sehr
viele Kausalaussagen gehören nun zweifelsohne in den Kontext einer probabilistischen Weltbeschreibung; im Alltag ist das so, aber auch in allen statistisch arbeitenden und probabilistisch theoretisierenden Disziplinen wie etwa der Epidemiologie. So steht z.B. hinter der Aussage „seine Völlerei ließ ihn nicht alt werden“
keine detaillierte physiologische Theorie, sondern lediglich die statistisch gestützte Überzeugung, daß der in Rede stehende Herr, hätte er weniger gegessen,
wahrscheinlich älter geworden wäre. Suppes (1970), S. 5ff., hat mit Nachdruck
auf diesen Umstand hingewiesen und ihn zum Anlaß für eine probabilistische
Analyse von Kausalaussagen genommen, während andere darin keinen Grund
erblicken können, Kausalität als probabilistisches Phänomen zu betrachten.2
Bei dieser Sachlage stellen sich jedenfalls folgende Fragen: Muß sich eine Analyse der Kausalität, also etwa die Beantwortung der in (4) aufgeworfenen Fragen, im Rahmen deterministischer Beschreibungsweisen bewegen? Oder steht
eine Analyse der Kausalität im Rahmen probabilistischer Beschreibungsweise
gleichberechtigt daneben? Wenn man ersterem zuneigt, wie soll man dann probabilistische Kausalaussagen erklären oder wegerklären? Und wenn man letzterem
anhängt, wie verhalten sich dann probabilistische und deterministische Analyse
zueinander? Ich werde hier letzteres vertreten; ein zentrales Anliegen dieser Arbeit wird gerade darin bestehen, die nachgerade perfekte Parallelität deterministischer und probabilistischer Kausalitätsanalyse zu demonstrieren.
Hier erhebt sich noch eine wichtige, in dieser Arbeit aber nicht erörterte Nebenfrage: Wie verhält sich das Kausalprinzip zum Determinismusprinzip? – wobei letzteres natürlich ebenso wie ersteres der Explikation harrt, sich aber typischerweise im Laplaceschen Dämon verkörpert, der aus einer kompletten Beschreibung eines momentanen Gesamtzustandes der Welt heraus jeden zukünfti-
1
Dieser fast unzulässig weite Gebrauch von „deterministisch“ involviert also in keiner Weise den
Glauben an ein Determinismusprinzip, die Überzeugung, daß das Weltgeschehen streng determiniert sei, oder dergleichen mehr. Allerdings lassen sich solche Überzeugungen nur im Rahmen
dessen ausdrücken, was als deterministische Beschreibungsweise bezeichnet wird; und deshalb hat
sich dieser weite Gebrauch eingebürgert.
2
So hält Mackie (1974), S. 49f., Suppes’ Begründung für die Notwendigkeit einer probabilistischen Kausalitätsanalyse für kurzschlüssig, und in seinem Kapitel 9 leugnet er zwar nicht die
Möglichkeit probabilistischer Kausalität, hält sie aber doch für sehr rätselhaft.
20
gen und auch jeden vergangenen Zustand der Welt zu bestimmen vermag. Oder
anders gefragt: Fällt im Rahmen deterministischer Beschreibungsweise das Kausalprinzip mit dem Determinismusprinzip zusammen? Und gibt es auch im Rahmen probabilistischer Beschreibungsweise, wenn er zur Kausalanalyse taugt, so
etwas wie ein Kausalprinzip?
Die nächsten neun Problempunkte rühren daher, daß der Kausalitätsbegriff mit
anderen wichtigen Begriffen eng verzahnt ist; je nach Temperament meinte man,
diese Verzahnungen zumindest berücksichtigen zu müssen oder in ihnen gar den
Schlüssel zu einer erfolgreichen Analyse von Kausalität zu finden.
(8) Als erstes sei hier der Zusammenhang zwischen Kausalität und Naturgesetzen angesprochen. Daß da ein enger Zusammenhang besteht, ist nie ernstlich bezweifelt worden; die Frage war immer, worin er besteht. All jene, die im
Anschluß an Hume eine Regularitätstheorie der Kausalität vertraten, meinten, daß
dieser Zusammenhang ein definitorischer sei, daß sich also der Begriff der Kausalität durch den des Naturgesetzes explizieren lasse. Ihnen oblag dann freilich,
den Begriff des Naturgesetzes ohne Rückgriff auf Kausales zu erläutern, und da
gab es Schwierigkeiten. Um nur zwei davon zu erwähnen: Zum einen sah man
sich mit dem Problem der Gesetzesartigkeit konfrontiert, d.h. mit dem Problem,
wodurch sich Naturgesetze wie „alle Körper dehnen sich bei Erwärmung aus“ von
nicht naturgesetzlichen oder, wie man auch sagte, akzidentellen Allaussagen wie
„alle Benützer der Münchner Trambahn sind weniger als hundert Jahre alt“ unterschieden. Für dieses Problem gibt es bis heute keine schlüssige Lösung.1 Zum
anderen schienen es nicht Naturgesetze beliebiger Art zu sein, die Kausalbeziehungen stiften, sondern nur Naturgesetze spezieller Form, eben die Kausalgesetze,
von denen etwa Erhaltungssätze wie der Energieerhaltungssatz auszuschließen
wären; und damit war man nicht unbedingt in einen unentrinnbaren Zirkel, aber
jedenfalls in das Problem hineingerutscht, zu sagen, was Kausalgesetze gegenüber
sonstigen Naturgesetzen auszeichne.2 Es ist also zweifelhaft, ob man den Zusammenhang so wie die Regularitätstheoretiker konstruieren kann. Doch sollten auch
jene, die sich nicht zuletzt wegen dieser Schwierigkeiten bei ihrer Kausalanalyse
lieber auf andere Begriffe stützen, etwas über diesen Zusammenhang zu sagen
1
Vgl. etwa Stegmüller (1983), Kap. V.
Deswegen sagte ich auf S. 10, daß regularitätstheoretische Kausalitätsauffassungen gedrängt
sind, erst generelle und damit dann partikulare Kausalaussagen zu analysieren; vgl. dazu, wie
erwähnt, Feigl (1953) und Stegmüller (1983), Kap. VII, Abschn. 5.
2
21
haben,1 denn es würfe ein schlechtes Licht auf ihre Analyse, wenn diese die auch
von ihnen nicht bestrittene Plausibilität des regularitätstheoretischen Ansatzes
völlig rätselhaft ließe. Wir kommen darauf im Abschnitt 6.5 zurück.
(9) Ein anderes aufklärungsbedürftiges Verhältnis ist das zwischen Ursachen
und Gründen. Insbesondere in der älteren Philosophie wurden diese beiden Begriffe, oder die anderen dafür benützten Wörter, nicht sehr scharf auseinandergehalten, und oft schien es, als solle es so etwas wie einen allgemeinen Begriff
des Grundes geben, und als sei der Begriff der Ursache nur eine Spezialisierung
dieses allgemeinen Begriffs. Ebenso wurde das sogenannte Prinzip vom zureichenden Grunde manchmal mit dem Kausalprinzip identifiziert und manchmal
aber als eine Art Obersatz angesehen, aus dem das Kausalprinzip als ein Spezialfall folgen soll.2 Es stellt sich somit die Frage, ob sich tatsächlich ein allgemeines
Schema finden läßt, dem alle Formen der Beziehung zwischen Gründen und ihren
Konsequenzen genügen, und ob man sich dann die Beziehung zwischen Ursachen
und ihren Wirkungen als einen geeigneten Spezialfall dieses Schemas erklären
kann.3 Wir nehmen diese Frage zu Beginn des Abschnitts 6.1 kurz wieder auf.
(10) Der moderne Kontext, in dem die Probleme (8) und (9) virulent geworden
sind, ist die Erklärungsproblematik, in der die Natur wissenschaftlicher Erklärungen als Antworten auf Warum-Fragen zur Diskussion steht. Die Verbindung zu
unserem Thema liegt auf der Hand. Hätte man den Ursachenbegriff schon geklärt,
so böte sich als erste Explikation des Erklärungsbegriffs an, zu sagen, daß eine
Erklärung eben in der Nennung von Ursachen für die zu erklärende Tatsache bestehe. Danach schaut es so aus, als sei nur der Ursachenbegriff für den Erklärungsbegriff wichtig. Doch läßt sich dieser Zusammenhang umdrehen, indem man
sagt, Ursachen seien, womit immer zu Erklärendes erklärt werde; und mit dieser
Aussage als Richtschnur kann man dann versuchen, über den Erklärungsbegriff an
den Ursachenbegriff heranzukommen. Verheißungsvoll wurde diese Strategie mit
der Explikation deduktiv-nomologischer Erklärungen von Hempel und Oppenheim.4 Doch wurde bald klar, daß Hempel und Oppenheim bestenfalls notwendige
1
Das tun z.B. Lewis (1973a), Abschn. 3.3, und (1973b), Mackie (1974), Kap. 3, oder von Wright
(1974), Abschn. II.6.
2
Vgl. zu all dem Schopenhauer (1847).
3
Damit ist klar, daß es hier um das Verhältnis zwischen Ursachen und theoretischen Gründen geht
und nicht um das Problem, welches heute hauptsächlich unter der Überschrift „Gründe und Ursachen“ firmiert – nämlich das Problem, ob die praktischen Gründe, die wir für unsere Handlungen
haben, auch Ursachen unserer Handlungen sind.
4
Vgl. Hempel (1965), Kap. 10 und 12.
22
Bedingungen für das Vorliegen von Erklärungen angegeben hatten. Ihre Bezugnahme auf Naturgesetze halste ihnen all die unter (8) erwähnten (und nicht erwähnten) Probleme auf. Außerdem zeigte sich, daß sie eher so etwas wie ein allgemeines Begründungsschema, nach dem in (9) gefragt wurde, expliziert hatten
und die Spezifika kausaler Beziehungen nicht erfassen konnten.1 Man darf wohl
sagen, daß auch die weiteren Verfeinerungen dieser Strategie ihr bisher zu keinem
durchschlagenden Erfolg verholfen haben;2 doch ist sie nach wie vor eine sinnvolle Option – auch wenn wir hier von ihr keinen Gebrauch machen werden.
(11) Im Hintergrunde lauert hier schon dauernd das altehrwürdige Problem der
Notwendigkeit von Kausalbeziehungen, welches zuweilen das Kausalitätsproblem
schlechthin zu sein schien. In ihm geht es darum, ob der Verbindung zwischen
einer Ursache und ihrer Wirkung eine irgendwie geartete Notwendigkeit innewohnt, und wenn ja, welche? (Man unterscheide davon sorgfältig die in (2) aufgeworfene Frage, welche Art von Notwendigkeit dem Kausalprinzip zukommt.)
Daß kausale Notwendigkeit keine logische ist, hat Hume schon eindringlich und
überzeugend dargetan. Da es für ihn keine andere Form von Notwendigkeit gab,
die in der Wirklichkeit waltet, und da hinter der Verbindung zwischen Ursachen
und Wirkungen für ihn in der Wirklichkeit nichts weiter als empirische Regelmäßigkeiten stehen, erklärte er konsequenterweise den Eindruck kausaler Notwendigkeit als ein rein mentales Phänomen, als, grob gesagt, eine Art Denkgewohnheit oder -nötigung.
Doch sind noch andere Notwendigkeitsbegriffe in Betracht zu ziehen. Die Modallogik entfaltet dafür eine große Palette formaler Möglichkeiten.3 Es könnten,
inhaltlicher betrachtet, kausale Notwendigkeit und Apriorizität aufeinander bezogen sein, wobei letztere, wie Kant betonte, weder mit logischer Notwendigkeit
noch mit Analytizität verwechselt werden darf. Oder es könnte kausale Notwendigkeit mit so etwas wie naturgesetzlicher Notwendigkeit gleichzusetzen sein,
wobei letztere gerade Naturgesetze vor akzidentellen Allaussagen auszeichnete
und damit ein Kriterium der Gesetzesartigkeit lieferte. Ein weiterer Kandidat wäre
die Sorte von Notwendigkeit, die sich in subjunktiven und kontrafaktischen Kon1
Dies ist die meines Wissens unwidersprochene Schlußfolgerung von Stegmüller (1983), Kap. II.
Innerhalb des probabilistischen Rahmens erwies sich die Durchführung dieser Strategie als noch
schwieriger; denn an der Analyse probabilistischer oder statistischer Erklärungen entzündeten sich
viel weiter gehende Meinungsverschiedenheiten; vgl. dazu Stegmüller (1983), Kap. IX, und
(1973), Teil IV.
3
Vgl. etwa Hughes, Cresswell (1968); ein (zu) einfaches Beispiel für die Anwendung dieser Möglichkeiten liefert Burks (1951).
2
23
ditionalaussagen findet wie z.B. in „wenn man seinerzeit bessere Baustoffe verwandt hätte, dann wäre die Auster nicht so bald zusammengekracht“. Und es mag
da noch andere Kandidaten geben.1
Natürlich sind sowohl die gerade angeführten Notwendigkeitsbegriffe wie auch
die Unterschiede zwischen ihnen denkbar unklar, so daß es noch gar nicht viel
nützt, kausale Notwendigkeit mit ihnen zu identifizieren. Auch war man sich immer dessen bewußt, daß eine Aufklärung kausaler Notwendigkeit nicht automatisch die Lösung etwa der in (4)–(6) aufgezählten Probleme bedeuten würde.
Doch war man auch immer der Überzeugung, daß man hier ins Zentrum aller
Kausalitätsprobleme vorgestoßen sei, von dem aus sie sich gut aufrollen lassen
müßten. In dieser Arbeit wird allerdings von kausaler Notwendigkeit nicht mehr
ausdrücklich die Rede sein; doch wird klar werden, daß ich sie mit subjunktiver
Notwendigkeit gleichsetzen würde, wobei ich letztere durchaus im Sinne Humes
erklären werde.
(12) „Kausalität und Zeit“ ist das Stichwort für eine weitere, grundlegende
Problematik; es geht hier um den Zusammenhang zwischen kausalen und temporalen Beziehungen unter Sachverhalten oder Ereignissen. Gemeinhin wird gesagt,
daß Ursachen immer früher statthätten als ihre Wirkungen; häufig wird als Grenzfall noch die Möglichkeit anerkannt, daß Ursachen mit ihren Wirkungen gleichzeitig sind; doch manche halten es sogar für denkbar, daß Ursachen nach ihren
Wirkungen stattfinden.2 Hinsichtlich dieser drei Fälle stellt sich gleich die Frage:
Wenn einer dieser drei Fälle nicht vorkommt, ist dem dann bloß kontingenterweise so, oder hätte das zwingendere, womöglich logisch-begriffliche Gründe?
Daran schließen sich weitere Fragen an. Lassen wir einmal die Möglichkeit zu,
daß Ursachen mit ihren Wirkungen gleichzeitig sind; in diesem Fall gibt es zwischen Ursache und Wirkung von ihrer zeitlichen Beziehung her keinen Unterschied. Die kausale Beziehung zwischen ihnen soll natürlich trotzdem asymmetrisch sein, und damit entsteht das Problem, was in diesem Fall die Ursache von
ihrer Wirkung unterscheidet.3
1
Mackie (1974), S. 193f., macht eine ähnliche Liste auf.
Und zwar mit sehr unterschiedlichen Gründen; vgl. etwa Hesse (1962), S. 279–289, und Sklar
(1976), S. 297ff. und S. 375ff., für physikalische Gründe und von Wright (1971), Abschn. II.10,
Mackie (1974), Kap. 7, und Lewis (1976) für andersartige Gründe.
3
Mackie (1974), Kap. 7, und Lewis (1973b) und (1979a) schlagen verschiedene Lösungen dafür
vor, während Taylor (1966), Kap. 3, aus diesem Fall ein Argument konstruiert, welches die Unmöglichkeit einer Analyse von Kausalität durch nicht-kausale Begriffe demonstrieren soll.
2
24
Ein anderer Problemkomplex steht unter der Überschrift „die kausale Theorie
der Zeit“. Stellen wir uns erläuterungshalber auf den strikteren, aber auch nicht
unplausiblen Standpunkt, daß Ursachen notwendigerweise früher stattfinden als
ihre Wirkungen. Was man mit dieser Aussage anfangen soll, ist dann immer noch
offen. Wenn eine Kausalanalyse so weit gediehen wäre zu sagen, wann zwei Ereignisse kausal miteinander verknüpft sind, so könnte man mit Hilfe dieser Aussage eines der Ereignisse, nämlich das frühere, als Ursache des anderen auszeichnen und so die kausale Asymmetrie auf die zeitliche Asymmetrie zurückführen.
Doch könnte man auch umgekehrt – und so geschieht es in der kausalen Theorie
der Zeit – die zeitlichen Verhältnisse als problematischer empfinden als die Kausalverhältnisse. Wenn man es schaffte, von zwei kausal verknüpften Ereignissen
ohne Bezugnahme auf ihr zeitliches Verhältnis eines als Ursache des anderen auszuzeichnen, so könnte man daraus dann mit Hilfe der genannten Aussage zwei
wichtige Informationen über die zeitlichen Verhältnisse ziehen. Man könnte erstens die zeitliche Ordnung aller Ereignisse auf ihre kausale Ordnung zurückführen. Und zweitens könnte man auf diesem Wege eine Erklärung für die Gerichtetheit der Zeit gewinnen, welche rätselhaft geworden war, als man merkte, daß die
Theorien der klassischen Physik keine Zeitrichtung auszuzeichnen vermögen und
unsere Begriffe von Vergangenheit und Zukunft somit anscheinend der objektiven
Grundlage entbehren. Die Realisierung der damit nur angedeuteten Intentionen
der kausalen Theorie der Zeit hat sich freilich als ein äußerst verwickeltes Geschäft erwiesen, dessen Ertrag unterschiedlich beurteilt wird.1
Als letztes ist noch eine Frage aufzuführen, welche der alte Kontiguitätsgedanke aufwirft. Dieser besagt unter anderem, daß Ursache und Wirkung zeitlich aneinandergrenzen müssen. Natürlich gibt es auch kausale Beziehungen zwischen
zeitlich getrennten Ereignissen; aber es stellt sich die Frage, ob diese Beziehung
dann nur eine indirekte sein kann, die auf einen Brückenschlag zwischen diesen
Ereignissen durch eine vermittelnde Kausalkette angewiesen ist – ob also der
Kontiguitätsgedanke jedenfalls für so etwas wie direkte Verursachung richtig ist.
Eine positive Antwort würde, moderner ausgedrückt, bedeuten, daß kausale Prozesse zeitlich kontinuierlich verlaufen müssen (vorausgesetzt, die Zeit selbst ist
kontinuierlich).
1
Die Urväter der kausalen Theorie der Zeit sind Leibniz und Kant; vgl. dazu und auch sonst
Mehlberg (1980), Band I. Die aktuelle Diskussion ist wesentlich von Reichenbach (1958) und
(1956) angestoßen worden. Als Einführungen und moderne Darstellungen siehe van Fraassen
(1970), Kap. 6, und Sklar (1976), Kap. IV und V.
25
(13) Dies führt uns unmittelbar zum nächsten Stichwort „Kausalität und
Raum“, zur Frage nach dem Zusammenhang zwischen kausalen und räumlichen
Beziehungen. Denn der Kontiguitätsgedanke hat ja neben der zeitlichen vor allem
die räumliche Nachbarschaft von Ursache und Wirkung zum Inhalt; und darin
besteht auch der einzige räumlich-kausale Zusammenhang. Gibt es also, mit anderen Worten, nur Nahwirkungen oder auch Fernwirkungen? Oder genauer: Gibt es
direkte Fernwirkungen oder nur indirekte, die auf die Vermittlung durch eine
Kette von Nahwirkungen angewiesen sind? Dahinter stehen verschiedene physikalische Konzeptionen. Die Meinung, daß Wirkungen immer Nahwirkungen seien, ging einher mit der Vorstellung, daß jegliche Wechselwirkung zwischen Materiestücken letztlich in so etwas wie einem Stoßprozeß bestünde. Die Möglichkeit
von Fernwirkungen wurde dann mit Newtons Gravitationstheorie respektabel.
Und im Lichte der modernen Physik stellt sich die Sachlage wieder anders dar; in
der Tat war ja die nie ganz verwundene Rätselhaftigkeit direkter Fernwirkungen
ein wichtiger Anstoß für die allgemeine Relativitätstheorie.1 So ist schließlich
auch noch zu betonen, daß sich im Kontext der modernen relativistischen Physik
die Problempunkte (12) und (13) gar nicht mehr trennen lassen, einfach weil sich
in diesem Kontext Raum und Zeit nicht mehr voneinander unabhängig behandeln
lassen.
Auf die Punkte (12) und (13) gehe ich in dieser Arbeit überhaupt nicht ein, und
das ist vielleicht die schmerzhafteste Lücke in ihr. Räumliche Aspekte werde ich
nicht einmal erwähnen; und was die Zeit betrifft, werde ich auf den Zeitbegriff der
klassischen Physik zurückfallen und Ordnung und Richtung der Zeit als gegeben
betrachten und ohne weitere Begründung für meine Kausalanalyse heranziehen.2
(14) Die Physik legt uns noch eine weitere Beziehung nahe, nämlich die zwischen Kausalbeziehungen unter Ereignissen einerseits und der Ordnung unter den
Ereignissen andererseits. Unter „Ordnung“ sei dabei nicht die rein zeitliche oder
räumliche Ausdehnung und auch nicht das Gelten von Naturgesetzen verstanden –
1
Zu diesem für die Physik von jeher zentralen Problemkomplex s. Hesse (1962).
Der Grund dafür ist natürlich, daß ich zu diesen Punkten nichts sagen kann. Doch habe ich für
dieses Vorgehen eine gewisse Verteidigung, die wiederum – wie in der Fußnote zur Problematik
(6) – in dem Hinweis darauf besteht, daß Kausalität in allen Bereichen empirischer Erkenntnis
wichtig ist. Nun spielen aber räumliche Beziehungen in anderen Wissenschaften als der Physik
selten eine explizite theoretische Rolle, auch wenn sie vielleicht immer wie selbstverständlich im
Hintergrunde stehen; und auch die Vertracktheiten relativistischer Zeit werden dort kaum relevant
(desgleichen sehe ich z.B. außerhalb der Physik überhaupt keine Chancen für das Projekt der kausalen Theorie der Zeit). Wenn man also Kausalität als ein allgemeines Phänomen behandeln will,
so scheint es erst einmal sinnvoll zu sein, diese Dinge außer acht zu lassen.
2
26
diese drei Dinge kamen ja schon zur Sprache –, sondern etwas durchaus Vages,
nämlich so etwas wie ordentlicher Zusammenhang, wie er sich etwa in Pyramiden
oder Kristallen findet, im Gegensatz zu unordentlichem Chaos, wie es in Müllhalden oder Gasen herrscht. Zwei voneinander nicht unabhängige Gedanken bringen
einen auf diese Beziehung:
Der erste zieht die verbreitetste Antwort auf das in (12) erwähnte Problem der
objektiven Auszeichnung einer Zeitrichtung heran: daß nämlich dem zweiten
Hauptsatz der Thermodynamik zufolge in einem im Ungleichgewicht befindlichen
thermodynamischen System die Entropie – nach gängiger Erläuterung ein Maß
der Unordnung im System – in einer Zeitrichtung immer wachse, welche man
dann als die positive, in die Zukunft weisende auszeichnen könne. Sowohl Kausalität wie auch Entropie sollen also ein und dasselbe Problem lösen helfen, und
das bringt die beiden schon zusammen.
Näheren Kontakt stellt der zweite Gedanke her, der zunächst auch dem Problem der Gerichtetheit der Zeit, freilich nicht mit Hilfe der Thermodynamik, zu
Leibe rücken möchte. Er streicht heraus, daß es diverse Naturvorgänge gibt, die
im Prinzip, d.h. von den gefundenen Naturgesetzen her reversibel sind, aber de
facto gar nicht oder sehr selten reversiert vorkommen: die Ausbreitung von kugelförmigen Lichtwellen etwa oder die von kreisförmigen Wasserwellen, nachdem
ein Stein ins Wasser gefallen ist; zu deren Umkehrung, also zur Erzeugung nach
innen laufender Wasserwellen müßte man entweder eine Menge kreisförmig angeordneter Wellenmaschinchen gleichschalten oder einen großen Ring ins Wasser
werfen. Diese Überlegung scheint für das Verständnis von Kausalbeziehungen
unmittelbar relevant. Denn es ist, allgemein gesprochen, sehr wahrscheinlich, daß
der geordnete Zusammenhang verschiedener Ereignisse dadurch zustande kommt,
daß alle diese Ereignisse Wirkungen einer Ursache sind; und sehr unwahrscheinlich ist das Umgekehrte, d.h. daß diese Ereignisse zwar geordnet und trotzdem
unabhängig verursacht sind und gar noch in einer gemeinsamen Wirkung zusammenlaufen. So weit nur der Grundgedanke betreffs des Verhältnisses von Kausalität und Ordnung. Noch ganz unklar ist dabei, inwieweit er sich in hinreichender
Allgemeinheit genau explizieren läßt und wie er dann zu einer systematischen
Analyse von Kausalität beizutragen vermag.1
1
Bezüglich der zeittheoretischen Zusammenhänge dieser Andeutungen s. Reichenbach (1956),
Teile III und IV, van Fraassen (1970), Kap. 3, Sklar (1976), Kap. V, oder auch die Diskussion
zwischen Popper und Grünbaum in Schilpp (1974), S. 775ff. und S. 1140ff. Bezüglich ihrer kausaltheoretischen Relevanz s. wieder Reichenbach (1956), Teile III und IV, Watanabe (1969), Kap.
27
(15) Ein ganz anderer Problemzusammenhang wird in der sogenannten aktionistischen oder experimentalistischen Kausalitätstheorie entfaltet, die eine unumkehrbare Abhängigkeit des Ursachenbegriffs vom Handlungsbegriff behauptet.1
Der Grundgedanke hierfür läuft etwa so: Zum Verständnis von Kausalaussagen
bedarf es des Verständnisses von subjunktiven und kontrafaktischen Konditionalaussagen oder von Naturgesetzen, die diese Konditionalaussagen stützen. Nun
können wir aber – so die zentrale Behauptung – solche Konditionalaussagen und
Naturgesetze nur dadurch als wahr feststellen oder bestätigen, ja sogar nur dadurch überhaupt verstehen, daß wir aktiv und willkürlich in das Naturgeschehen
eingreifen, damit Zustände schaffen, die von selbst nicht eingetreten wären, und
dann die weitere Entwicklung beobachten. Mit anderen Worten, der rein passive
Zuschauer, etwa ein Baum mit Gehirn und Sinnesorganen, könnte lediglich Regelmäßigkeiten erkennen, aber nie subjunktive und kontrafaktische Beziehungen
herstellen, ja nicht einmal verstehen, was es mit letzteren auf sich hat. Daraus ergibt sich, daß eine Analyse von Kontrafaktizität und damit von Kausalität ohne
Rekurs auf den Handlungsbegriff nicht erfolgreich sein kann. Dieser Gedankengang hat vermutlich zumindest einen vernünftigen Kern, welcher ein kausaltheoretisches Interesse am Handlungsbegriff begründet. Allerdings wäre erst noch im
Detail zu überprüfen, welche Behauptungen genau sich wie stringent durch Ausformulierungen dieses Grundgedankens beweisen ließen.2
(16) Nachdem sich nun acht vieldiskutierte begriffliche Verbindungen haben
spezifizieren und herausheben lassen, bleibt ein viel diffuserer und umso weiter
gespannter Rest an begrifflicher Vernetzung übrig, den es zumindest zu erwähnen
gilt. Da gibt es zunächst die sogenannten kausativen Verben. Das sind transitive
Verben, wie z.B. „öffnen“ oder „aufregen“, die sich in explizit kausale Wendungen umformulieren lassen; so besagt „sie öffnete die Tür“ oder „das Fernsehprogramm regt ihn auf“ mehr oder weniger dasselbe wie „sie verursachte, daß die Tür
offen ist“ oder „das Fernsehprogramm verursacht, daß er aufgeregt ist“. Blättert
man durchs Lexikon, so merkt man, daß sehr viele transitive Verben kausativ
3, Mackie (1974), Kap. 7, und Lewis (1979a) – um einige recht unterschiedliche Quellen zu nennen.
1
Diese Auffassung ist vor allem von Collingwood (1940), S. 296ff., von Gasking (1955) und am
ausführlichsten von von Wright (1971), Teil II, insbes. Abschn. 8 und 9, und (1974) vorgetragen
worden.
2
Wiewohl ich einen Zusammenhang zwischen Ursachen- und Handlungsbegriff nicht bestreite,
scheint mir der letztere für die Analyse des ersteren, d.h. zur Behandlung der Problematik (4), doch
nicht grundlegend zu sein. Ich schließe mich da der Kritik von Rosenberg (1973) an der aktionistischen Kausalitätstheorie an und werde daher nicht weiter auf sie eingehen.
28
sind. Der Ursachenbegriff scheint also in der Umgangssprache eine fundamentale
Rolle zu spielen.1
Bedenkt man weiter, daß es gerade die transitiven Verben sind, die sowohl im
Aktiv wie im Passiv gebraucht werden können, so liegt der Gedanke nahe, daß der
Ursachenbegriff zwar nicht gerade mit den grammatischen Formen des Aktiv und
Passiv, aber doch mit den dahinterstehenden Begriffen des Tuns und Erleidens
eng zusammenhängt. Die Ursache tut gewissermaßen etwas, und die Wirkung
erleidet dies.2
Um diesen Faden noch etwas fortzuspinnen: Wer etwas tut, kann dies vermöge
gewisser Vermögen oder kraft gewisser ihm innewohnender Kräfte. Und wer etwas erleidet, bedarf dazu einer Empfänglichkeit oder, allgemeiner ausgedrückt,
einer entsprechenden Disposition; so gibt es zu kausativen Verben, wie z.B. „bewegen“ oder „erregen“, häufig die entsprechenden Dispositionswörter, wie z.B.
„beweglich“ oder „erregbar“. Auch diese Dinge sind alle mit dem Ursachenbegriff verquickt.3
So ubiquitär die Verwendung kausativer Verben und das Reden von Tun und
Erleiden, von Dispositionen, Kräften und Vermögen sind, so unklar ist die kausaltheoretische Tragweite von alledem. Schon Hume4 und nach ihm die meisten
Kausaltheoretiker waren da skeptisch und meinten, daß sich in dieser weitläufigen
Verwandtschaft des Ursachenbegriffs nichts Klares und für eine Kausalitätsanalyse Hilfreiches finden ließe und man vielmehr umgekehrt den Ursachenbegriff mit
anderen Mitteln analysieren müsse, um klareren Aufschluß über diese Verwandtschaft zu bekommen. Ich schließe mich ihnen an. Ob sie recht haben, ist jedoch
nicht sicher und daher als ein weiterer Problempunkt zu notieren.5
1
Vgl. dazu Aronson (1970/71).
Die im vorigen Punkt angesprochene aktionistische Kausalitätstheorie reitet natürlich nicht einfach auf dieser vagen Analogie zwischen Tun und Verursachen herum.
3
In der Physik sind ja Kräfte in einem präziseren Sinne von jeher prominente Verursacher. Und
die Dispositionsbegriffe haben sich in der intensiven Diskussion, die sie in den letzten Jahrzehnten
erfahren haben, zwar als recht schillernd herausgestellt; aber eine verbreitete Ansicht war immer,
daß Dispositionen so etwas wie kausale Mechanismen darstellen; vgl. dazu etwa Quine (1973), §3,
oder Mackie (1973), Kap. 4.
4
S. Hume (1739), S. 212.
5
Denn es gibt auch andere Meinungen. So stellte schon Reid den Begriff des Vermögens (Power)
in das Zentrum (nicht nur) seiner Überlegungen zur Kausalität, um damit dem Humeschen Skeptizismus zu entgehen; vgl. Reid (1788), Essay I, Ch. IV–VI, und Essay IV, Ch. II, III. In unseren
Tagen hat Taylor (1966), insbes. Kap. 3 und 4, solchen Meinungen wieder Gewicht verliehen.
2
29
So weit die Liste begrifflicher Verstrebungen, die jede Theorie der Kausalität
bedenken sollte. Es sind aber noch mindestens zwei andersartige, aber nicht weniger wichtige Zusammenhänge zu beachten.
(17) Philosophische Analyse steht hier wie anderswo in engem Austausch mit
einzelwissenschaftlichen Analysen; zumindest sollte sie sich, um fruchtbar zu
sein, auf ihn einlassen. Und Kausalität war für die Einzelwissenschaften von jeher
ein so brisantes Thema, daß sie sich höchstselbst umfänglich dazu geäußert haben.
Daß dies für die Physik gilt, bedarf kaum der Erwähnung. Aber auch die sonst so
auf Neutralität bedachten Mathematiker gleiten, von den physikalischen Anwendungen ihrer Materie angesteckt, häufig in kausale Terminologie ab – zumindest
dann, wenn sie sich um Veranschaulichung der mathematischen Inhalte bemühen.
In der Biologie war und ist es ein stehendes Thema, weniger den Kausalitätsbegriff selbst als vielmehr das Verhältnis von Kausalerklärungen und den der Biologie angemessener erscheinenden, funktionalen, kybernetischen oder teleologischen Erklärungsformen zu klären; ein ähnliches Interesse findet sich in der Anthropologie und in den Sozialwissenschaften.1 In der Ökonomie wurden insbesondere im Zusammenhang mit ökonometrischen Modellen verschiedene Kausalanalysen vorgelegt und ausführlich diskutiert.2 Die sich immer mehr als übergreifende
Grundlagendisziplin gerierende Systemtheorie hat sich nicht minder in die Kausalbeziehungen vertieft, die in den von ihr untersuchten Systemen bestehen, und
innerhalb ihres Rahmens passende Explikationen kausaler Terminologie hervorgebracht.3 Die Statistiker schließlich, ähnlich zurückhaltend wie die Mathematiker
und darum ähnlich gespalten, haben vor allem im Rahmen der multivariaten Analyse wirkungsvolle Methoden entwickelt, deren offizieller Anspruch lediglich
ist, Korrelationen zwischen verschiedenen Faktoren oder Variablen herauszufinden und zu analysieren; die heimliche Hoffnung ist zweifelsohne aber, mit diesen
Methoden auch Kausalbeziehungen aufzuspüren und zu bestätigen.4
Meine Aufzählung ist damit bestimmt noch nicht vollständig; wichtig ist nun
aber dies: Jede philosophische Kausalanalyse sollte diese einzelwissenschaftlichen Untersuchungen zur Kenntnis nehmen, zu ihrem Vorteil – sie könnte davon
1
Vgl. dazu etwa die Beiträge in Brodbeck (1968), Teile 3 und 5, und Stegmüller (1983), Kap. VI
und VIII.
2
Vgl. etwa Simon (1957), Kap. 1–3, die einschlägigen Beiträge in Wold (1964) und in Brunner,
Meltzer (1979) und schließlich Granger (1980) – um einige, recht unterschiedliche Ansätze und
Meinungen zu nennen.
3
Vgl etwa Mesarovic, Takahara (1975), Abschn. II.4 und Kap. V und VII.
4
Vgl. dazu die Referenzen in Fußnote 2 und auch die Beiträge in Hummell, Ziegler (1976).
30
profitieren –, vor allem aber zu ihrer Absicherung – denn es wäre beunruhigend,
wenn philosophische und einzelwissenschaftliche Aussagen ganz disparat zueinanderstünden. Und natürlich könnte eine solcherweise abgesicherte philosophische Analyse vereinheitlichend wirken und den Wissenschaftlern so manche Vorbehalte im Umgang mit kausaler Terminologie nehmen.1
(18) Der letzte Zusammenhang liegt wieder innerhalb der Philosophie. Dort perennieren diverse große Probleme, die eine bloße Kausalitätstheorie nicht aufzugreifen braucht, in die aber der Ursachenbegriff zentral eingeht. Eines dieser
Probleme dreht sich darum, ob sich finale oder teleologische Ursachen oder Erklärungen als kausale darstellen lassen. Da intentionale Erklärungen das beste und
womöglich das einzig echte Beispiel für teleologische Erklärungen sind, ist dieses
Problem zu einem der zentralen der modernen Handlungstheorie geworden, wo es
sich in die Frage verwandelt hat, ob die Gründe, die wir für unsere Handlungen
haben, also unsere Absichten, Wünsche, Überzeugungen und dergleichen, auch
Ursachen unserer Handlungen sind.2 Ein verwandtes Problem ist das klassische
Problem der Willensfreiheit, welches dem Empfinden entspringt, daß zwei tief
verwurzelte Überzeugungen miteinander unverträglich seien: nämlich die Überzeugung, daß so etwas wie das Kausalprinzip gilt, und die, daß wir so etwas wie
einen freien Willen haben. All die vielen Lösungsvorschläge dazu haben die Beunruhigung darüber nicht wirklich auflösen können. Wegen seiner bedeutsamen
ethischen und lebenspraktischen Weiterungen ist dieses Problem von allen, die
sich hier auch noch anführen ließen, vielleicht das wichtigste.
Es versteht sich von selbst, daß solche Probleme von einer adäquaten Kausalitätstheorie allein nicht gelöst werden können, sondern einer Menge an darüber
hinausgehenden Explikationen und Argumentationen bedürfen. Aber es ist ebenso
klar, daß diese Probleme eine faszinierende Bewährungsprobe für jede Kausalitätstheorie darstellen, daß jede Kausalitätstheorie sich daran messen lassen muß,
inwieweit sie überzeugende Lösungen dieser Probleme erleichtert.
1
In dieser Arbeit gehe ich leider – entgegen meinen ursprünglichen Absichten – auf diese wichtigen Verbindungen nicht weiter ein. In Spohn (1980) und (1983) habe ich allerdings ausgeführt,
daß meine Auffassung mit der Art und Weise, in der Mathematiker kausale Begriffe auf stochastische Prozesse anwenden, und mit der im Rahmen der Ökonometrie prominenten Kausalitätskonzeption von Granger (1980) in Einklang steht; und diese Ausführungen sind auch nach dieser Arbeit nicht zu revidieren.
2
S. dazu etwa die Einführung und die Beiträge in Beckermann (1977).
KAPITEL 2
EINIGE EXPLIKATIONEN DES URSACHENBEGRIFFS
Daß in der vorliegenden Arbeit die Problematik (4) von S. 14ff. im Zentrum
stehen und über sie der Zugang zu anderen Problemen gefunden werden soll,
dürfte unschwer zu erkennen gewesen sein. Doch blieb dort ziemlich unklar, was
es da alles zu tun gibt und was man da überhaupt tun kann. Die Liste konkreter
Testfälle im nächsten Abschnitt soll ersteres greifbarer machen; letzteres will ich
nun mittels einer Skizze der Typen von Antworten zur Problematik (4) verdeutlichen, auf die ich mich später hauptsächlich beziehen werde.
Diesen Antworten ist eines gemeinsam: Sie versuchen alle, den Ursachenbegriff mit logischen Mitteln, in einem weiten Sinne verstanden, zu explizieren, und
zumindest dem ersten Anscheine nach gelingt ihnen damit eine Reduktion von
Kausalem auf Nicht-Kausales. Das macht sie attraktiv. Denn bei Explikationen,
die auf solche Dinge wie kausale Notwendigkeit, Kräfte, Vermögen, Kausalgesetze etc. zurückgreifen, hätte man sofort das Gefühl, daß mit ihnen überhaupt nichts
gewonnen ist, da diese Dinge in gleicher Hinsicht und in gleichem Maße klärungsbedürftig sind wie das zu Explizierende selbst. Dieses Gefühl hat man bei
den hier zu schildernden Versuchen nicht. Natürlich kann der erste Anschein trügen; genauere Analyse kann ergeben, daß diese Versuche in einer mehr oder weniger großen Schleife wieder auf Kausales oder Kausaloides zurückführen. Der
Witz dieser Versuche wäre dann verloren gegangen – immerhin auf lehrreiche
Weise –, und man hätte sich doch mit dem bescheideneren Ziel zu begnügen, lediglich die inneren Zusammenhänge kausaler Begrifflichkeit zu erfassen. So weit
sind wir aber noch lange nicht; im Gegenteil, ich glaube, daß der Anspruch dieser
Versuche realisierbar ist, und daher wird ihr Studium für uns besonders instruktiv
sein. Um vier Versuche wird es gehen; ich nenne sie hier die klassische Regularitätstheorie, die verbesserte Regularitätstheorie, den kontrafaktischen Ansatz und
das probabilistische Paradigma.
32
2.1 Die klassische Regularitätstheorie
Was ich hier die klassische Regularitätstheorie nenne, geht auf Hume zurück,
der seine Überlegungen in einem vielzitierten Satz zusammenfaßt. Danach „mögen wir also eine Ursache definieren als: einen Gegenstand, dem ein anderer folgt,
wobei allen Gegenständen, die dem ersten gleichartig sind, Gegenstände folgen,
die dem zweiten gleichartig sind“ (Hume (1777), S. 92).
In modernerer Redeweise läßt sich das so reformulieren:
(2.1)
Der Sachverhalt A ist eine hinreichende Ursache des Sachverhalts B genau
dann, wenn gilt:
(a) A und B liegen beide vor,
(b) A ist früher als B,
(c) es gibt ein wahres Gesetz G derart, daß B aus G und A logisch folgt.
Einige Worte zu dieser Reformulierung: Wieso das Wörtchen „hinreichend“ in
(2.1) hineingeschlüpft ist, darauf werde ich unten gleich zu sprechen kommen. –
Aus Humes Gegenständen habe ich hier kurzerhand Sachverhalte gemacht. Genaugenommen wäre an dieser Stelle natürlich die gesamte Problematik (3) von S.
12ff. aufzurollen. Sachverhalte habe ich hier deswegen genommen, weil sie durch
Sätze vollständig beschreibbar sind; wären A und B sprachlich nicht unbedingt
vollständig beschreibbare Ereignisse, so wäre nicht ohne weiteres klar, wie zwischen ihnen logische Folgerungsbeziehungen bestehen sollen und wie dann die
Bedingung (c) zu verstehen wäre. Im übrigen möge entschuldigt werden, daß ich
in (2.1) nicht zwischen Sachverhalten und den sie beschreibenden Sätzen unterschieden habe; so genau brauchen wir es jetzt noch nicht zu nehmen. – Bedingung
(a) ist eine Selbstverständlichkeit. Bedingung (b) übersetzt Humes Reden vom
Folgen, und wir wollen jetzt nicht auf ihr herumreiten, obwohl an ihr die zentrale
Problematik (12) von S. 23f. ansetzt. – Der Kern der Regularitätstheorie ist die
Bedingung (c). Die Existenzquantifikation von (c) ist in Humes Formulierung
dann enthalten, wenn man seine „Gegenstände, die dem ersten (zweiten) gleichartig sind“ als „Sachverhalte einer bestimmten Art, der auch A (B) zugehört“ liest;
33
und daß B aus G und A logisch folgt, ist einfach die präzise Fassung dessen, daß A
und B unter dem Gesetz G subsumierbar sind.
(2.1) liefert immerhin einmal eine Idee dafür, wie man die Problematik (4) angehen könnte, und es liefert sogar, prima facie wenigstens, eine echte Explikation
des Ursachenbegriffs, insofern (a)–(c) augenscheinlich nur nicht-kausale Begriffe
enthalten. Die Plausibilität von (2.1) muß dabei nicht eigens hervorgehoben werden; es fallen einem ohne Mühe zahlreiche Beispiele für Sachverhalte ein, die
man intuitiv als Ursache und Wirkung bezeichnen würde und die die Bedingungen (a)–(c) erfüllen. Wichtiger ist, zu sehen, wieviel an (2.1) noch unzulänglich
ist. Als Explikation des Ursachenbegriffs ist es in mehrfacher Hinsicht inadäquat,
und seine Formulierung ist trotz ihrer Schlichtheit gar nicht im gewünschten Maße klar. Wenden wir uns zuerst dem letzten Punkt zu.
Natürlich kann man aus jedem einzelnen Wort ein Problem machen. So mag
man bezüglich der Bedingung (c) fragen, was denn Wahrheit darin bedeute und
was logische Folgerung genau heiße. Nicht, daß dies restlos klar wäre; aber die
Klärung dieser Dinge wird man nicht als Aufgabe des Kausaltheoretikers betrachten. Es gibt da einschlägigere Punkte: Wenn wir die Vorentscheidung für
Sachverhalte und gegen Ereignisse als Gegenstände von Kausalaussagen einmal
hinnehmen, so bleibt die Frage, ob denn im Prinzip jeder Sachverhalt als Ursache
oder Wirkung in Frage kommt. Denkt man etwa an den Sachverhalt, daß Napoleon bei Waterloo unterlegen ist oder Ende der 60er Jahre das Genre des ItaloWesterns kreiert wurde, so wird man das verneinen wollen; oder man wird zweifeln, ob man das überhaupt einen Sachverhalt nennen soll. Dann hat man jedoch
das Problem, zu sagen, welche Sätze es sind, die als Ursachen oder Wirkungen
geeignete Sachverhalte oder überhaupt Sachverhalte beschreiben. Ein zweiter
Punkt schließt sich an: Damit die Bedingung (b) sinnvoll ist, muß man Sachverhalten Zeitpunkte zuordnen, zu denen sie bestehen. Beim genannten Sachverhalt,
wenn’s einer ist, ist das schwierig, weniger weil unklar ist, zu welcher Sekunde
genau Napoleons Niederlage besiegelt war, sondern vielmehr, weil er aus Teilen
mit unterschiedlichem Zeitbezug zusammengesetzt ist.1 Beide Punkte bedürfen
der Aufklärung.
Die entscheidende Schwachstelle von (2.1) ist jedoch zweifelsohne das ominöse Wort „Gesetz“ in Bedingung (c). Wenn’s so wäre, daß sich jeder Satz, der die
logische Form eines Allsatzes hat, als Gesetz qualifiziert, dann wäre man alle
1
Vgl. dazu auch Goodman (1961).
34
Sorgen los. Aber so ist es nicht. Gesetze zeichnen sich durch ihre Gesetzesartigkeit aus, aber was das ist, hat noch niemand so richtig zu sagen vermocht.1
Doch schlimmer noch: Bisher entspricht die Regularitätstheorie dem im Rahmen der Problematik (10) geschilderten Weg; die Bedingung (c) besagt nämlich
gerade, daß B mittels A erklärbar ist – im Sinne des Hempel-Oppenheimschen
Erklärungsbegriffs. Nun hatte ich dort die Möglichkeit angedeutet, daß nur das
eine Ursache sei, womit zu Erklärendes unter Berufung auf ein Kausalgesetz erklärt werde. Wenn dem tatsächlich so wäre, so müßte die Bedingung (c) lauten:
„es gibt ein wahres Kausalgesetz G ...“, und damit wäre die Explikation (2.1) entwertet. Dieser Zirkel droht der Regularitätstheorie in allen ihren Fassungen. Wie
ernsthaft die Zirkelgefahr ist, will ich nun nicht entscheiden; sie in überzeugender
Weise auszuräumen, ist jedoch, so viel ist klar, eine für jede Form der Regularitätstheorie vitale Frage.
Doch ganz abgesehen von diesen dunklen Punkten in der Formulierung von
(2.1) ist leicht einzusehen, daß die Explikation (2.1) nicht adäquat sein kann. Da
gibt es etwa das folgende, nach wie vor sehr wirkungsvolle Beispiel: Bekanntlich
hat jede Krankheitsgeschichte, die mit progressiver Paralyse endet, mit einer luetischen Ansteckung angefangen; die Umkehrung gilt nicht. Nun wird man in jedem
Fall einen solchen Anfang eine Ursache eines solchen Endes nennen wollen; (2.1)
wird dem aber nicht gerecht. Diesem Einwand ist noch leicht durch eine zweite
Explikation Rechnung zu tragen:
(2.2)
Der Sachverhalt A ist eine notwendige Ursache des Sachverhalts B genau
dann, wenn gilt:
(a) A und B liegen beide vor,
(b) A ist früher als B,
(c) es gibt ein wahres Gesetz G derart, daß non-B aus G und non-A logisch folgt.
Der Trick ist also einfach, notwendige und hinreichende Ursachen zu unterscheiden (zu welchem Behufe (2.1) schon vorsorglich das Wort „hinreichend“ enthielt). Hinreichenden Ursachen folgen immer die entsprechenden Wirkungen,
während notwendige Ursachen immer den entsprechenden Wirkungen vorausgehen; die Umkehrungen gelten nicht notwendig. Die luetische Ansteckung ist dann
1
Vgl. dazu die ausführliche Diskussion in Stegmüller (1969), Kap. V.
35
eben eine notwendige Ursache der progressiven Paralyse, so wie ehedem die progressive Paralyse eine hinreichende Ursache von Verblödung gewesen ist. Es
bleibt freilich die Frage zurück, was denn im intuitiven Verständnis Ursachen
schlechthin seien: hinreichende Ursachen, notwendige Ursachen, notwendige und
hinreichende Ursachen oder auch notwendige oder hinreichende Ursachen? Diese
Frage wird sich bei fast allen Kausalitätstheorien erneut stellen und auch uns später noch beschäftigen; wir wollen daher jetzt nicht zu ihr Stellung nehmen.
Ein schwerer wiegendes Ungenügen von (2.1) kommt zum Vorschein, wenn
man komplex verursachte Sachverhalte betrachtet: Es müssen sich schon diverse
Gewitterwolken über einem deutschen Minister zusammenbrauen, bis er zurücktritt. Seine Amtsführung muß in irgendeiner Hinsicht liederlich gewesen sein, dies
muß an die Öffentlichkeit gedrungen sein, die Solidarität von Regierung und
Fraktion zu ihm muß schon brüchig geworden sein, die Opposition darf nicht so
heftig den Rücktritt fordern, daß die Solidarität vollumfänglich wiederhergestellt
wird, und so weiter. Nehmen wir nun dem Beispiel zuliebe an, daß wenigstens das
Gesetz gilt: Immer wenn diese vier Tatsachen zusammentreffen, tritt ein deutscher
Minister zurück. Gemäß (2.1) ist dann aber nur das Zusammentreffen aller vier
Tatsachen (hinreichende) Ursache für den Rücktritt. Das ist jedoch überhaupt
nicht das, was wir sagen wollen. Wir hätten gerne jede einzelne dieser Tatsachen
als eine (nicht: die) Rücktrittsursache. Oder allgemeiner ausgedrückt: Was (2.1)
allenfalls erfaßt, ist, daß A eine (die?) Gesamtursache von B ist, während wir üblicherweise gerade Teilursachen als Ursachen bezeichnen. Man könnte diesen Defekt dadurch zu beheben hoffen, daß man jeden Teil einer Gesamtursache im Sinne von (2.1) gleichfalls zur Ursache erklärt. Doch müßte man dann genau sagen,
was die Teile eines komplexen Sachverhalts wie einer Gesamtursache sein sollen,
und das ist ausgesprochen knifflig. Zu sagen, daß jeder vom Sachverhalt A logisch
implizierte Sachverhalt ein Teil von A sei, tut’s jedenfalls nicht; denn dann wären
auch die Tatsache, daß der Minister seine Geschäfte liederlich oder seine Sekretärin die ihren tadellos geführt hat, und sogar der tautologische Sachverhalt Ursachen seines Rücktritts.
Die Situation verschärft sich noch. Wenn obiges Gesetz gilt, so gilt gewiß auch
das folgende: Immer wenn die vier fraglichen Tatsachen zusammentreffen und
wenn des Ministers Frühstücksei am entscheidenden Morgen zu hart gekocht ist,
tritt er zurück. Auf diese Weise wird das mißratene Ei zum Teil der Gesamtursache und weiter zu einer Ursache des Rücktritts, was man allenfalls bei einem
36
nervlich arg ramponierten Minister ernstlich in Betracht ziehen wollte. Diese
Schwierigkeit heißt das Problem der irrelevanten Gesetzesspezialisierung.1 Eine
so simple Ergänzung, wie sie (2.2) gegenüber (2.1) darstellt, ist hier nicht mehr in
Sicht; ein wesentlich neuer Gedanke scheint nötig. Er liegt bereit und ergibt das,
was ich hier die verbesserte Regularitätstheorie nenne.
Zuvor sei jedoch darauf hingewiesen, daß man mit (2.2) in die reziproken
Schwierigkeiten gerät. Es kann sein, daß non-A ein komplexer Sachverhalt etwa
der Form „A1 und A2 und A3“ sein muß, damit es non-B gesetzesmäßig impliziert.
Z.B. muß unser Minister, um im Amt zu verbleiben, nicht nur von Skandalen der
angedeuteten Art unberührt sein, er muß auch gesundheitlich gut genug beieinander und von sonstigen privaten Malaisen, die ihn zum Rücktritt bewegen, verschont sein, und so weiter. A selbst hätte dann die Form „non-A1 oder non-A2 oder
non-A3“, und nur das ist dann gemäß (2.2) notwendige Ursache von B. So wie uns
(2.1) logisch zu starke Sachverhalte als hinreichende Ursachen verkauft, liefert
uns (2.2) also logisch zu schwache Sachverhalte als notwendige Ursachen. Entsprechend wirkt sich das Problem der irrelevanten Gesetzesspezialisierung hier so
aus, daß eine notwendige Ursache mit allen möglichen irrelevanten adjunktiven
Beifügungen eine notwendige Ursache bleibt.
2.2 Die verbesserte Regularitätstheorie
Der neue Gedanke zur Bewältigung der genannten Schwierigkeiten besteht
darin, die obwaltenden Umstände ins Spiel zu bringen. Bisher mußte ein Sachverhalt A, um eine hinreichende bzw. notwendige Ursache von B zu sein, schon für
sich allein eine hinreichende bzw. notwendige Bedingung für B im Sinne der
Klausel (c) von (2.1) bzw. (2.2) sein. Und dies ersetzen wir nun durch die Anforderung, daß A unter den obwaltenden Umständen eine hinreichende bzw. notwendige Bedingung für B ist. Danach ist z.B., wie erwünscht, die mangelnde Solidarität der Fraktion mit dem Minister eine hinreichende Ursache für seinen Rücktritt. Denn wo’s schon so war, daß seine anfechtbare Amtsführung publik wurde,
die Opposition sich trotzdem maßvoll verhielt, etc., brauchte nur noch die mangelnde Solidarität hinzukommen, damit alles zusammen über das oben angenommene Gesetz seinen Rücktritt impliziert. Ebenso ist das maßvolle Verhalten der
1
Vgl. Salmon (1971), S. 33ff. und Stegmüller (1973), S. 285.
37
Opposition eine hinreichende Ursache für den Rücktritt, da in Bezug darauf die
mangelnde Solidarität zu den obwaltenden Umständen gehört. Schließlich ist z.B.,
gleichfalls erwünscht, die mangelnde Solidarität der Fraktion auch eine notwendige Ursache für den Rücktritt. Denn wo’s schon so war, daß der Minister gesundheitlich topfit war, andere private Gründe für einen Rücktritt nicht vorlagen, etc.,
durfte die Reserviertheit der Fraktion nicht fehlen, um ihn zum Rücktritt zu bewegen - wobei angenommen sei, daß ein Gesetz der Form zutrifft: solange ein Minister gesundheitlich topfit ist, etc., und solange er die Unterstützung seiner Fraktion genießt, tritt er nicht zurück.
Das Problem der irrelevanten Gesetzesspezialisierung drückt uns dann auch
nicht mehr – vorausgesetzt, wir verstehen die Formulierung „A ist unter den obwaltenden Umständen eine hinreichende Bedingung für B“ so, daß darin enthalten
ist, daß die obwaltenden Umstände allein noch keine hinreichende Bedingung für
B bilden. Das zu harte Ei ist dann, wie’s sein soll, keine (hinreichende) Ursache
für des Ministers Resignation. Denn es gibt zwar ein wahres Gesetz, das nämliches Ei zusammen mit den Umständen zu einer hinreichenden Bedingung für den
Rücktritt macht, aber es gibt eben auch ein wahres Gesetz, daß die Umstände allein schon hinreichen läßt.
Halten wir aber erst einmal eine Formulierung der verbesserten Explikation
fest:
(2.3)
Der Sachverhalt A ist eine hinreichende Ursache des Sachverhalts B genau
dann, wenn gilt – wobei U für die bei A und B vorliegenden Umstände stehe:
(a) A und B liegen vor,
(b) A ist früher als B,
(c) es gibt ein wahres Gesetz G derart, daß B aus G, A und U logisch
folgt,
(d) es gibt kein wahres Gesetz G' derart, daß B aus G' und U logisch folgt.
(2.4)
Der Sachverhalt A ist eine notwendige Ursache des Sachverhalts B genau
dann, wenn gilt – wobei U für die bei A und B vorliegenden Umstände stehe:
(a) A und B liegen vor,
(b) A ist früher als B,
38
(c) es gibt ein wahres Gesetz G derart, daß non-B aus G, non-A und U logisch folgt.1
(2.3) und (2.4) drücken dasjenige Verständnis des Ursachenbegriffs aus, welches
nach Hume vermutlich am häufigsten vertreten worden ist. J. St. Mill legt in
(1843), Buch III, Kap. V, §§ 1–5, insbesondere §3, gerade diese Auffassung ausführlich dar. Schopenhauer äußert sich in (1847), auf den ersten Seiten des §20
des vierten Kapitels, weniger gründlich, aber ähnlich. Bei Carnap finden wir in
(1966), Kap. 19, wieder die gleiche Auffassung. Alle drei Philosophen neigen
allerdings dazu, die Gesamtheit aller Ursachen eines Sachverhalts B, also seine
Gesamtursache, als die eigentliche oder wirkliche Ursache von B zu bezeichnen.
Popper hat sich wenig über die Bedeutung des Ursachenbegriffs ausgelassen; aber
aufgrund seiner Äußerungen in (1969), S. 31ff., und in (1972), S. 91, läßt auch er
sich zu den Vertretern von (2.3) rechnen. Hempel (1965), S. 347–352, und Braithwaite (1959), S. 314–318, sind gleichfalls hier einzureihen. Und so weiter. Zu
erwähnen ist schließlich, daß Mackies in (1965) vorgebrachte Theorie der INUSBedingungen, wie auch Sosa (1975), S. 3f., meint, von (2.3) nicht wesentlich verschieden ist.2
All die krittelnden Bemerkungen im Anschluß an (2.1) und (2.2) treffen freilich auch auf (2.3) und (2.4) zu. Welche Sachverhalte für (2.3) und (2.4) überhaupt in Frage kommen, ist nicht klarer geworden, ebensowenig die zeitliche Einordnung von Sachverhalten. Die zeitliche Bedingung (b) ist nach wie vor ganz
naiv. Der Gesetzesbegriff ist immer noch ein entscheidender Schwachpunkt. Und
auch hier ist unklar, ob man Ursachen schlechthin eher durch (2.3) oder eher
durch (2.4) expliziert sehen soll. Doch vereinigen (2.3) und (2.4) noch mehr Plausibilität auf sich als (2.1) und (2.2). Denn all den Beispielen, in denen man (2.1)
und (2.2) schon intuitiv als adäquat empfand, werden auch (2.3) und (2.4) gerecht;
und wie wir sahen, bewältigen (2.3) und (2.4) viele Beispiele, mit denen (2.1) und
(2.2) nicht richtig zu Rande kamen.
1
Es ist bemerkenswert, daß man in (2.4) keine der Klausel (d) von (2.3) entsprechende Bedingung
benötigt. Es folgt nämlich bereits aus (a)–(c) von (2.4), daß es kein wahres Gesetz geben kann, aus
dem mit U non-B folgt: Die Umstände werden, da präsent, durch einen wahren Satz repräsentiert,
non-B durch einen falschen, und dann kann kein Gesetz, welches mit U non-B logisch impliziert,
wahr sein.
2
Das ist zumindest dann so, wenn man den für die Theorie der INUS-Bedingungen wesentlichen
Begriff der hinreichenden bzw. notwendigen Bedingung ähnlich wie in (2.3) und (2.4) als nomologische Implikation versteht. In (1965), Abschn. 4, hat Mackie noch dieses Verständnis; in
(1973), S. 92ff., und (1974), S. 53ff., äußert er sich differenzierter.
39
Dafür haben wir uns ein neues Problem eingehandelt: Die Rede von den bei A
und B vorliegenden Umständen ist alles andere als einwandfrei. So viel ist klar: U
muß durch einen wahren Satz beschrieben werden, und U muß von A und B logisch unabhängig sein, darf also weder A noch non-A und mit A oder mit non-A
weder B noch non-B logisch implizieren. Darüber hinaus ist schon unklar, ob die
Verwendung des bestimmten Artikels zulässig ist, ob es da genau einen Sachverhalt gibt, der die bei A und B vorliegenden Umstände zusammenfaßt. Man könnte
meinen, auf die Kennzeichnung verzichten zu können, indem man (2.3) bzw. (2.4)
zu der Formulierung abändert: „Es gibt einen wahren, von A und B logisch unabhängigen Sachverhalt U derart, daß (c) und (d) von (2.3) bzw. (c) von (2.4) gilt.“
Daß es so nicht geht, hat z.B. Sosa (1975), S. 2, gezeigt. Der allgemeine Grund
hierfür ist, daß Explikationen, die mit Existenzquantifikationen über Sätze oder
Sachverhalte (oder auch über Prädikate oder Eigenschaften) arbeiten, fast immer
schief gehen – einfach weil es viel mehr Sätze oder Sachverhalte gibt, als man
gedacht hat, so daß man dann fast immer einen unintendierten Satz oder Sachverhalt findet, der die fragliche Existenzquantifikation in unerwünschter Weise wahr
macht.
Die obwaltenden Umstände bedürfen also noch einer schärferen Charakterisierung. Und hier keimt ein übler Verdacht auf. Wenn A und B in irgendeiner Weise
auf U Einfluß hätten, dann scheint es ganz unangemessen, zu sagen, U stelle in
Bezug auf A und B Umstände dar. Mit anderen Worten: All die Dinge, die in U
zusammengefaßt sind, müssen anscheinend von A und B nicht nur logisch, sondern auch kausal unabhängig sein. Um die Schwierigkeit an einem Beispiel ganz
klar zu machen: Gewiß hätten wir gerne, daß die rote Ampel eine (unter den obwaltenden Umständen hinreichende) Ursache dafür ist, daß der Autofahrer anhält.
Nun hat aber der Autofahrer bei dieser Gelegenheit aufs Bremspedal getreten; und
wenn wir das zu den Umständen rechneten, dann wäre die rote Ampel doch keine
Ursache des Anhaltens – weil eben der Autofahrer immer anhält, wenn er (lang
genug) das Bremspedal drückt, egal ob die Ampel rot ist oder nicht. Aber natürlich wollen wir die Bremspedaltreterei nicht zu den Umständen rechnen, und der
Grund dafür ist gerade, daß diese Treterei von der roten Ampel kausal abhängt.
Schien die Frage, ob der bestimmte Artikel zu einer Existenzquantifikation abgeschwächt werden müsse oder nicht, noch eine bloße Sache des letzten logischen
Schliffs zu sein, so sind wir jetzt anscheinend in einen echten Zirkel geraten. Und
diese Zirkelgefahr ist viel handfester als die, die sich mit der Verwendung des
40
Gesetzesbegriffs eingeschlichen haben mag. Solange sie nicht ausgeräumt ist, ist
die verbesserte Regularitätstheorie zwar nicht falsch und auch nicht uninteressant,
aber als echte Explikation des Ursachenbegriffs entwertet. Eine wesentliche Anstrengung wird darum später1 gerade darin bestehen, einen Weg aus diesem drohenden Zirkel zu weisen.
So weit die zusätzlichen Schwierigkeiten, die man sich mit der Einführung der
obwaltenden Umstände aufhalst. Doch davon ganz abgesehen, ist auch die verbesserte Regularitätstheorie noch nicht adäquat. In der Tat muß jede Form der Regularitätstheorie fehlschlagen, wenn das folgende Argument überzeugt. Es präsentiert zwei Beispiele, die von ihrer kausalen Struktur her für jede Regularitätstheorie ununterscheidbar sind und die wir aber, ohne zu zögern, kausal unterschiedlich
beurteilen wollen. Hier die frühlingsfrischen Beispiele:2
Immer wenn es Frühling wird, setzt erst in den Bergen die große Schneeschmelze ein, wenig später führen unsere Flüsse Hochwasser, und schließlich blühen allerorten die Kirschbäume. Fügen wir die nicht zu gewaltsame Annahme
hinzu, daß die große Schneeschmelze auch nur dann einsetzt, wenn es Frühling
wird, da nur dann viel Schnee und viel Wärme zusammenkommen. Dies seien
unsere wahren Gesetze. Unsere intuitive Kausalbeurteilung ist klar: Der Frühlingsanfang ist Ursache der Schneeschmelze und auch der Kirschblüte. Die
Schneeschmelze ist Ursache des Hochwassers; daher ist der Frühlingsanfang, zumindest indirekt, auch Ursache des Hochwassers. Aber die Schneeschmelze
(nebst Hochwasser) ist keine Ursache der Kirschblüte, auch wenn sie es von der
zeitlichen Reihenfolge her sein könnte; die Kirschen fangen auch ohne das viele
Wasser an zu blühen.
Gemäß der klassischen wie der verbesserten Regularitätstheorie ergibt sich etwas anderes: Der Frühlingsanfang ist eine notwendige und hinreichende Ursache
für die Schneeschmelze und eine hinreichende Ursache von Hochwasser und
Kirschblüte. So weit, so gut. Gemäß (2.1) ist jedoch die Schneeschmelze hinreichende Ursache sowohl für das Hochwasser wie für die Kirschblüte – letzteres
deswegen, weil obigen Gesetzen zufolge auch das Gesetz gilt: immer wenn die
große Schneeschmelze einsetzt, (hat der Frühling schon begonnen, und somit)
1
S. Abschnitt 6.1, insbes. S. 219f.
Broad (1925), S. 453ff., und Mackie (1974), S. 81ff., diskutieren – letzterer präziser und ausführlicher als ersterer – den gleichartigen Fall der Arbeiter und Sirenen in London und Manchester, den Russell (1921), S. 97, ersonnen hat, und kommen anhand dieses Falls zu den gleichen
negativen Schlußfolgerungen wie ich hier.
2
41
blühen die Kirschen. Und gemäß (2.3) ist die Schneeschmelze entweder für beides, Hochwasser und Kirschblüte, oder für keines hinreichende Ursache – je
nachdem, ob man den Frühlingsanfang zu den obwaltenden Umständen rechnet
oder nicht; und es ist hier kein guter Grund ersichtlich, warum man im Fall der
Kirschblüte den Frühlingsanfang zu den Umständen der Schneeschmelze rechnen
sollte, im Falle des Hochwassers aber nicht.
Machen wir uns die Sachlage noch einmal schematisch ganz klar. Mit A =
Frühlingsanfang, B = Schneeschmelze, C = Hochwasser und D = Kirschblüte
gelten die folgenden Schemata:
C
B
A
(Schema 1)
D
B
A
(Schema 2)
Die positive Zeitrichtung geht dabei von unten nach oben; die dicken Pfeile repräsentieren die oben explizit notierten Gesetze, die dünnen Pfeile logische Folgerungen daraus; die Breitenausdehnung hat nur suggestive Bedeutung. Hier erkennt
man: Schema 1 und Schema 2 sind von ihrer zeitlichen wie von ihrer nomologischen Struktur her (für die dicke und dünne Pfeile gleich viel gelten) identisch.
Die Regularitätstheorie hebt aber in der klassischen wie in der verbesserten Ausprägung nur auf die zeitliche und die nomologische Struktur ihrer Anwendungsfälle ab – letzteres war ja gerade das Kennzeichen der Regularitätstheorie. So ist
es kein Wunder, daß sie zwischen – Schema 1 und Schema 2 keinen Unterschied
machen kann; und das war es ja, was wir festgestellt hatten.
Wo für uns der intuitive Unterschied zwischen Schema 1 und Schema 2 liegt,
ist unschwer auszumachen: Nehmen wir an, der Frühling hätte ordnungsgemäß
begonnen, doch plötzlich weigerte sich der Schnee hartnäckig hinwegzuschmelzen. (Wenn obige Gesetze wahr sind, kann das zwar nicht passieren; aber wir
können es uns trotzdem vorstellen.) Wir wären dann zu Recht über alle Maßen
erstaunt, aber unser Weltbild würde dadurch nicht einstürzen, wir würden nicht
42
sagen: „Wenn das passiert, dann ist nichts mehr sicher in dieser Welt.“ Vielmehr
würden wir differenziert reagieren; mit der Kirschblüte würden wir immer noch
fest rechnen, nur das Hochwasser würde uns ungewiß. Oder auf die Schemata
bezogen: Der dicke Doppelpfeil zwischen A und B wäre in beiden Schemata aufzugeben; aber an dem dicken Pfeil von A nach D würden wir trotzdem festhalten,
während wir den dünnen Pfeil von A nach C zurückziehen würden.
In nuce: Die Regularitätstheorie kann zwischen den verschiedenen Pfeilen keinen Unterschied machen, während wir intuitiv genau das tun und so zu differenzierteren Kausalurteilen kommen, als es in der Regularitätstheorie möglich ist. Es
dürfte klar sein, daß man nach diesem Strickmuster noch viele andere Beispiele
konstruieren kann. In der Tat glaube ich, daß dieses Argument jeder mir bekannten Form der Regularitätstheorie unüberwindliche Schwierigkeiten präsentiert;
wir werden uns nach prinzipiell verschiedenen Explikationsversuchen umsehen
müssen. Die Regularitätstheorie wird deswegen nicht wertlos. Die Bezugnahme
auf die geltenden Gesetze hat ihr bei der Analyse von Kausalaussagen zweifelsohne einen Teilerfolg eingebracht, und bessere Kausalanalysen sollten diesen
Teilerfolg erklären können.
Wie könnte man den Unterschied zwischen Schema 1 und Schema 2 allgemein
erfassen? Man müßte irgendwie stärkere und schwächere gesetzesmäßige Zusammenhänge unterscheiden können. Eine Möglichkeit hierzu fällt gleich ins Auge, wenn wir uns vergegenwärtigen, wie der Unterschied zwischen dicken und
dünnen Pfeilen ursprünglich erläutert war, nämlich mittels des Unterschiedes zwischen explizit formulierten und bloß gefolgerten Gesetzen. Damit könnten wir
unsere differenzierte Reaktion auf die Obstinatheit des Schnees so erklären: Wenn
der dicke Doppelpfeil zwischen A und B verlorengeht, dann natürlich auch die
Folgerungen daraus, aber auch nicht mehr als diese; d.h. der dünne Pfeil von A
nach C geht mit verloren, nicht aber der dicke Pfeil von A nach D. Dieser Lösungsweg läßt sich verallgemeinern und präzisieren, er scheint sogar noch im
Rahmen der Regularitätstheorie zu verbleiben, doch hält sich seine Attraktivität
gleichwohl in Grenzen – wegen einer unschönen Konsequenz: Er macht sich von
der Art und Weise abhängig, in der die Gesetze formuliert werden; wählt man
eine andere, aber logisch äquivalente Formulierung der Gesetze, so gelangt man
diesem Lösungsweg zufolge möglicherweise zu anderen Kausalurteilen. Man gerät so in die unangenehme Lage, sagen zu müssen, welche von den vielen logisch
miteinander äquivalenten Formulierungen für unsere Zwecke die geeignete ist;
43
und das fällt schwer. Im Geiste der Regularitätstheorie ist das alles nicht; diese
wollte ja nicht auf Gesetzesformulierungen, sondern auf Gesetze als objektive
Tatbestände Bezug nehmen – in welcher Weise diese auch ausgedrückt seien.
Wie sonst könnte man einen Keil zwischen Schema 1 und Schema 2 treiben?
Nun – wir haben’s ja schon getan, es war doch ganz einfach. Wenn wir über vergangenen Schnee redeten, so sagten wir: „Wenn der Schnee nicht geschmolzen
wäre, dann hätt’s zwar kein Hochwasser gegeben, aber die Kirschen hätten trotzdem geblüht.“ Und wäre von zukünftigem Schnee die Rede, so würden wir sagen:
„Wenn der Frühling anfinge und der Schnee dennoch nicht schmölze, so gäb’s
zwar kein Hochwasser, aber die Kirschen blühten trotzdem.“ Genau darin, daß wir
in unserer kontrafaktischen und subjunktiven Rede über Hochwasser und Kirschblüte einen Unterschied machen, zeigt sich, daß für uns die Schneeschmelze fürs
Hochwasser, aber nicht für die Kirschblüte ursächlich ist. Mithin sieht es so aus,
als erfordere eine adäquate Kausalanalyse, daß wir diese kontrafaktische und
subjunktive Rede systematisch in den Griff bekommen; und vielleicht ist das sogar alles, was erforderlich ist. Jedoch wenden wir uns damit offenkundig von der
Regularitätstheorie ab und einem ganz neuen Versuch der Kausalanalyse zu.
2.3 Der kontrafaktische Ansatz
Wenn wir uns nun das kontrafaktische Reden gestatten, so scheint eine denkbar
einfache Ursachenexplikation unmittelbar bereitzuliegen:
(2.5)
Der Sachverhalt A ist eine notwendige Ursache des Sachverhalts B genau
dann, wenn gilt:
(a) A und B liegen beide vor,
(b) A ist früher als B,
(c) wenn A nicht der Fall gewesen wäre, dann wäre auch B nicht der Fall
gewesen.
So steht’s etwa auch schon an der besagten Stelle bei Hume. Ihm zufolge „mögen
wir also eine Ursache definieren als: einen Gegenstand, dem ein anderer folgt, ...
wobei, wenn der erste Gegenstand nicht bestanden hätte, der zweite nie ins Dasein
44
getreten wäre.“ (Hume (1777), S. 92f. – die Auslassung enthält gerade das, was
wir schon zitiert haben.)
(2.5) entspricht offenkundig den bisherigen Versuchen zur Explikation von
„notwendige Ursache“. Die entsprechende Explikation von „hinreichende Ursache“ ist nicht ganz so naheliegend, da nun die Formulierung der Bedingung (c)
Schwierigkeiten macht; so etwas zu sagen wie „wenn A der Fall wäre, wäre auch
B der Fall“, ist jedenfalls seltsam, wo schon vorausgesetzt ist, daß A und B beide
der Fall sind. Folgen wir einem sprachlich auch nicht ganz ungezwungenen Vorschlag von Mackie (1974), S. 39:
(2.6)
Der Sachverhalt A ist eine hinreichende Ursache des Sachverhalts B genau
dann, wenn gilt:
(a) A und B liegen beide vor,
(b) A ist früher als B,
(c) wenn B nicht der Fall gewesen wäre, dann wäre A auch schon nicht
der Fall gewesen.
Wieder einige Nebenbemerkungen vorweg: Was immer im Rahmen der Regularitätstheorie an der zeitlichen Bedingung oder am Reden über Sachverhalte vorläufig oder problematisch war, ist es hier natürlich ebenso. Auch ist nach wie vor
unklar, ob der umgangssprachliche Ursachenbegriff eher mit (2.5) oder mit (2.6)
oder mit einer logischen Kombination daraus gleichzusetzen sei.1 Schließlich fällt
auf, daß eine wichtige Errungenschaft aus unserer Diskussion der Regularitätstheorie, die Bezugnahme auf die obwaltenden Umstände, hier unversehens wieder in
der Versenkung verschwunden zu sein scheint. Dem ist nicht so; doch will ich erst
weiter unten darauf zurückkommen.
Zweifelsohne ist aber wieder die Bedingung (c) der kritischste Bestandteil von
(2.5) und (2.6). Der erste Gedanke dazu dürfte sein, daß da wohl der Teufel mit
dem Beelzebub ausgetrieben werden solle. Das ist nur zu verständlich. Denn
wenn der Zusammenhang zwischen kausalen und kontrafaktischen Aussagen so
eng und simpel ist wie in (2.5) und (2.6), so wird alles, was an den ersteren dunkel
und schwierig ist, auch den letzteren zu schaffen machen; und dazu lädt man sich
1
Mackie (1974) diskutiert diese Frage auf den S. 38–49 ausführlich und ohne klare Schlußfolgerung.
45
all die Undurchsichtigkeiten und Vagheiten kontrafaktischer Rede auf, die kausaler Rede nicht anzuhaften scheinen.
Kontrafaktische Aussagen stehen nämlich in denkbar schlechtem Rufe. Kontrafaktisch scheint sich so ziemlich jeder Unfug behaupten zu lassen. Kontrafaktische Dispute machen häufig keinen sonderlich geregelten Eindruck, und um ihre
Entscheidbarkeit ist es schlecht bestellt. In der Tat ist schon die Wahrheitsfähigkeit kontrafaktischer Aussagen zweifelhaft; vom Standpunkt einer naiven Korrespondenztheorie der Wahrheit aus betrachtet, ist jedenfalls sehr rätselhaft, welche
Tatsachen einer wahren kontrafaktischen Aussage entsprechen sollen. Manche
haben sich drum darauf zurückgezogen, statt Wahrheitsbedingungen kontrafaktischer Aussagen lediglich zu untersuchen, unter welchen Bedingungen sie sich
begründet behaupten oder akzeptieren lassen;1 das paßt natürlich schlecht zu (2.5)
und (2.6), wenn man Kausalaussagen für wahrheitsfähig hält. Endlich ist die
kontrafaktische Rede so etwas wie das Schreckgespenst logisch orientierter Philosophie. Das schöne Programm der logischen Positivisten, jeden empirisch sinnvollen Begriff mit den Mitteln der Beobachtungssprache – was immer das genau
ist – explizit zu definieren, scheiterte zuerst an den Dispositionsprädikaten: Prädikaten, die ausdrücken, wie sich ein Gegenstand verhalten würde, wenn er in einer
bestimmten Situation wäre.2 Das mehrfach und auch hier virulente Problem der
Gesetzesartigkeit läuft an genau derselben Stelle auf: Gesetzesartige Allsätze
zeichnen sich gerade dadurch aus, daß sie kontrafaktische Aussagen stützen. Die
Annahme des Allsatzes „alle Eier sind nach acht Minuten hart gekocht“ läßt uns
auch die Aussage „wäre das Ei des Kolumbus acht Minuten lang gekocht worden,
so wäre es hart gewesen“ bejahen; drum ist er gesetzesartig. Hingegen mag der
Allsatz „alle Münchner Trambahnbenutzer sind weniger als hundert Jahre alt“
wahr sein; doch wenn sich Frau Hinterhuber, eine hundertzweijährige Münchnerin, in die Trambahn setzte, so würde sie sich nicht wundersamerweise verjüngen;
vielmehr wäre der Allsatz falsch, und drum ist er nicht gesetzesartig.3 Und so
spukt das Gespenst noch mancherorts, ohne daß man seiner so recht habhaft geworden wäre. Man hat allen Anlaß, dem kontrafaktischen Ansatz zur Kausalanalyse mißtrauisch gegenüberzustehen.
1
So etwa Ellis (1979), S. 27ff., oder auch Putnam (1983), S. 62.
Vgl. Carnap (1936/37) oder Stegmüller (1970), Kap. IV.
3
Vgl. etwa Stegmüller (1983), Kap. V, insbes. Abschn. 1–3.
2
46
Andererseits darf man nicht übersehen, was den kontrafaktischen Ansatz trotzdem reiz- und hoffnungsvoll erscheinen läßt. Es ist ein so elementarer Grund, daß
er meist gar nicht erwähnt wird. Kausalanalysen, die sich auf solche Dinge wie
kausale Notwendigkeit oder Kräfte berufen, führen einen klärungsbedürftigen
Inhalt auf einen vermutlich nicht minder dunklen Inhalt zurück. Demgegenüber
eröffnet der kontrafaktische Ansatz die Möglichkeit, die Bedeutung von Kausalaussagen mittels einer grammatischen Konstruktion zu erklären; und wir haben
die eingefleischte, durch bisherige Erfahrungen keineswegs vernichtete Hoffnung,
daß grammatische Konstruktionen viel eher als Inhaltliches der logischen Analyse
zugänglich sein müßten. Insofern bietet der kontrafaktische Ansatz eine weitere –
nach dem Scheitern der Regularitätstheorie sogar die einzige – Chance auf eine
exakte und auch intuitiv zirkelfreie Explikation des Ursachenbegriffs. Nach obiger
Aufzählung mag diese Hoffnung leicht verzweifelt anmuten.
Jedoch: Defätismus ist hier überhaupt nicht am Platze. Die Diskussion der Regularitätstheorie hat uns wie von selbst dem Schreckgespenst kontrafaktischer
Rede in die Arme getrieben. Aussichtsreiche Wege, die daran vorbeiführen, sind
nicht in Sicht. Also bleibt uns gar nichts anderes übrig, als uns dem Gespenst zu
stellen.
So weit war das nur einigermaßen vage Heuristik, die uns dem kontrafaktischen Ansatz trotz seiner geringen Faßlichkeit gewogen machen sollte. Nun ist zu
betonen, daß das Schreckgespenst schon viel von seinem Schrecken verloren hat.
Vor zehn oder zwanzig Jahren wäre es noch furchterregender beschrieben worden, doch ist mittlerweile eine Flut von Veröffentlichungen über es hereingebrochen, die es zumindest sehr in die Enge getrieben hat. Es ist hier freilich nicht der
Platz für einen auch nur summarischen Überblick über diese Flut.1 Ich will hier
nur kurz einige Namen nennen und dann die Grundgedanken der wichtigsten Ansätze kontrafaktischer Aussagen einführend vorstellen.
Es lassen sich etwa vier Arten von Ansätzen unterscheiden. Da gibt es die, wie
Lewis (1973a) sie nennt, metasprachliche Theorie, die bis in die sechziger Jahre
hinein praktisch den einzigen Ansatz zur Analyse kontrafaktischer Rede bildete;
ihr sind etwa Chisholm (1946), Goodman (1947) und Mackie (1962) zuzurechnen; Rescher (1964) kann man ebensogut als Vorläufer der beiden nächsterwähn1
Einen sehr guten Überblick erhält man durch Lewis (1973a). Die neuere Diskussion ist noch
nicht so lehrbuchartig zusammengefaßt; zu empfehlen wären hier etwa Harper (1980), in rein
formaler Hinsicht Nute (1980), Kap. 3 und 4, und im Deutschen von Kutschera (1976), Kap. 3 und
4.
47
ten Ansätze betrachten. Dann gibt es die sogenannte Ähnlichkeitssemantik, die für
den Diskussions-Boom der letzten Jahre wesentlich verantwortlich ist; ihr gehören
Stalnaker (1968), Stalnaker, Thomason (1970), Lewis (1973a) samt seinen neueren Veröffentlichungen und auch Pollock (1976) zu. Schließlich gibt es die epistemischen Interpretationen, die nach 1965 auftauchten und deren Vertreter
unter anderen Adams (1965, 1975), Ellis (1978, 1979) und Gärdenfors (1979,
1981) und auch Harper (1976) sind. Vom erstgenannten sollte man vielleicht noch
den Ansatz von Kratzer (1981) unterscheiden, den Lewis (1981) Prämissensemantik nennt. Insgesamt ist der Markt aber noch unübersichtlich, und die Übergänge sind fließend, so daß gleichberechtigte Klassifikationen den einen oder anderen Ansatz mehr identifizieren mögen. Doch braucht uns das hier in den Präliminarien nicht zu kümmern. Hier will ich nur auf die beiden erstgenannten Ansätze eingehen. Mein eigenes Heil werde ich später im dritten suchen; er wird im
Abschnitt 5.2 im Detail geschildert und mit den ersten zwei verglichen werden.
Was nun die Analyse kontrafaktischer Aussagen betrifft, so sind im ersten
Schritt unsere Experten noch alle vereint. Kontrafaktische und ähnliche Aussagen
sind reich an Präsuppositionen und Implikaturen. So präsupponiert „wenn A der
Fall gewesen wäre, so auch B“, daß A und B beide nicht der Fall sind; und äußert
jemand eine Subjunktion wie „wenn A der Fall wäre, so auch B“, so implikiert
dies in der Regel, daß er nicht weiß, ob A und B der Fall sind. Ferner beziehen
sich kontrafaktische Aussagen immer auf (relativ zum Äußerungszeitpunkt) vergangene Sachverhalte; um über die Zukunft kontrafaktisch zu reden, muß man
sich – wenn’s überhaupt geht – umständlich ausdrücken – vielleicht so: „A und B
werden nicht der Fall sein, aber wenn A trotzdem der Fall sein würde, dann auch
B“. Umgekehrt fällt es schwer, über die Vergangenheit bloß subjunktiv zu reden;
man wird sich dann mit indikativischen Wenn-dann-Sätzen behelfen. Auch empfindet man die Aussage „wenn A der Fall gewesen wäre, dann wäre B der Fall
gewesen“ in der Regel als zumindest merkwürdig, wenn B zeitlich vor A liegt; die
Einfügung des Wörtchens „schon“ in (2.6), (c), hat diesen Eindruck hoffentlich
gemildert. Wieder anders verhält es sich beim kontrafaktischen und subjunktiven
Reden über zeitlose Sachverhalte. Und eine genauere Analyse umgangssprachlicher, konjunktivischer Wenn-dann-Konstruktionen förderte da vermutlich noch
mehr Eigenheiten zu Tage.
All das empfindet man als lästig, und drum möchte man davon abstrahieren.
Das ist nicht schwer. Man führt eine symbolische Schreibweise, etwa „“, für
48
eine zweistellige Satzverknüpfung ein, die aus zwei Sätzen A und B den Satz „A
B“ erzeugt, und erklärt diese zum eigentlichen Untersuchungsgegenstand. Man
empfiehlt, „A B “ als „wenn A der Fall wäre, so wäre B der Fall“ zu lesen –
denn irgendwie muß man’s ja lesen –, aber nicht gleich umgangssprachlich so zu
verstehen. Vielmehr soll die Bedeutung von „A B“ völlig frei sein von Präsuppositionen und Implikaturen bezüglich der Wahrheit, Falschheit, Bekanntheit und
Unbekanntheit von A und B und bezüglich der zeitlichen Relationen zwischen A
und B und eventuellen Äußerungen von „A B“. Erst zusammen mit geeigneten
solchen Präsuppositionen oder Implikaturen darf man „A B“ in die entsprechende umgangssprachliche Ausdrucksweise überführen.1 Diese Abstraktion
dürfte noch harmlos sein; sie entfernt die Satzverknüpfung „“ nicht allzuweit
von unserem intuitiven Zugriff, auch wenn die Übersetzungsverhältnisse zwischen umgangssprachlichen Wenn-dann-Sätzen und -Sätzen nicht immer klar
sind.
Mit diesem ersten Abstraktionsschritt ist jedenfalls unnötiger Ballast abgeworfen und eine gewisse Vereinheitlichung erzielt worden, die sich als sehr nützlich
erweist. Die Einmütigkeit der Fachleute setzt sich nämlich in einem wichtigen
Punkt fort: Es hat sich so etwas wie ein Standardkalkül für die Logik von „“
herausgeschält, der im Wesentlichen in Lewis’ System VC (Lewis (1973a), S.
132) besteht. Hinsichtlich einiger kleiner Abstriche und Zusätze ist die veröffentlichte Meinung dabei größtenteils indifferent; stärker abweichende Kalküle wurden zwar vorgeschlagen,2 haben aber weniger Anhänger gefunden. Daß dieses
große Maß an Übereinstimmung trotz ganz unterschiedlicher Analyse der Bedeutung von „“ möglich war, ist ein nicht zu unterschätzender Gewinn. Die Situation ist damit ähnlich wie in der Wahrscheinlichkeitstheorie. Was die Interpretation
der mathematischen Wahrscheinlichkeitstheorie anlangt, so ist da die Situation so
unentschieden wie eh und je. Doch wie viele fruchtbare Entwicklungen und wieviel mehr an Klarheit bezüglich dieser Interpretationen verdanken wir der Tatsache, daß die mathematische Struktur des Wahrscheinlichkeitsbegriffs schon lange
im Wesentlichen fixiert ist. Diese Parallele scheint mir überhaupt nicht zufällig zu
sein; im Kapitel 5 wird ihre Herkunft klarwerden.
Bei der Interpretation von „“ ist es aus mit der breiten Einigkeit. Die älteste
und am nächsten liegende Auffassung ist die, wie Lewis (1973a), S. 65, sie nennt,
1
2
So macht es Lewis (1973a), S. 2–4.
Z.B. der Kalkül C2 von Stalnaker (1968) oder der Kalkül SS von Pollock (1976), S. 42f.
49
metasprachliche Theorie. Ihr Grundgedanke ist, daß bei einem kontrafaktischen
Konditional „A B“ immer bestimmte weitere Prämissen im Hintergrunde stehen, mit denen A B logisch impliziert. Oder etwas genauer: Die kontrafaktische
Aussage „A B“ heiße genau dann durch den Schluß von A und A1, ..., An auf B
gestützt, wenn dieser Schluß logisch gültig ist und wenn sich A1, ..., An als zu A
hinzukommende Prämissen eignen. Manche nennen dann „A B“ wahr, wenn es
einen Schluß gibt, der es stützt; andere nennen es behauptbar, wenn man glaubt,
es gebe einen stützenden Schluß; und wieder andere fassen es als elliptische Darlegung eines bestimmten stützenden Schlusses auf.1 Welcher dieser drei Fassungen man auch zuneigt – das Hauptproblem für die metasprachliche Theorie ist
natürlich, genau zu sagen, wann sich eine Aussage als zusätzliche Prämisse für
einen stützenden Schluß eignet.
Zwei Sorten geeigneter Aussagen wurden unterschieden. Zur ersten gehören
solche Aussagen, die in der jeweiligen Äußerungssituation von Sprecher und Hörer als gemeinsames Wissen angenommen sind. Welche Aussagen das jeweils
sind, ist außerordentlich variabel. Wenn ich etwa anfange, „wenn ich an deiner
Stelle wäre ...“, so hängt die Akzeptabilität meiner Fortsetzung ganz davon ab,
wie weit ich mich in die Lage meines Gegenübers hineinversetze, ob ich also von
meinen oder seinen Wünschen und Zielen, von meinen oder seinen finanziellen
Verhältnissen, von meinem oder seinem Charakter, etc. ausgehe; und in der Regel
werde ich durch die Art meiner Fortsetzung oder sonstwie klarmachen, von welchen Dingen ich ausgehe. Mit der starken, situationsbedingten Variabilität dieser
Sorte geeigneter Prämissen ließ sich der schwankende Gebrauch kontrafaktischer
Aussagen ganz gut erklären; aber eben deswegen wurde auch die weitere Untersuchung dieser Art von Eignung als ziemlich hoffnungslos angesehen.
Das Augenmerk war ohnehin auf die zweite Sorte geeigneter Aussagen gerichtet. Dispute über kontrafaktische Aussagen entzünden sich ja meist nicht an
solchen Prämissen, die als gemeinsames Wissen unterstellt wurden, sondern vielmehr an solchen, die bloß als wahr unterstellt wurden. Behaupte ich, der Minister
wäre nicht zurückgetreten, wenn seine Fraktion zu ihm gestanden wäre, so könnte
jemand kontern: „Aber nein, sein Hausarzt hat ihm schon lange dringend zum
Rücktritt geraten.“ Und je nachdem, ob letzteres stimmt oder nicht, wäre meine
kontrafaktische Aussage falsch oder nicht. Allerdings eignet sich nicht jede wahre
Aussage als Prämisse für einen „A B“ stützenden Schluß. Behaupte ich, der
1
So fast wortwörtlich Lewis (1973a), S. 69. Vgl. auch zum folgenden dort S. 65–77.
50
Autofahrer hätte nicht angehalten, wenn die Ampel nicht rot gewesen wäre, so ist
es unzulässig zu kontern: „Aber nein, der Autofahrer hat doch aufs Bremspedal
getreten.“ Das ist deswegen unzulässig, weil der Autofahrer ja auch nicht aufs
Bremspedal getreten hätte, wenn die Ampel nicht rot gewesen wäre. Zur zweiten
Sorte der für die Stützung von „A B“ geeigneten Prämissen gehören also – so
sagte man dann, um einen Namen zu haben – genau die mit A mithaltbaren, wahren Aussagen, wobei natürlich noch zu sagen ist, was Mithaltbarkeit sein soll.1
Aber das Unglück ist schon abzusehen. Wir rennen hier in den gleichen Zirkel, in
den uns schon die obwaltenden Umstände in der verbesserten Regularitätstheorie
gebracht haben. Dort waren die Umstände einer Ursache A (und einer zugehörigen
Wirkung B) gerade die vorliegenden, von A (und B) kausal unabhängigen Sachverhalte; und hier sind die mit einer kontrafaktischen Annahme A mithaltbaren,
wahren Aussagen gerade diejenigen wahren Aussagen, die auch dann, wenn A
wahr wäre, immer noch wahr wären. Mithaltbarkeit läßt sich, so scheint es, nur
wieder mit Hilfe kontrafaktischer Aussagen erläutern. In diesem Zirkel kreist die
metasprachliche Theorie bis heute, eine inhaltlich adäquate und zugleich zirkelfreie Charakterisierung von Mithaltbarkeit hat sich nicht finden lassen.2 Eine befriedigende Explikation kausaler Terminologie liefert uns also auch der kontrafaktische Ansatz, jedenfalls über die skizzierte metasprachliche Theorie, nicht.
Doch dürfte mittlerweile deutlich geworden sein, wieso die in (2.3) und (2.4)
auftauchenden Umstände in (2.5) und (2.6) nicht ausdrücklich zu erwähnen waren; sie sind in der Klausel (c) von (2.5) und (2.6) implizit als weitere Prämissen
des benötigten stützenden Schlusses enthalten. Auch ist zu betonen, daß der
kontrafaktische Ansatz sich unter der metasprachlichen Theorie nicht zur verbesserten Regularitätstheorie zurückentwickelt hat: Wahre Gesetze gehören intuitivem Verständnis nach nicht zu den Umständen einer Ursache, aber nach ihrer
Mithaltbarkeit mit einer kontrafaktischen Annahme läßt sich sehr wohl fragen.
Z.B. wäre in den Schemata 1 und 2 (S. 41) das vom dicken Pfeil von A nach D
repräsentierte Gesetz, aber nicht das vom dünnen Pfeil von A nach C repräsentierte Gesetz mit der kontrafaktischen Annahme, daß der Schnee trotz Frühlingsbeginns nicht schmilzt, mithaltbar. Den Vorteil des kontrafaktischen Ansatzes,
zwischen Schema 1 und Schema 2 unterscheiden zu können, haben wir uns wenigstens erhalten.
1
2
Den Begriff der Mithaltbarkeit oder „cotenability“ hat Goodman (1947) eingeführt
Vgl. Stegmüller (1983), Kap. V, Abschn. 4, und Lewis (1973a), S. 57+69f.
51
Eine konkurrierende Theorie kontrafaktischer Konditionale, die sogenannte
Ähnlichkeitssemantik, fährt prima facie besser. Ihr Grundgedanke läuft so.1 Um
herauszufinden, ob die kontrafaktische Aussage „A B“ gilt oder nicht, muß ich
zuerst – gedanklich – unsere wirkliche Welt, in der non-A gilt, zu einer Welt abändern, in der A gilt, und dann nachprüfen, ob in der veränderten Welt auch B gilt.
Jedoch sind dabei nicht alle möglichen, wilden Änderungen erlaubt; damit könnte
man ziemlich jede kontrafaktische Aussage als wahr erweisen. Vielmehr dürfen
nur die allernotwendigsten, minimalen Änderungen vorgenommen werden, Oder
weniger (gedanken-)experimentell ausgedrückt: „A B“ ist genau dann wahr,
wenn B in all denjenigen Welten wahr ist, die von all den Welten, in denen A
wahr ist, der unseren am ähnlichsten sind. Aus diesem Grundgedanken wurde eine
formal einwandfreie, formale Semantik und darüber eine nützliche und exakte
logische Theorie für kontrafaktische Konditionale entwickelt. Aber ist das auch
als Bedeutungsanalyse erhellend? Positiv fällt auf, daß in der formulierten Wahrheitsbedingung für „A B“ keine kontrafaktischen oder subjunktiven Konstruktionen und auch keine kausalen Ausdrücke vorkommen; in einen Zirkel geraten
wir damit anscheinend nicht. Negativ fällt auf, daß wir die für diese Wahrheitsbedingung entscheidende Wendung, die Rede von der Ähnlichkeit möglicher Welten
mit der unsrigen, intuitiv auch nicht sonderlich gut im Griff haben. Schon Ähnlichkeitsvergleiche zwischen alltäglichen, realen Gegenständen sind häufig eine
schwammige Angelegenheit; umso schwieriger und subjektiver erscheinen Ähnlichkeitsvergleiche zwischen fiktiven und so groß geratenen Gegenständen wie
möglichen Welten.2
Doch dürfen wir uns nicht einmal das bißchen an intuitivem Verständnis, das
wir haben, bewahren. Betrachten wir ein Beispiel von Lewis (1979a): Wenn Reagan am 31.12.81 – weiß der Himmel, warum – im Weißen Haus jenen sagenhaften Knopf, mit dem automatisch die amerikanischen Interkontinentalraketen gestartet werden, gedrückt hätte, dann wäre wahrlich die Endzeit gekommen. Doch
einem ganz naiven Ähnlichkeitsverständnis zufolge wäre die folgende Welt der
wirklichen viel ähnlicher als jene apokalyptische Vorstellung: Reagan drückt
(versehentlich) den Knopf, just zu diesem Zeitpunkt verhindert ein momentaner
Wackelkontakt, daß das Startsignal an die Raketen weiterwandert, es bleibt also
1
Vgl. zum folgenden Lewis (1373a), Abschn. 1.1–1.4.
Diese Kritik wurde verschiedentlich vorgebracht, z.B. in von Kutschera (1976), S. 114f., und
Mackie (1973), S. 88ff.
2
52
alles, wie es war und ist, niemand außer Reagan selbst weiß etwas von dem ominösen Vorfall, und dieser verdrängt ihn auch so schnell wie möglich. Damit bekommen wir aber die falschen kontrafaktischen Aussagen. Es ist die obige kontrafaktische Aussage, die wahr ist, und nicht die Aussage „wenn Reagan den Knopf
gedrückt hätte, hätte es momentan einen Wackelkontakt gegeben“. Oder, mit Lewis’ Worten, ein kleines Wunder ist oft eine größere Abweichung von der Wirklichkeit als der Weltuntergang.
Lewis selbst nimmt uns die Schlußfolgerung aus dem Munde (die „Analyse 2“,
die im Zitat auftaucht, ist gerade die oben formulierte Wahrheitsbedingung für „A
B“): „Wir dürfen nicht damit anfangen, ein für allemal zu entscheiden, was wir
über Ähnlichkeiten von Welten denken, um dann mit diesen Entscheidungen die
Analyse 2 prüfen zu können. ... Vielmehr müssen wir unser Wissen über die
Wahrheit und Falschheit kontrafaktischer Aussagen verwenden, um festzustellen,
ob wir eine bestimmte Ähnlichkeitsrelation – nicht unbedingt die erste, die einem
in den Sinn kommt – finden können, die mit Analyse 2 kombiniert die richtigen
Wahrheitsbedingungen liefert. Diese Kombination ist es, die mit unserem Wissen
über kontrafaktische Aussagen verglichen werden kann, und nicht die Analyse 2
für sich allein. Auf der Suche nach einer Kombination, die dem Vergleich standhält, müssen wir unser Wissen über kontrafaktische Aussagen verwenden, um die
angemessene Ähnlichkeitsrelation in Erfahrung zu bringen – und nicht andersherum.“ (Lewis (1979a), S. 466f.)
Dies halte ich für das klarste Eingeständnis seitens der Ähnlichkeitssemantiker,
daß ihr Verfahren statt in einen formalen in einen intuitiven Zirkel mündet. Um es
wieder zu betonen: Wertlos wird damit die umfangreiche und hier gar nicht erörterte Detailarbeit über kontrafaktische Konditionale überhaupt nicht; den Gewinn,
den so etwas wie ein Standardkalkül kontrafaktischer Konditionale mit sich
bringt, hatte ich ja auch schon herausgestrichen. Nur bei unserer Suche nach einer
Reduktion von Kausalem auf Nicht-Kausales sind wir nach wie vor nicht fündig
geworden.
Das freilich ist traurig genug. Um noch einmal in Metaphorik abzugleiten: Jeder, der sich mit den theoretischeren Produkten unseres Geistes auseinandersetzt,
wird sich am Ende des Eindrucks nicht erwehren können, daß er da dauernd in
einem großen Sumpf herumwatet, ohne jemals wirklich festen Boden unter die
Füße zu bekommen. Den Sumpf trockenzulegen, ist ganz ausgeschlossen (und gar
nicht begehrenswert); aber auch ein sicheres Ufer, von dem aus man feste Wege
53
in den Sumpf bauen könnte, scheint unerreichbar. So verlegt man sich aufs Zweitbeste und versucht, sich in dem Sumpf einzurichten – indem man einige Inseln
etwas befestigt (eine solche Insel wäre der erwähnte Standardkalkül für kontrafaktische Aussagen) oder indem man einige starre Schienen verlegt, auf denen
man sich halbwegs sicher bewegen kann, bis man an ihren Enden wieder in den
Sumpf fällt (eine solche Schiene wäre etwa die angedeutete Ähnlichkeitssemantik,
die kontrafaktische mit Ähnlichkeitsaussagen starr verbindet). Prinzipiell Besseres
scheint utopisch und wird auch hier in dieser Arbeit nicht herauskommen. Aber
selbst wenn wir uns solchermaßen bescheiden, ist der bisherige Ertrag dieser einführenden Darstellung etwas enttäuschend. Die bis jetzt gelegten (oder eigentlich
nur entworfenen) Schienen reichen nur kurze Strecken weit, die kaum aus dem
Sumpfgebiet „Kausalität“ in neue Gebiete hinausführen; insbesondere scheint sich
die Ähnlichkeitsschiene, wie obiges Zitat belegt, gleich wieder in sich selbst zurückzubiegen. Und dieser Zustand läßt sich schon noch verbessern; die später angebotenen Schienen greifen, glaube ich, weiter aus.
2.4 Das probabilistische Paradigma
In unserer vorbereitenden Schilderung fehlt noch ein letzter Ansatz zur Kausalanalyse, der sich wegen der Neuartigkeit der von ihm herangezogenen Mittel mit
den bisher diskutierten Versuchen nicht in eine argumentative Linie bringen zu
lassen scheint. Von Naturgesetzen, kontrafaktischen Aussagen und Ähnlichem ist
da nirgends die Rede, stattdessen immer nur von bedingten und nicht-bedingten
Wahrscheinlichkeiten von Sachverhalten; und nur an diesen soll abzulesen sein,
ob ein Sachverhalt Ursache eines anderen ist. Es geht also, mit anderen Worten,
um einen positiven Beitrag zur Problematik (7) von S. 18ff. Die Motivation hierfür ist begreiflich genug. Nur zu häufig, insbesondere bei komplexen Geschehen,
sind probabilistisch aufgeweichte Begründungen für Kausalbehauptungen die
nächstliegenden oder gar die einzig vorhandenen, während auf tieferliegende Begründungen, die etwa im Sinne der Regularitätstheorie die Behauptung der Existenz geeigneter deterministischer Gesetze einlösen, allenfalls eine vage Hoffnung
besteht. Dies gilt nicht nur für alltägliche Kausalaussagen, sondern auch innerhalb
allen statistisch oder probabilistisch arbeitenden Wissenschaften, denen man
schlecht völlig das Recht absprechen kann, über Kausalbeziehungen zu reden. Die
54
Möglichkeit einer probabilistischen Kausalanalyse hat unter Philosophen in neuerer Zeit Suppes (1970) am eindringlichsten vor Augen geführt, und drum halte ich
mich in meiner Schilderung ganz an ihn. Dabei ist es mir jedoch besonders darum
zu tun darzulegen, daß der Wechsel vom deterministischen zum probabilistischen
Rahmen gar nicht so dramatisch ist, wie es zuerst scheinen mag; vielmehr ähneln
die innerhalb dieser Rahmen jeweils angestellten Überlegungen einander in verblüffendem Maße.
Ohne Umschweife startet Suppes (1970) auf S. 12 mit der Einführung der wegen späterer Modifikationen so genannten Prima-facie-Ursachen. Mit P(A) sei
dabei im weiteren die (absolute) Wahrscheinlichkeit dafür ausgedrückt, daß der
Sachverhalt A vorliegt; P(B | A) gebe die durch den Sachverhalt A bedingte Wahrscheinlichkeit des Sachverhalts B. Woher die Wahrscheinlichkeiten rühren, kann
man nach Suppes offenlassen; sie können aus einer probabilistischen wissenschaftlichen Theorie errechnet sein, sie können durch sorgfältige Statistiken empirisch ermittelte Wahrscheinlichkeiten sein, oder sie können auch bloß unsere
wohlinformierten subjektiven Überzeugungsgrade repräsentieren (vgl. Suppes
(1970), S. 13).
(2.7)
Der Sachverhalt A ist eine Prima-facie-Ursache des Sachverhalts B genau
dann, wenn gilt:
(a) A und B liegen beide vor,
(b) A ist früher als B,
(c) P(B | A) > P(B).1
Suppes macht auf S. 12–21 diese erste Begriffsbildung plausibel. Wir wollen
uns stattdessen die Analogie von (2.7) zur klassischen Regularitätstheorie (2.1)
und (2.2) verdeutlichen: Gemäß (2.7) zeichnet sich eine Prima-facie-Ursache dadurch aus, daß sie die Wahrscheinlichkeit ihrer Wirkung erhöht; mit ihr ist die
Wirkung wahrscheinlicher als ohne sie (man beachte, daß „P(B | A) > P(B)“ und
1
Bei Suppes schaut die Definition etwas anders aus. Bei ihm ist von Ereignissen die Rede; im
Abschnitt 4.4 wird jedoch klar werden, dass diese im Sinne unserer Erläuterungen zur Problematik
(3), S. 12ff., gerade Sachverhalte und nicht Ereignisse sind. – Die zeitlichen Verhältnisse drückt
Suppes über eine zeitliche Indizierung der Sachverhaltsbezeichnungen aus; hier verfahren wir
noch so informell, dass das nicht nötig ist. – Die Bedingung (c) präsupponiert natürlich, dass P(A)
> 0; Suppes formuliert letzteres als gesonderte Bedingung. – Die Bedingung (a) fehlt bei Suppes;
auf S. 40 kommentiert er diesen Punkt und stellt für so etwas wie tatsächliche Verursachung selbst
diese Bedingung.
55
„P(B | A) > P(B | non-A)“ äquivalente Bedingungen sind). Oder um es etwas seltsam auszudrücken: die Prima-facie-Ursache verbessert den Möglichkeitsstatus
ihrer Wirkung. Denn genau dasselbe leistet eine hinreichende bzw. eine notwendige Ursache gemäß (2.1) und (2.2): Aufgrund einer hinreichenden Ursache ist
gemäß (2.1) ihre Wirkung naturgesetzlich notwendig; und daß die Wirkung in
Abwesenheit der hinreichenden Ursache nicht naturgesetzlich notwendig ist, ist in
(2.1) zwar nicht mitformuliert, aber gewißlich mitgedacht (im verbesserten (2.3)
ist dieser Punkt explizit berücksichtigt). Ebenso macht gemäß (2.2) eine notwendige Ursache ihre Wirkung naturgesetzlich möglich; in Abwesenheit der notwendigen Ursache wäre die Wirkung naturgesetzlich unmöglich. Mit anderen Worten:
Eine hinreichende Ursache hebt ihre Wirkung vom Status „unmöglich“ oder
„kontingent“ in den Status „notwendig“, eine notwendige Ursache hebt ihre Wirkung vom Status „unmöglich“ in den Status „kontingent“ oder „notwendig“. Da
es im deterministischen Fall nur die drei Möglichkeitsstatus „unmöglich“, „kontingent“ und „notwendig“ – von unten nach oben – gibt, gab es entsprechend auch
zwei verschiedene Statushebungen zu unterscheiden (alle anderen Statushebungen
lassen sich mit Hilfe der zwei definierten ausdrücken). Im probabilistischen Fall
werden die Möglichkeitsstatus durch Wahrscheinlichkeiten repräsentiert; deswegen nun die unendlich vielen möglichen Statushebungen alle zu unterscheiden, hat
keinen rechten Sinn; es ist vernünftiger, alle möglichen Statushebungen in dem
einen Begriff der Prima-facie-Ursache zusammenzufassen. Der Analogie tut dies
gewiß keinen Abbruch.
Sie setzt sich vielmehr fort: Suppes nennt im wesentlichen zwei Weisen, in denen von (2.7) geleitete Kausalvermutungen zu modifizieren sind; Prima-facieUrsachen können sich zum einen entweder als echte oder als scheinbare und zum
andern entweder als direkte oder als indirekte Ursachen erweisen. Hinsichtlich der
Scheinbarkeit von Ursachen schwankt Suppes unentschieden zwischen zwei Explikationen (vgl. Suppes (1970), S. 21–27):
(2.8)
Der Sachverhalt A ist im 1. Sinne eine scheinbare Ursache des Sachverhalts B genau dann, wenn A gemäß (2.7) eine Prima-facie-Ursache von B
ist und wenn es einen Sachverhalt C gibt derart, daß gilt:
(a) C liegt vor,
(b) C ist früher als A,
56
(c) P(B | A und C) = P(B | C).1
(2.9)
Der Sachverhalt A ist im 2. Sinne eine scheinbare Ursache des Sachverhalts B genau dann, wenn A gemäß (2.7) eine Prima-facie-Ursache von B
ist und wenn es Sachverhalte C1, ..., Cn gibt derart, daß gilt:
(a) C1, ..., Cn sind paarweise logisch unverträglich und zusammen logisch
erschöpfend (d.h. es ist logisch notwendig, daß genau einer der Sachverhalte C1, ..., Cn vorliegt),
(b) die C1, ..., Cn sind alle früher als A,
(c) für alle k = 1, ..., n ist P(B | A und Ck) = P(B | Ck).
Dementsprechend ist A im 1. bzw. 2. Sinne eine echte Ursache von B genau dann,
wenn A eine Prima-facie-Ursache, aber nicht im 1. bzw. 2. Sinne eine scheinbare
Ursache von B ist. Die Explikation indirekter Ursachen (vgl. Suppes (1970), S.
28-32) gleicht (2.9):
(2.10) Der Sachverhalt A ist eine indirekte Ursache des Sachverhalts B genau
dann, wenn A gemäß (2.7) eine Prima-facie-Ursache von B ist und wenn es
Sachverhalte C1, ..., Cn gibt derart, daß gilt:
(a) wie (a) von (2.9),
(b) die C1, ..., Cn sind alle später als A und früher als B,
(c) für alle k = 1, ..., n ist P (B | A und Ck) = P(B | Ck).
Mithin ist A eine direkte Ursache von B genau dann, wenn A eine Prima-facieUrsache, aber keine indirekte Ursache von B ist.
Die intuitive Idee, die hinter (2.8) steht, ist leicht angegeben: Wo ein Sachverhalt, der (a)–(c) von (2.8) genügt, schon vor A der Fall war, da verbessert A, entgegen dem ersten Anschein, gar nicht den Möglichkeitsstatus von B; der Anschein
der Verbesserung ergab sich nur, weil man die Gegenwart von C nicht berück-
1
Dies ist nicht exakt die Definition 2 von Suppes (1970), S. 23. Bei Suppes fehlt die Bedingung
(a) – vermutlich, weil er bei (2.7) auch schon (a) nicht gefordert hat –, so dass er letztendlich so
etwas wie potentielle Scheinbarkeit potentieller Prima-facie-Ursachen expliziert. Geht es jedoch
um tatsächliche Scheinbarkeit tatsächlicher Prima-facie-Ursachen, so darf meines Erachtens neben
(2.7), (a), auch (2.8), (a), nicht fehlen; denn welche Relevanz sollte ein nicht vorliegendes C für
die tatsächliche Ursachenbeziehung zwischen A und B haben? – Stattdessen fordert Suppes, dass
P(B | A und C) ≥ P (B | A) – mit so wenig an Begründung, dass ich diese Bedingung hier weggelassen habe.
57
sichtigt hatte. (2.9) ist dann einfach eine Verschärfung von (2.8): Um zu wissen,
daß A im 1. Sinne eine scheinbare Ursache von B ist, muß man von einem Sachverhalt C mit den Eigenschaften (b) und (c) von (2.8) das empirische Wissen haben, daß er tatsächlich vorliegt. Für die Scheinbarkeit im 2. Sinne hingegen ist
solch empirisches Wissen nicht mehr nötig; weiß man, daß A im 2. Sinne eine
scheinbare Ursache von B ist, so weiß man schon aus logischen Gründen, daß es
einen Sachverhalt gibt, der (a)–(c) von (2.8) erfüllt. Von daher scheint es auch
angemessen zu sagen, daß A im Fall von (2.8) de facto und im Fall von (2.9) notwendigerweise eine scheinbare Ursache von B ist.
Aber vertiefen wir uns nicht in Details der Adäquatheit von (2.8) und (2.9);
(2.8) und (2.9) wie leider die gesamte Kausalitätstheorie von Suppes sind so vorläufig, daß ein Feilen am Detail ganz verfrüht wäre. Machen wir uns lieber klar,
daß der Fortschritt von (2.7) zu (2.8) dem von der klassischen zur verbesserten
Regularitätstheorie entspricht: (2.8) verbessert (2.7) – so kann man auch sagen –
just durch die Berücksichtigung der obwaltenden Umstände. Eine Prima-facieUrsache ist scheinbar, wenn Umstände vorliegen, unter denen sie den Möglichkeitsstatus ihrer Prima-facie-Wirkung doch nicht verbessert, und sie ist echt, wenn
die Umstände nicht so sind. Letzteres kopiert gerade die Bedingungen (c) und (d)
von (2.3), die für den dortigen deterministischen Fall sichern, daß eine hinreichende Ursache auch unter den vorliegenden Umständen den Möglichkeitsstatus
ihrer Wirkung anhebt. Die Analogie ist nicht perfekt: Von so etwas wie Primafacie-Ursachen ist in (2.3) und (2.4) nicht die Rede; in (2.8) werden die Umstände
zeitlich vor der Prima-facie-Ursache angesiedelt, während (2.3) und (2.4) in dieser
Hinsicht offen sind; wenn man’s genau nimmt, ist eine Prima-facie-Ursache gemäß (2.8) merkwürdigerweise auch dann echt, wenn sie unter den Umständen den
Möglichkeitsstatus ihrer Prima-facie-Wirkung senkt; und so weiter. Nichtsdestoweniger ist der Grundgedanke in beiden Fällen wieder der gleiche.
Die Definition indirekter Ursächlichkeit gleicht der scheinbarer Ursächlichkeit
im 2. Sinne1 – bis auf einen wesentlichen Punkt: Die gegenüber (2.7) zusätzlich
berücksichtigten, möglichen Sachverhalte C1, ..., C n liegen nun alle zeitlich zwischen der Ursache A und der Wirkung B und sollen deshalb nicht mehr als mögliche Umstände in Frage kommen; vielmehr läuft, so ist der Gedanke, die Kausalkette von A nach B durch eines der C1, ..., Cn, und zwar durch dasjenige, welches
tatsächlich eingetreten ist. Daß A in Anbetracht dieser C 1, ..., C n den Möglich1
Suppes nennt keine Gründe, wieso er (2.10) analog zu (2.9) statt zu (2.8) eingerichtet hat.
58
keitsstatus von B nicht mehr hebt, besagt dann nur dies: Wo die Kausalkette schon
bei einem der C1, ..., Cn angelangt ist, hängt ihre weitere Fortsetzung nicht mehr
von ihrer Herkunft ab. Für den Verlauf der Kausalkette ist A trotzdem mitverantwortlich, und daher wird A’s Wirksamkeit auf B dadurch nicht nichtig, sondern
nur indirekt.
Untersuchen wir nun nicht, inwieweit diese Vorstellung durch (2.10) angemessen ausgedrückt ist. (Z.B. folgt aus (2.10) nicht, daß A Prima-facie-Ursache des
tatsächlich eingetretenen Ci ist, und auch nicht, daß dieses Ci Prima-facie-Ursache
für B ist.) Notieren wir vielmehr, daß die hier gezogene Unterscheidung zwischen
scheinbaren und indirekten Ursachen – die mit (2.8) bzw. (2.9) und (2.10) vermutlich noch nicht adäquat gefaßt ist, aber doch sich auf diesem Wege fassen zu
lassen scheint – gerade die Unterscheidung ist, an der die verbesserte Regularitätstheorie gescheitert ist. Denn im dort abgehandelten Frühlingsbeispiel war der
Frühlingsbeginn wegen der dadurch einsetzenden Schneeschmelze indirekte Ursache des Hochwassers und die Schneeschmelze aufgrund des Frühlingsbeginns
bloß scheinbare, d.h. gar keine Ursache der Kirschblüte. Was uns im deterministischen Rahmen zum kontrafaktischen Ansatz nötigte, ist also im probabilistischen
Rahmen schon in Suppes’ Theorie berücksichtigt.
Wo man sich mit solchen Phänomenen innerhalb des probabilistischen Rahmens nicht so schwer zu tun scheint wie innerhalb des deterministischen, liegt der
Gedanke nahe, letzteren in den ersteren einzubauen, indem man deterministische
Zusammenhänge durch 0-1-Wahrscheinlichkeiten ausdrückt. So könnte man anfangen zu definieren, daß A genau dann eine hinreichende Ursache von B sei,
wenn A eine Prima-facie-Ursache von B ist und P(B | A) = 1 gilt;1 und ferner, daß
A genau dann eine notwendige Ursache von B sei, wenn A eine Prima-facieUrsache von B ist und P(B | non-A) = 0 gilt;2 und man könnte so versuchen, den
deterministischen Fall probabilistisch aufzurollen. Wie sich jedoch in Otte (1981)
zeigt,3 fährt man damit um keinen Deut besser als mit der klassischen Regularitätstheorie.4
Die Hoffnung, einen Rahmen auf den anderen zurückzuführen, wird sich also
nicht erfüllen. Die Ähnlichkeit der innerhalb beider Rahmen angestellten Überle1
Vgl. Suppes (1970), S. 34.
Vgl. Otte (1981), S. 171.
3
Er selbst zeigt es nicht.
4
Der tiefere Grund hierfür wird im Kapitel 5 klarwerden und erst mit den Mitteln von Abschnitt
5.4 behoben werden können.
2
59
gungen scheint es mir jedoch wünschenswert zu machen, bei einer Kausalitätstheorie die beiden Rahmen zwar getrennt, aber doch so parallel wie irgend möglich
zu behandeln. Daran will ich mich halten, und es wird sich dann herausstellen,
daß dem deterministischen und dem probabilistischen Rahmen doch eine gemeinsame Struktur zugrunde liegt.
KAPITEL 3
EINE SAMMLUNG MÖGLICHER KAUSALVERHÄLTNISSE
Bevor wir weiter Theorie treiben, sollten wir einen gründlichen Blick auf die
Phänomene werfen. Die im vorangegangenen Kapitel gewählte Prozedur, einen
Explikationsversuch mit einem gerade einschlägigen Einwand zu konfrontieren
und dementsprechend zu verbessern, war doch einigermaßen unsystematisch und
womöglich ziemlich naiv, insofern da wichtige oder neuartige oder verwickeltere
Möglichkeiten von Kausalbeziehungen noch ganz außer acht gelassen worden
sein könnten. In der Tat sind in der Literatur diverse Beispiele von bisher nicht
diskutierter Struktur, mit unterschiedlichen argumentativen Zwecken, angeführt
worden. Wir sollten uns jedenfalls einen möglichst systematischen Überblick über
solche Beispiele verschaffen, damit wir besser wissen, was alles von einer Kausalitätstheorie zu bewältigen ist.
Wie bekommen wir diesen Überblick? Nun, betrachten wir einfach zwei Sachverhalte A und B, die sich beide realisiert haben, und zwar A früher als B; und
fragen wir uns, in welcher Kausalbeziehung A zu B stehen kann. Banalerweise
kann A Ursache von B sein oder auch nicht; aber was mehr läßt sich sagen? Wir
hatten schon mehr gesagt; A kann Teil- oder Gesamtursache von B sein; jedoch
war diese Unterscheidung wenig aufregend, da wir unter Ursachen gemeinhin
immer Teilursachen verstehen und eine Gesamtursache sich bloß dadurch auszeichnet, daß es neben ihr keine weiteren (Teil-) Ursachen gibt. Dann kann A eine
hinreichende oder eine notwendige Ursache von B sein; innerhalb des deterministischen Rahmens war das eine wichtige Unterscheidung. Ferner kann A eine direkte oder eine indirekte Ursache von B sein – eine weitere wichtige Unterscheidung, die uns im Kapitel 6 noch ausführlicher beschäftigen wird. Und schließlich
kann A scheinbare oder echte Ursache von B sein; aber das bringt gar nichts Neues, denn scheinbare Ursachen sind ja nichts anderes als Ursachen. Was mehr als
das fällt uns ein? – ? –
62
Die Fragestellung war wohl nicht so ergiebig. In der Tat ist zu beobachten, daß
in den Beispielen in der Literatur immer drei oder mehr Sachverhalte eine Rolle
spielen; die möglichen Kausalbeziehungen zwischen zwei Sachverhalten treten
eben erst dann so richtig zutage, wenn man einen dritten auf unterschiedliche
Weise intervenieren läßt. Ergiebiger dürfte also die Fragestellung sein, welche
Möglichkeiten für die Kausalverhältnisse zwischen drei Sachverhalten bestehen –
fürwahr sehr ergiebig: Mit einer schon übertrieben peniblen Klassifikation werden
wir später auf 416, also mehr als vier Milliarden Möglichkeiten kommen. Eine
wahrhaft erschreckliche und auch nur deswegen genannte Zahl, die eine leichte
Erklärung hat; wir werden nämlich am Ende 16 Fälle unterscheiden, von denen
jeder 4 Realisierungsweisen hat, und zwar jeweils unabhängig von den anderen,
was dann eben 416 Kombinationen gestattet. Nicht alle Fälle und auch nur die wenigsten Kombinationen bringen kausaltheoretisch etwas Neues, so daß der Schrecken nicht den Mut zu rauben braucht; überhaupt werden wir auf diese Zahlenspiele erst im zusammenfassenden Abschnitt 3.4 zurückkommen.1
Wir wollen also in allem weiteren über drei Sachverhalte A, B und C reden, die
alle drei bestehen, also Tatsachen darstellen; non-A, non-B und non-C sind demnach nicht realisierte Sachverhalte. Ferner sei angenommen, daß A früher als B
und B früher als C ist. Damit werden die möglichen Kausalverhältnisse zwischen
gleichzeitigen Sachverhalten explizit außer Betracht gestellt; mit diesem Spezialproblem wollen wir uns jetzt noch nicht belasten. Erst recht wollen wir die exotische Möglichkeit eines zeitlich rückwärts gerichteten Kausaleinflusses außer acht
lassen; das ganz Gewöhnliche wird schon verwickelt genug sein.
In der Tat erleichtert es vielleicht die Orientierung in der folgenden Diskussion,
wenn wir das Verständnis des Ursachenbegriffs, welches am besten auf diese Diskussion paßt, gleich vorweg angeben: Danach ist A eine Ursache von C genau
dann, wenn es eine zu C führende Kausalkette gibt, die sich realisiert hat und A
als relevantes Glied enthält in dem Sinne, daß sie, wenn A nicht vorgelegen hätte,
sich nicht mehr realisiert hätte. Als neue Ursachenexplikation taugt diese Erläuterung natürlich nicht, weil sie ihrerseits Kausales und Kontrafaktisches enthält;
aber expliziter als das bloße Reden von Ursachen ist sie schon. Wichtiger ist mir
im Moment jedoch, daß diese Erläuterung nicht so verstanden wird, als solle mit
ihr die folgende Diskussion normiert werden. Vielmehr bitte ich, so weit wie
1
Die im folgenden diskutierten Fälle sind auch weniger und andere als die sechzehn, von denen
gerade die Rede war.
63
möglich mit einem naiven oder intuitiven Ursachenverständnis an das Folgende
heranzugehen; die Erläuterung beinhaltet dann die Hypothese, daß sie diesem intuitiven Verständnis gerecht wird.
Das bedarf zweier Ergänzungen: Erstens ist darauf hinzuweisen, daß das Folgende bezüglich der Unterscheidung zwischen hinreichenden und notwendigen
Ursachen völlig neutral ist. Die zu C führende Kausalkette in obiger Erläuterung
kann also sowohl eine sein, die C notwendigerweise nach sich zieht, als auch eine,
die C erst möglich macht. Nur sollte man durchweg das gleiche Verständnis anlegen. Ebenso ist es sinnvoll – und womöglich am leichtesten durchzuhalten, Ursachen immer als zugleich notwendig und hinreichend zu verstehen.
Zweitens ist zu betonen, daß auf eine restriktive Eigenheit des umgangssprachlichen Gebrauchs des Ursachenbegriffs keine Rücksicht genommen werden soll:
nämlich die, nur so etwas wie interessante, auffällige, informative oder von Artgenossen ausgelöste Ursachen als Ursachen zu bezeichnen und andere Ursachen
stillschweigend zu übergehen oder zu Neben- oder Randbedingungen, Umständen
oder dergleichen zu diminuieren. Um’s am Beispiel zu sagen: Wenn ein argloser
Fußgänger von einem Blumentopf zu Boden geschmettert worden ist, so wird
gemeinhin als eine, ja sogar die Ursache davon kolportiert werden, daß der schusselige Fensterputzer den Blumentopf aus dem Fenster gestoßen habe. Aber natürlich ist da auch die Erdanziehungskraft am Werke, auch wenn sich das von selbst
versteht, wo wir uns noch nicht im schwerelosen Raum eingerichtet haben. Auch
gehört als Ursache dazu, daß die Luftmoleküle in üblicher Konfusion durcheinanderwirbelten und nicht unversehens in einmütiger Aufwärtsbewegung den Blumentopf in die Lüfte trugen. Und erst recht gehören die verschiedenen Aufenthaltsorte und -zeitpunkte des Blumentopfs zwischen dem Fensterbrett und dem
Kopf des Fußgängers zu den Ursachen, auch wenn der Blumentopf da keine Wahl
mehr hatte, nachdem der Fensterputzer ihn angeschubst hatte. Doch hätte er, von
mir aus grundlos, Luftsprünge gemacht oder sich gar dematerialisiert, so wäre das
Unglück nicht passiert; und so ist das Unglück unter anderem deswegen passiert,
weil dann und dann dort und dort ein Blumentopf in der Luft war.
Natürlich erzählen wir einander nur die überraschenden oder diejenigen Ursachen, mit denen wir uns das Übrige ausmalen können; aber das ist ein Phänomen,
das für den Kommunikationstheoretiker interessant ist. Natürlich suchen wir
möglichst nach Ursachen, die wir manipulieren können; aber das ist ein technologisches Problem. Und natürlich fragen wir uns jeweils insbesondere, ob irgendje-
64
mandes Fahrlässigkeit oder Übelwollen im Spiele war; aber dann verfolgen wir
juristische, moralische oder erzieherische Interessen. Klar bei all dem scheint mir
dies: daß es für den Kausaltheoretiker keinen Sinn hat, auf solche Erwägungen
Rücksicht zu nehmen, daß er alle Sachverhalte erst einmal gleich anschauen muß.
Zwar resultiert daraus ein ungewohnt weiter Ursachenbegriff. Doch unzulässig
weit ist er nicht, und vor allem hat der Kausaltheoretiker nur so die Chance, das
Material zu liefern, an dem dann Technologen, Juristen, Moralisten, Erzieher,
Kommunikanten und sonstige Leute gemäß ihren Interessen Wichtiges und Unwichtiges unterscheiden können. Daher wollen wir uns in dieser ganzen Arbeit an
das ungewohnt weite Ursachenverständnis halten, wonach auch noch so selbstverständliche oder weit hergeholte Randbedingungen oder Zwischenphasen von Kausalprozessen für deren Ergebnis ursächlich sind.1
3.1 Die wichtigsten Fälle
Solcherweise präpariert, können wir uns daranmachen, die möglichen Kausalbeziehungen zwischen A, B und C zu durchforsten. Es fängt ganz harmlos an:
Fall 1: Der offenbar trivialste Fall ist der, daß keinerlei Ursachenbeziehungen
zwischen A, B und C bestehen, daß also weder A für B noch A oder B für C ursächlich ist. Wir wollen diesen wie auch die späteren Fälle diagrammatisch veranschaulichen; die Diagramme dürften im wesentlichen von sich aus verständlich
sein, auch sollen sie keinem tieferen Zweck als dem der bildlichen Einprägsamkeit dienen. Hier schaut es noch karg aus:
1
Um von diesem als unangenehm empfundenen Standpunkt wieder wegzukommen, haben verschiedene Autoren den Begriff des kausalen Feldes oder Rahmens eingeführt. Zu dem kausalen
Feld eines bestimmten Vorgangs sollen all die Nebenbedingungen gehören, welche man auszugliedern wünscht. Das Feld selbst wird dann nicht als Ursache dieses Vorganges bezeichnet;
vielmehr wird der Ursachenbegriff auf das Feld relativiert, und die (wenigen) Ursachen des Vorgangs, an denen man interessiert ist und die man drum nicht ins Feld abgeschoben hat, sind dann
Ursachen in diesem relativen Sinn. Vgl. dazu etwa Anderson (1938), Mackie (1965), S. 2–49f.,
und (1974), S. 35f., von Wright (1974), Abschn. III.5, oder Suppes (1970), S. 74.
65
C
B
A
(Fall 1)
Zur Exemplifizierung des Falls 1 wird man am ehesten an drei Sachverhalte
denken, die überhaupt nichts miteinander zu tun haben: etwa „die deutsche Elf hat
bei der WM in Argentinien kläglich abgeschnitten“ für A, „1980 erlitt der FlipperMarkt schwere Einbrüche“ für B und „gestern bin ich mit dem linken Fuß zuerst
aufgestanden“ für C. Wir werden jedoch später ganz klar erkennen, daß der leere
Raum im obigen Diagramm trügerisch ist, daß auch Beispiele anderer Struktur
zum Fall 1 gehören. Um einen Hinweis zu geben: Es könnte sein, daß eine Kausalkette von A zu non-C führt, die sich aber, womöglich völlig unerklärlicherweise, nicht vollständig realisiert hat. In diesem Fall wären A und C nicht ohne jeglichen kausalen Zusammenhang, auch wenn darin A gewiß keine Ursache von C ist.
Später werden wir die im Fall 1 liegenden Möglichkeiten systematischer aufzählen können. Hier sei nur vorsorglich ein Merkspruch festgehalten: nämlich daß es
für die Kausalanalyse gewiß wichtig ist, festzustellen, auf welche verschiedenen
Weisen es einem Sachverhalt möglich ist, eine Ursache eines anderen zu sein, und
aber ebenso wichtig, festzustellen, auf welche verschiedenen Weisen es einem
Sachverhalt möglich ist, keine Ursache eines anderen zu sein.
Fall 2: Der nächste Fall ist kaum weniger trivial. Hier ist ein Sachverhalt Ursache
eines andern, während der dritte beziehungslos daneben steht. Offenkundig gibt es
dafür drei Möglichkeiten, so daß wir die Unterfälle a–c unterscheiden können:
C
C
B
A
(Fall 2a)
C
B
A
(Fall 2b)
B
A
(Fall 2c)
66
Ein Beispiel etwa für den Fall 2b erhalten wir, wenn wir im obigen Beispiel zum
Fall 1 für C „1982 reisten die deutschen Kicker besonders motiviert nach Spanien“ nehmen. Doch läßt sich vorerst zu diesem Fall nicht viel sagen. Was sich
etwa hinter dem Pfeil von A nach B im Fall 2a verbergen kann, ist noch um keinen
Deut klarer als in der allerersten, unergiebigen Fragestellung, die sich nur auf
zwei Sachverhalte bezog. Und der leere Raum in den Diagrammen ist noch ebenso trügerisch wie im Fall 1. Das wird sich aber bessern.
Fall 3: Interessanter wird’s bei zweipfeiligen Diagrammen. Als erste solche Möglichkeit sei der Fall betrachtet, wo A sowohl für B wie für C Ursache, B aber für C
nicht Ursache ist – im Diagramm:
C
B
A
(Fall 3)
Beispiele dafür finden sich zuhauf; das meistzitierte sei gleich angeführt: Über
München sinkt der Luftdruck rapide (A), drum steht mein Barometer bald auf
Gewitter (B), und selbiges prasselt auch kurz drauf los (C).1 Ein anderes Beispiel
hatten wir schon im Rahmen der Diskussion der verbesserten Regularitätstheorie
mit der Triade aus Frühlingsanfang, Schneeschmelze und Kirschblüte. Und gerade
deswegen, weil er der Regularitätstheorie Schwierigkeiten macht, wird dieser Fall
so häufig diskutiert.
Diese Sachlage sei hier unter einer Fragestellung beleuchtet, die sich später als
sehr wichtig herausstellen wird und der wir daher hier bei jedem zur Sprache
kommenden Fall nachgehen wollen – nämlich: Welchen Täuschungen über das
Kausalverhältnis von zweien der drei Sachverhalte können wir uns hingeben, solange wir den dritten nicht in Betracht gezogen haben? Oder besser: Über welche
solche Täuschungen kann uns die explizite Berücksichtigung des dritten Sachver1
Vgl. etwa Scriven (1959), S. 480, Salmon (1971), S. 54f., oder Stegmüller (1973), S. 333ff.
67
halts aufklären? Es sei also jeweils das folgende Gedankenexperiment angestellt:
Zunächst stellen wir uns vor, wir ließen etwa den Sachverhalt B ganz außer acht.
Das soll nicht einfach heißen, daß wir nicht wüßten, ob B oder non-B vorliegt, und
uns auch nicht darum kümmerten, dies herauszufinden; es soll vielmehr heißen,
daß wir überhaupt nicht daran denken, daß sich B oder non-B in der Welt realisieren kann. Mit dieser beschränkten Sicht hegen wir bestimmte Vermutungen über
die Kausalbeziehungen zwischen A und C. Und nun, so stellen wir uns weiter vor,
fällt uns siedend heiß ein, daß es ja noch die Sachverhalte B und non-B gibt, die
etwas mit A und C zu tun haben könnten. Wir stellen fest, daß es B ist, welches
vorliegt, und untersuchen die Kausalbeziehung zwischen A, B und C. Daraus
könnte sich ergeben, daß sich die Kausalbeziehung zwischen A und C anders darstellt als zuvor; und genau diesen Möglichkeiten wollen wir nachspüren.
Dabei ist klar, daß wir ebenso gut A oder C probeweise außer acht lassen können. Ferner ist klar, daß es witzlos ist, C probeweise zu vernachlässigen. Denn
wie immer sich das Kausalverhältnis zwischen A und B uns darstellt, C wird uns
da nicht eines Besseren belehren – einfach weil C gemäß unseren zeitlichen
Annahmen nicht Glied einer durch A führenden und in B mündenden Kausalkette
sein kann.1 Aber in Bezug auf die Verursachung von C durch A bzw. B probeweise B bzw. A außer Rechnung zu stellen, ist beides aufschlußreich.
Die im Moment interessante Möglichkeit – um wieder zu unserem Fall 3 zurückzukehren – ist die Vernachlässigung von A. Zweierlei ist dann denkbar. Es
kann einerseits sein, daß uns gar kein Zusammenhang zwischen B und C aufgefallen ist, solange A vernachlässigt ist, und daß wir dann mehr oder weniger überrascht feststellen, daß sich beide von derselben Ursache, nämlich A, herleiten;
aber unsere Meinung über den Kausalzusammenhang zwischen B und C haben
wir dann nicht geändert. Andererseits besteht die Möglichkeit – und die ist interessanter –, daß uns B für C ursächlich zu sein schien und die wahren Verhältnisse
erst mit der Berücksichtigung von A zutage treten. Ein prominentes Beispiel dafür
liefern Blitz und Donner: Nichts war natürlicher als die Annahme, daß der Blitz
das nachfolgende Getöse verursache, auch wenn vielleicht nicht klar war, wie das
genau zugehen sollte. Heute wissen wir, daß akustische wie visuelle Erscheinung
beide Folgen ein und derselben Sache, nämlich einer plötzlichen Entladung sind -
1
Genaugenommen stimmt das so nicht. Natürlich können uns zukünftige Geschehnisse über vergangene Kausalzusammenhänge aufklären – aber dann nur über verschlungene induktive Pfade,
die wir hier getrost beiseite lassen können.
68
und zwar getrennte Folgen; das Licht erzeugt den Lärm nicht. Im Pantoffelkino
wird uns Derartiges sogar vorsätzlich vorgegaukelt: Da müht sich der Sangeskünstler vor der Kamera redlich ab, und natürlich denken wir, das Produkt davon
schalle aus unserem Fernseher. Dabei ist’s nur Playback; von der Regie wird ein
Band abgefahren, das einerseits über den Kanal zu uns wandert und andererseits
ins Studio zum Künstler, der dazu Passendes mimt.
Hier haben wir also eine erste Irrtumsmöglichkeit: B scheint Ursache von C zu
sein; in Wahrheit sind B und C zwei getrennte Wirkungen eines dritten, früheren
Ereignisses A.1 Diese Sachlage hat Namen bekommen: B ist hier keine Ursache
von C, sondern – so heißt es dann – bloß ein Symptom von C oder ein Epiphänomen.2 Manche reden hier davon, daß B von C bzw. in seiner kausalen Relevanz
für C durch A abgeschirmt werde.3 Genau dieser Irrtumsmöglichkeit erliegt die
Regularitätstheorie, zumindest in ihrer klassischen Form. Denn wenn zwischen A
und B bzw. C, oder besser, zwischen A- und B- bzw. C-Artigem regelmäßige Abfolgen bestehen, die die Regularitätstheorie kausal deutet, so besteht im allgemeinen auch zwischen B- und C-Artigem eine regelmäßige Abfolge, die die Regularitätstheorie dann auch kausal deuten muß – was oft plausibel ist, manchmal aber
eben ein Irrtum. In der Tat ist das klassische Exempel, mit welchem Reid Humes
Theorie in Verlegenheit brachte, von genau dieser Struktur.4 Hume zufolge müßte
jede Nacht den darauffolgenden Tag verursachen. Natürlich ist das Unfug; beides
wird von der Erddrehung verursacht. –
Der Vollständigkeit halber ist nachzutragen, daß weitere Irrtumsmöglichkeiten
bisher noch nicht aufgetreten sind. Dies gilt für den Fall 1: Vor der Berücksichtigung von B ist unser Kausalurteil bezüglich A und C ebenso negativ wie danach.
Natürlich können wir uns – um das noch einmal zu betonen – darin irren, aber ein
B, welches weder mit A noch mit C etwas zu tun hat, kann uns diesen Irrtum nicht
aufzeigen. Dasselbe gilt für den Fall 2. Betrachten wir etwa den Fall 2b: Wenn wir
eine Ursache A von C entdecken und B beziehungslos danebenstehen sehen, so
können wir auch vor der Entdeckung keine Beziehung zwischen B und C vermutet
1
Hier habe ich zum ersten Mal in diesem Kapitel vom Ereignis A statt vom Sachverhalt A gesprochen. Dies werde ich im folgenden noch häufiger tun – nur der stilistischen Variation wegen und
nicht, um einen inhaltlichen Unterschied zu markieren. Genaugenommen ist da natürlich ein Unterschied (vgl. S. 12f.); wir werden ihm im Abschnitt 4.4 nachgehen.
2
Vgl. Salmon (1971), S. 54f., oder Lewis (1973b), S. 566.
3
Vgl. Salmon (1971), S. 55, oder Stegmüller (1973), S. 333.
4
S. Reid (1785), Essay VI, Ch. VI.
69
haben.1 Und ebenso ändert sich an unserer Vermutung über A und C nichts, wenn
wir zusätzlich ein beziehungslos danebenstehendes B betrachten. Das Entsprechende gilt auch für den Fall 3: An unserer Kausalvermutung über A und C ändert
sich auch dann nichts, wenn wir eine weitere, getrennte Wirkung B von A in Betracht ziehen, die mit C nichts zu tun hat.
All diese Irrtumsmöglichkeiten und -unmöglichkeiten möge der Leser ruhig
noch einmal selbst überdenken und beurteilen; denn meine Ausführungen sind
hier gar nicht als Behauptungen ex cathedra gedacht, sondern vielmehr als, wie
ich glaube, vernünftige intuitive Urteile, denen dann eine Kausalitätstheorie so gut
wie möglich gerecht zu werden hat.
Fall 4: Ein anderes zweipfeiliges Diagramm ist dieses:
C
B
A
(Fall 4)
Hier ist A Ursache von B und B seinerseits Ursache von C. Und A soll keine Ursache von C sein? Das erscheint paradox; es soll auch gar nicht behauptet werden.
Vielmehr würden wir folgendes sagen: A hat hier sehr wohl eine Wirkung auf C,
die eben über B läuft – und zwar ausschließlich über B in dem Sinne, daß gilt: Ist
die von A zu C führende Kausalkette erst einmal bei B angelangt, so ist es für ihren weiteren Verlauf ganz irrelevant, von wo genau sie herkommt. D.h., B hat sich
zwar realisiert, weil A sich realisiert hat; aber wo sich B schon realisiert hat, ist für
C nur mehr dieses B, aber nicht seine Herkunft relevant.
Das ist eine ganz und gar übliche Sachlage. Um ein banales Beispiel zu geben,
das später noch in verschiedenen Variationen wiederkehren wird: Der Schalter
steht auf „an“ (A), drum fließt Strom durch die Leitung (B), und deswegen brennt
die Lampe (C). Hier gilt eben, daß die Lampe brennt, wenn nur – aus welchen
1
Vgl. dazu aber die Kombination 2b+8b, S. 81ff.
70
Gründen auch immer – der Strom fließt, auch wenn er de facto nur fließt, weil der
Schalter an ist.
Eine bündige, eingebürgerte Bezeichnung für diese Sachlage ist, daß sich A
hier als eine indirekte Ursache von C erweist,1 und wir werden diesem Sprachgebrauch folgen. Zuweilen ist hier auch davon die Rede, daß B A vor C bzw. in
seiner kausalen Relevanz für C abschirme.2 Aber wo auch schon der Fall 3 gelegentlich unter dieser Bezeichnung läuft, ist diese Ausdrucksweise nicht so günstig.3
Sollten wir also noch einen Pfeil in unser Diagramm für den Fall 4 eintragen,
um die indirekte Ursächlichkeit von A für C anzudeuten? Nein; besser ist es, die
Pfeile in den Diagrammen entsprechend zu verstehen, nämlich so, daß sie nur die
direkten Kausalbeziehungen zwischen A, B und C angeben; indirekte Beziehungen können wir dann daraus entnehmen. Das soll nicht heißen, daß etwa der obige
Pfeil von B zu C bedeute, daß B in irgendeinem absoluten Sinne direkte Ursache
von C sei. Natürlich wird in der Regel die Verbindung von B zu C durch weitere
Sachverhalte vermittelt und insofern indirekt sein. Nur haben wir solche Sachverhalte nicht explizit in die Betrachtung einbezogen, und so lange können die Pfeile
innerhalb der beschränkten Sachverhaltsmenge {A, B, C} als direkte Ursachenbeziehungen gelten. Aufgrund unserer zeitlichen Annahmen ist damit auch klar, daß
innerhalb dieses beschränkten Rahmens nur zwischen A und C eine indirekte Ursachenbeziehung bestehen kann.
Diese Relativierung des Begriffs der direkten Ursache ist wesentlich. Denn ob
er in einem absoluteren Sinne überhaupt Sinn macht, ist durchaus fraglich. Wenn
wir etwa kontinuierliche Kausalprozesse betrachten – und in physikalischen Anwendungen tun wir das dauernd –, so scheint es da keine direkten Ursachen mehr
zu geben, einfach weil zwischen zwei Zuständen eines solchen Prozesses unendlich viele andere liegen und so kein Zustand einen unmittelbaren Vorgänger besitzt.4 Doch mit dem relativierten Begriff der direkten Ursache geraten wir in keine solchen Schwierigkeiten.
1
Bei unserer Schilderung von Suppes’ Theorie im Abschnitt 2.4 war diese Wendung ja auch schon
aufgetaucht.
2
Vgl. Salmon (1971), S. 75, oder (1981), S. 61.
3
In der Tat ist der Abschirmungsbegriff noch vieldeutiger. Wir werden im nächsten Abschnitt
ausführlicher darauf eingehen.
4
Mit der gleichen Überlegung greift Russell (1912/13), S. 135, die Vorstellung von der Kontiguität von Ursache und Wirkung an.
71
Überlegen wir uns noch die im Fall 4 liegenden Irrtumsmöglichkeiten: Vor der
Berücksichtigung von A werden wir das Verhältnis zwischen B und C nicht anders
beurteilen als hinterher; die Entdeckung, wo B herrührt, kann wohl nichts an unserer Einschätzung der Wirkungen von B ändern. Mit A liegt es anders. Hier können
wir schon vor der Berücksichtigung von B A für eine direkte Ursache von C
gehalten haben; mit der Entdeckung von B finden wir dann nur genauer heraus,
auf welche Weise A für C ursächlich ist. Es ist aber auch denkbar, daß wir die
Verbindung zwischen A und C zunächst nicht sehen und erst mit Hilfe des Zwischenschrittes B zusammensetzen können. Hier haben wir also eine neue Irrtumsmöglichkeit: Es kann passieren, daß verwickelte Kausalbeziehungen erst,
nachdem sie in kleinere Stücke zerlegt wurden, als solche erkennbar werden.
Fall 5: Dem dritten zweipfeiligen Fall, welcher schon ausgefallener ist, sei noch
ein ganz normaler Fall vorangestellt. In ihm sind A und B auch beide Ursachen
von C, aber nicht so schön geordnet wie im Fall 4, sondern indem sie zusammenwirken, ohne daß ein Kausalzusammenhang zwischen ihnen bestünde. Ein beliebtes Beispiel dafür ist der Autounfall, wo körperliche Abgeschlagenheit und
psychischer Streß des Fahrers, abgefahrene Reifen und miserabler Straßenzustand,
Regen und Düsternis und dergleichen schauerliche Dinge mehr zusammenkommen, damit es kracht. Das Streichholz, welches zu seiner Entzündung nicht nur
die entsprechende Temperatur, sondern auch das entsprechende Quantum Sauerstoff braucht, gehört auch hierher. Diese Sachlage ist eigentlich immer gegeben;
es dürfte schwerfallen, eine Wirkung zu finden, zu der nicht zwei verschiedene
Ursachen zusammengewirkt haben. Am suggestivsten erschien mir dieses Diagramm:
C
B
A
(Fall 5)
72
Wer will, mag hierin A und B als Teilursachen von C bezeichnen. Aber da dies
gerade die übliche und auch von der Umgangssprache als solche anerkannte Weise ist, eine Ursache zu sein, werde ich diesem Sprachgebrauch nicht folgen – zumal hinter dieser Bezeichnung die uneingelöste und vermutlich vergebliche Hoffnung steht, der Begriff der Gesamtursache sei klarer und leichter explizierbar als
der der (Teil-) Ursache.
Auch hier können wir uns täuschen: Zwar können wir A schon bei Vernachlässigung von B für eine Ursache von C halten und dann merken, daß B dabei mitgespielt hat. Aber ebensogut kann es sein, daß uns die Wirksamkeit von A für C erst
dadurch auffällt, daß wir A als mit B zusammenwirkend sehen. Und bezüglich B
liegt der Fall symmetrisch. Dies stellt also eine dritte Irrtumsmöglichkeit dar, welche durch die folgende phantastische, einst in den Zeitungen kolportierte Geschichte belegt sei: Zu ihrer großen Bestürzung brachte eine weiße Frau ein
Mischlingskind zur Welt (C). Sie hatte im entsprechenden Zeitraum mit ihrem,
ebenfalls weißen Ehemann geschlafen (B), was dieser nicht bestritt, aber, wie sie
immer wieder beteuerte, mit niemand anderem. Das mochte ihr niemand glauben
– der Ehemann schon gar nicht, der daraufhin die Scheidung einreichte. Im anhängigen Prozeß kam man dem Geheimnis auf die Spur: Kurz vor dem Beischlaf
mit seiner Frau war der Mann bei einer Prostituierten, und dort war sein unmittelbarer Vorgänger ein Neger (A). Auf solch verschlungenen Wegen erwies sich B
dann doch als Ursache von C. Natürlich unterlaufen einem solche Irrtümer umso
leichter, je exotischer die zunächst außer acht gelassenen Sachverhalte sind.
Fall 6: Der dritte zweipfeilige Fall wird durch das folgende Diagramm dargestellt:
C
B
A
(Fall 6)
Auch hier sind A und B beide Ursachen von C, aber nicht als zusammenwirkende,
sondern jedes für sich, unabhängig vom andern. A hätte also genausogut fehlen
können, B hätte dann immer noch C herbeigeführt, und vice versa. Mit anderen
73
Worten: Es führt eine Kausalkette von A zu C, die mit B nichts zu tun hat, und
eine zweite von B zu C, die mit A nichts zu tun hat, und beide führen gleichzeitig
C herbei; dies wird dadurch angedeutet, daß zwei Pfeile bei C enden. Das klassische Beispiel hierfür ist die Füsilierung, wo der Todeskandidat von allen Soldaten
des Kommandos gleichzeitig erschossen wird.1 Weitere Beispiele finden sich am
ehesten dort, wo man nach dem Motto „doppelt genäht hält besser“ vorgeht.
Passenderweise heißt diese Situation der Fall symmetrischer Überbestimmtheit.
Man mag einwenden, daß dieser Fall eigentlich gar nicht vorkomme, daß es praktisch ausgeschlossen sei, daß zwei verschiedene Kausalketten exakt gleichzeitig
bei C eintreffen; selbst bei obiger Füsilierung werde ja wohl eine Kugel den anderen etwas voraus sein. Und dann, so mag man weiter argumentieren, ist nur die
zuerst bei C ankommende Kausalkette für C ursächlich; die andere ist es nicht; sie
wäre es nur gewesen, wenn sie nicht zu spät gekommen wäre. Diese Situation
wird häufig als ein Fall asymmetrischer Überbestimmtheit bezeichnet, welche wir
unten (S. 81ff.) ausführlicher diskutieren wollen. Hier sei nur entgegnet, daß man
in der Tat viele Fälle anscheinend symmetrischer Überbestimmtheit durch genauere Spezifizierung der zeitlichen Verhältnisse in Fälle asymmetrischer Überbestimmtheit umwandeln kann. Doch ist durchaus fraglich, ob diese genauere Spezifizierung der zeitlichen Verhältnisse immer möglich ist – wann genau stirbt ein
Mensch? –, und ob sie immer den gewünschten Erfolg hat – was ist an exakter
Gleichzeitigkeit undenkbar? Man sollte deshalb den Fall 6 nicht von vorneherein
ausschließen.
Dennoch bereitet dieser Fall Unbehagen; man wäre ihn lieber los. Warum?
Weil große intuitive Unsicherheit darüber herrscht, wie man ihn kausal beschreiben soll. Das hat einen einfachen Grund: Der kontrafaktische Ansatz (vgl. S.
43ff.), d.h. die Gleichsetzung von „A ist Ursache von C“ mit „wenn A nicht passiert wäre, so wäre C auch nicht passiert“, ist uns schon so selbstverständlich, daß
sie, fürs erste, gar nicht mehr erhellend ist. Doch will hier die Gleichung nicht so
recht aufgehen. Denn im gegenwärtigen Fall ist es ganz bestimmt falsch, daß C
nicht passiert wäre, wenn A nicht passiert wäre. Hält man an der Gleichung fest,
so müßte man also sagen, daß A hier keine Ursache von C sei und B auch nicht;
das erscheint seltsam. Und die Gleichung aufzugeben, ist auch ein unbequemer
Schritt – womit das Dilemma perfekt ist.
1
Loeb (1974) bringt noch eine Reihe weiterer Beispiele.
74
Mackie (1965), S. 251, schließt, daß unser normaler Ursachenbegriff solche
Fälle nicht klar regle und daß wir ihn daher nach unserem Gutdünken auf solche
Fälle ausdehnen könnten. Das ist plausibel. Nur haben wir kaum Wahlmöglichkeiten. Die Regelung, daß hier weder A noch B eine Ursache von C sei, ist intuitiv
seltsam – wir wollen ja gewiß nicht sagen, daß C hier unverursacht sei – und geriete auch mit dem bald zu besprechenden Fall 7 in einen gewissen Konflikt (vgl.
S. 78). Eine andere Möglichkeit wäre, daß man nur von dem Bündel aus A und B
sagt, es verursache C, ohne dieses Bündel aufzuschnüren.1 Aber „Bündel“ ist unscharf. Versteht man es konjunktiv, sagt man also, nur der Sachverhalt A-und-B
verursache C, so denkt man dabei eher an den Fall 5 als an den Fall 6. Es adjunktiv zu verstehen, also zu sagen, nur der Sachverhalt A-oder-B verursache C, erscheint auch merkwürdig. Mir kommt es am natürlichsten vor, so zu reden, wie
wir es am Anfang getan haben: A und B sind beide Ursachen von C. Und will man
die Situation klarstellen, so setze man hinzu, daß C durch A und B kausal überbestimmt sei. Dann kann es keine Mißverständnisse mehr geben. Diese Redeweise
fügt sich am besten zu unserer späteren Theorie, und auch die zu Beginn dieses
Kapitels, S. 62, gegebene Erläuterung des Ursachenbegriffs paßt darauf.2
Schließlich passt auch unsere Einstellung bezüglich der Irrtumsmöglichkeiten
für den Fall 6 dazu: Solange B außer Betracht bleibt, wird A für uns eine Ursache
von C sein, und zwar auf besonders unproblematische Weise. Mit der Berücksichtigung von B entdecken wir dann die kausale Überbestimmtheit von C. Es
scheint mir da intuitiv klar zu sein, daß wir diese Entdeckung nicht als Aufklärung
eines Irrtums über das Kausalverhältnis zwischen A und C bewerten würden, sondern nur als einen qualifizierenden Zusatz; und drum empfiehlt es sich, A auch
nach dieser Entdeckung als eine Ursache von C gelten zu lassen. So schwerwiegende Irrtumsmöglichkeiten wie in den vorangegangenen Fällen gibt es hier also
nicht. –
Bevor wir mit ganz neuen Fällen fortfahren, wollen wir zu der Beobachtung
innehalten, daß sich mit den bisherigen Fällen auch schon eine Reihe von Kombinationsmöglichkeiten angehäuft haben. Denn im Prinzip lassen sich die einfachen
1
Vgl. Mackie (1974), S. 47.
Vom theoretischen Standpunkt aus sind diese Erwägungen natürlich nicht so wichtig. Wichtig ist
für eine Kausalitätstheorie allein, dass sie die drei sachlichen Möglichkeiten – „C ist von A und B
überbestimmt“, „C ist von A und B verursacht, aber nicht überbestimmt“ und „C ist von A und B
weder verursacht noch überbestimmt“ – angemessen unterscheiden und behandeln kann. Mit dieser Einstellung geht auch Loeb (1974) an das Problem kausaler Überbestimmtheit heran.
2
75
Pfeile vom Fall 2 und der gegabelte Pfeil vom Fall 5 auf 16 verschiedene Weisen
zwischen A, B und C verteilen, von denen wir bisher 8 durchgesprochen haben.
Dabei ergibt sich jedesmal eine andere, wenn auch kausaltheoretisch gesehen
nicht unbedingt neue Sachlage. Wir wollen es uns daher ersparen, die fehlenden
Möglichkeiten in extenso zu diskutieren. Nur bei drei Kombinationen sei erläutert,
inwiefern sie sich auf subtile Weise von den bisherigen Fällen unterscheiden.
Die Kombination 2b + 5: Sie ist durch das folgende Diagramm gekennzeichnet:
C
B
A
(Kombination 2b + 5)
Hier wirken also A und B über eine Kausalkette zusammen auf C ein, während A
daneben noch seine private Kausalverbindung zu C hat. Hierfür, wie für manches
Kommende, fällt mir nur noch ein künstliches Beispiel ein: Zu einer Glühlampe C
mögen zwei Stromleitungen führen. Die eine Leitung steht genau dann unter
Strom, wenn der Schalter A an ist; damit die andere Strom führt, müssen hingegen
dieser Schalter A und ein weiterer Schalter B an sein. Wenn nun beide Schalter an
sind und die Glühlampe C brennt, so liegt meines Erachtens gerade die kausale
Konstellation der Kombination 2b + 5 vor.
Wesentlich daran ist, daß es sich hier ebenfalls um einen Fall kausaler Überbestimmtheit handelt, der sich aber vom Fall 6 unterscheidet; denn B spielt hier nicht
so eine unabhängige Rolle wie im Fall 6, während A hier auf doppelte Weise für C
ursächlich ist. In der Tat würde der Terminus „asymmetrische Überbestimmtheit“
hier viel besser passen als auf die unten diskutierten Fälle 2c + 8a und 2b + 8b (S.
81ff.), für die er im Umlauf ist.
Natürlich kann man sich hier noch mehr als im Fall 6 darüber streiten, ob man
B hier überhaupt noch als Ursache von C bezeichnen soll. Wieder von den Irrtumsmöglichkeiten her argumentierend, neige ich zu einer positiven Antwort.
Denn wenn wir zunächst nur das Zusammenwirken von A und B kennen, B drum
76
als Ursache von C verstehen und nun zusätzlich die private Verbindung von A zu
C entdecken, so würden wir, glaube ich, wieder nicht sagen, wir hätten uns über B
geirrt. Aber letztlich hängt nichts an solchen terminologischen Fragen; entscheidend ist, daß wir die sachlichen Möglichkeiten auseinanderhalten.1
Die Kombination 2a + 5: Eine wiederum sehr häufige Sachlage ist diese:
C
B
A
(Kombination 2a + 5)
Das Autounfallbeispiel vom Fall 5 läßt sich leicht dementsprechend abwandeln:
Jemand ist psychisch elend beieinander (A), drum betrinkt er sich (B), und erst
beides zusammen macht ihn so unaufmerksam, daß er die Kontrolle über sein
Fahrzeug verliert (C). Und weitere Beispiele sind nicht schwer zu finden.
Wichtig erscheint mir an dieser Kombination, daß sie nicht mit dem Fall 4
verwechselt werden darf. Denn dort galt: Wenn B erst einmal passiert ist, ist es für
C ganz unwesentlich, daß B von A herrührte. Hier ist das nicht so; hier schafft sich
A gewissermaßen das geeignete Umfeld, in oder mit dem es dann C herbeiführt.
Drum sollte man A hier auch nicht aufgrund dieser Konstellation als indirekte
Ursache von C bezeichnen. (Das schließt natürlich nicht aus, daß A aufgrund anderer, hier nicht erwähnter Sachverhalte eine indirekte Ursache von C ist; die im
Fall 4 betonte Relativierung der Begriffe der Direktheit und Indirektheit ist immer
zu beachten.)
1
Diese Kombination macht Loebs (1974)-Analyse kausaler Überbestimmtheit Schwierigkeiten.
Denn gemäß Loebs Explikationen ist B hier weder eine Ursache noch eine „C-condition“ für C;
d.h. B ist hier im gewöhnlichen Sinne nicht-ursächlich für C. Das erscheint mir unangemessen.
77
Die Kombination 2a + 6: Das einschlägige Diagramm ist hier:
C
B
A
(Kombination 2a + 6)
Auch dieser Fall ist denkbar: Betrachten wir wieder die eine Lampe mit den zwei
Stromzuführungen; die eine Leitung führe genau dann Strom, wenn der Schalter A
an ist, die andere genau dann, wenn der Schalter B an ist. Zusätzlich existiere eine
mechanische Kopplung, durch die man mit dem Schalter A auch den Schalter B
anmacht. Der Sachverhalt, daß der Schalter A zum Zeitpunkt t angeschaltet wird,
ist dann Ursache dafür, daß der Schalter B zum Zeitpunkt t + ε angeschaltet ist
(wobei ε die zeitliche Verzögerung der mechanischen Vorrichtung darstellt); und
durch beides ist der Sachverhalt, daß die Lampe zum Zeitpunkt t + ε + ε' brennt,
kausal überbestimmt (wobei ε' die Dauer ist, die der Strom für die B-Leitung
braucht; die A-Leitung kann man ja gerade so lang machen, daß der Strom darin
die Dauer ε + ε' braucht, bis er bei der Lampe ist).
Vom Fall 4 unterscheidet sich diese Kombination dadurch, daß hier A nicht nur
über B indirekte Ursache von C, sondern unabhängig von B auch noch direkte
Ursache von C ist. Und von der Kombination 2a+ 5 ist sie ebenso verschieden wie
der Fall 6 vom Fall 5.
Nach all diesen Ausführungen dürfte nicht überraschen, daß auch das folgende
Diagramm realisierbar ist:
C
B
A
(Kombination 2a + 5 + 6)
78
Doch gehört dieser Fall, in dem A auf dreierlei Weise für C ursächlich und C gar
doppelt überbestimmt ist, wohl schon ins Kuriositätenkabinett.
3.2 Außerkraftsetzungen und Relais-Funktionen
Alle bisherigen Fälle zeichneten sich dadurch aus, daß sich in ihnen die von A
oder B zu C führenden Kausalketten, soweit vorhanden, auch realisiert haben. Das
wird nun anders.
Fall 7: Wem wäre etwa nicht schon die folgende Geschichte passiert? Meine
Stammkneipe ist mir momentan verleidet, weil ich einer gewissen, dort verkehrenden Person partout nicht zu begegnen wünsche. Also wechsle ich das Lokal
(A). Die andere Person jedoch, von ähnlichen Ängsten geplagt, meidet gleichfalls
die Stammkneipe und verfällt fatalerweise auf dasselbe Lokal wie ich (B). Die
Geschichte möge noch gut ausgehen, aus irgendwelchen Gründen bleibe uns die
peinliche Begegnung erspart (C) – etwa weil ich mich in einem Nebenraum niedergelassen habe; aber daran, daß wir beide dasselbe Lokal wählten, hat’s nicht
gelegen, daß die Begegnung vermieden wurde.
Ich habe hier also den Fall im Auge, wo sich A und B in ihrer Wirksamkeit für
C gegenseitig aufheben – im Diagramm:
C
B
A
(Fall 7)
Hier wäre A mit non-B Ursache für C gewesen – in der Weise, in der im Fall 5 A
und B tatsächlich Ursachen von C sind –, und ebenso wäre B ohne A Ursache für
C gewesen. Nun haben sich aber A und B beide ereignet, und so sind sie beide
keine Ursachen von C. In der Tat ist aufgrund des Diagramms auch rätselhaft,
wieso C trotzdem passiert ist. Dafür müssen entweder andere, im Diagramm nicht
79
eingezeichnete Sachverhalte gesorgt haben; oder das Vorliegen von C ist womöglich etwas Irreguläres, Akausales.
Der Fall 7 ist keineswegs ungewöhnlich. In der Medizin gibt’s Beispiele dafür
zuhauf, und alle Geschichten, die nach dem Muster „viele Köche verderben den
Brei“ gestrickt sind und trotzdem gut ausgehen, funktionieren ebenso. Was an ihm
interessant ist, ist vor allem der Vergleich mit dem Fall 6. In kausaler Hinsicht ist
er vom Fall 6 offenkundig ganz verschieden. In kontrafaktischer Hinsicht ähneln
jedoch die beiden Fälle einander insofern, als in beiden die normale kontrafaktische Aussage gilt: „Wenn A bzw. B nicht passiert wäre, wäre C trotzdem passiert.“ Ein Unterschied ergibt sich erst bei untypischen kontrafaktischen Aussagen
– etwa bei der Aussage „wenn C nicht passiert wäre, so hätten schon vorher A und
B beide nicht passieren dürfen“, welche im Fall 6 wahr und im Fall 7 falsch ist.
Wenn wir also später auf den Spuren des kontrafaktischen Ansatzes wandeln,
werden wir darauf achten müssen, die Fälle 6 und 7 auseinanderzuhalten.
Fall 8: Die zwiefache Aufhebung von Fall 7 kann auch einfach vorliegen; dies ist
sogar der einfachere Fall. Im Diagramm sieht das so aus:
C
C
B
A
B
A
(Fall 8a)
(Fall 8b)
Im Fall 8a wäre also A ohne B Ursache von C gewesen; aber B kommt dazwischen und hindert die von A nach C führende Kausalkette an ihrer weiteren Realisierung. Oder, wie wir auch sagen können: B setzt A in Bezug auf C außer Kraft.
So etwas passiert laufend. Der Hobbygärtner hat sorgfältig alle Vorbereitungen
zum Rasensprengen getroffen (A). Da platzt der Wasserschlauch (B). Wasser bekommt der Rasen trotzdem (C) – dank Petrus. Der Fall 8b ist ebenso zu beschreiben. Vielleicht sollte man hier nicht sagen, daß A dazwischenkommt, sondern
eher, daß der Boden für B nicht bereitet war. Aber jedenfalls wird B von A außer
Kraft gesetzt.
80
Im Fall 8 sind also A und B beide keine Ursachen von C. Und wie im Fall 7
bleibt aufgrund des Diagramms unerklärt, wieso C überhaupt passiert ist. Der
Unterschied zum Fall 7 ist bloß der, daß hier das „wäre Ursache gewesen, wenn“
nur einseitig gilt. In der Tat hätten wir den Fall 7 auch als die Kombination 8a +
8b darstellen können. Anzumerken ist noch, daß die Fälle 7 und 8 eine erste Demonstration des Merkspruchs vom Fall 1 sind, daß die verschiedenen Weisen,
keine Ursache zu sein, auch zu beachten sind. Spezialfälle des Falls 1 sollen die
Fälle 7 und 8 trotzdem nicht sein, weil der Fall 1 so gedacht war, daß da bezüglich
A und B nicht einmal ein „wäre Ursache gewesen, wenn“ gilt.
Vergegenwärtigen wir uns wiederum die Irrtumsmöglichkeiten, die hier reziprok zu denen im Fall 5 sind. In den Fällen 7 und 8a kann es einerseits sein, daß
wir die Kausalverbindung, die A zusammen mit non-B zu C hat, gar nicht gesehen
haben; und da sich diese Verbindung gar nicht realisiert, haben wir uns auch nicht
getäuscht (was die Ursächlichkeit von A für C betrifft). Andererseits kann es aber
auch sein, daß wir insgeheim non-B für bestehend angenommen oder gar die Abhängigkeit der A–C-Kausalverbindung von non-B überhaupt nicht erkannt haben
und drum A für eine Ursache von C halten, und dann täuschen wir uns gründlich.
Entsprechend können wir uns im Fall 8b irren. Da drückt z.B. der im Fahrstuhl
Eingeschlossene verzweifelt auf den Notrufknopf (B), und – siehe da – die Retter
nahen bald (C); natürlich wegen B, wie der Eingeschlossene glaubt. Aber der Notruf war kaputt (A); andere, die vergeblich auf den Aufzug warteten, haben die
Helfer geholt. Diese Täuschung ist besonders beliebt, weil C ja in diesen Fällen
passiert und sich damit unsere Kausalhypothese über B bzw. A bestätigt.
Mit den Fällen 7 und 8 entstehen auch neue Kombinationen. Ein besonders
schönes Stück für unser Kuriositätenkabinett ist dies:
C
B
A
(Kombination 6 + 7)
Alles geht – die Stromkabel liegen schon wieder zur Exemplifizierung bereit.
Doch es gibt wichtigere Fälle:
81
Die Kombinationen 2a + 8:
C
C
B
B
A
A
(Kombination 2a + 8a)
(Kombination 2a + 8b)
In der ersten Kombination bewirkt A seine eigene Außerkraftsetzung in Bezug auf
C; in der zweiten bewirkt A B und setzt es gleichzeitig in Bezug auf C außer
Kraft; und natürlich ließe sich der Fall 2a auch mit dem Fall 7 kombinieren. Diese
Fälle sind durchaus üblich. Die Kombination 2a + 8a ist eine rudimentäre Beschreibung negativer Rückkoppelung: Non-C sei irgendein aufrecht zu erhaltender
Zustand, A ein störender Einfluß und B der Mechanismus zur Aufrechterhaltung
von non-C, der von A eingeschaltet wird und A ausschaltet. Die Kombination 2a +
8b liegt immer dort vor, wo B ein erwünschter Zustand ist, der aber die unangenehme Nebenwirkung C zeitigt; also muß man Maßnahmen A ersinnen, die B herbeiführen und das unerwünschte C verhindern. Untypisch ist an diesen Kombinationen nur, daß das zu vermeidende C trotzdem passiert – ohne Zutun von A und
B. Dieser Mangel ist aber nur auf meine Systematik zurückzuführen, nach der wir
noch nicht davon zu reden angefangen haben, wie A und B zu non-C stehen. Das
werden wir später nachholen, wo wir so etwas wie negatives Feedback dann etwas
besser beschreiben können.
Die Kombinationen 2c + 8a und 2b + 8b: Diese Fälle sind ebenfalls gar nicht ungewöhnlich, doch sind sie von all den hier diskutierten Fällen die schillerndsten,
weil am unterschiedlichsten eingeordneten. Aber schauen wir sie uns zuerst an:
C
C
B
A
(Kombination 2c + 8a)
B
A
(Kombination 2b + 8b)
82
In der ersten Kombination setzt B A in Bezug auf C außer Kraft und führt selbst C
herbei, in der zweiten ist es gerade andersherum. Hart und Honoré (1959), S.
219f., geben ein Beispiel hierfür. Es handelt von einem Wüstenreisenden, auf den
ein Mordanschlag verübt wird, indem Gift in seinen Wassersack zugegeben wird,
und kurz darauf und unabhängig vom ersten ein zweiter, indem ein Loch in seinen
Wassersack gebohrt wird. Die Geschichte endet traurig; der zweite Anschlag setzt
sich durch und hat gleichzeitig den ersten unwirksam gemacht. Ein anderes Beispiel ist das von Scriven: „Um 16h mögen Bedingungen vorliegen (ungewöhnliche Aufregung vielleicht samt konstitutionellen Schwächen), die einen Schlaganfall um 16.55h und daraus folgenden Tod um 17h garantieren; aber dennoch ist
korrekterweise ein damit überhaupt nicht in Zusammenhang stehender Herzanfall
um 16.50h als die Ursache des justament um 17h eintretenden Todes zu bezeichnen.“ (Scriven (1963/64), S. 410f.).
Lewis (1973b), S. 567, verwendet hier den Ausdruck „pre-emption“; Scriven
(1966), S. 260, und Mackie (1974), S. 44ff., sehen hier kausale Überbestimmtheit
vorliegen, versehen mit Attributen wie „asymmetrisch“,1 „unabhängig“ oder „verbunden“ („linked“),2 und Stegmüller (1973), S. 332, spricht von kausaler Abschirmung. Wir werden diesen Fall noch wieder anders klassifizieren – nicht aus
reinem Widerspruchsgeist, sondern weil dadurch, wie ich mir einbilde, doch einiges klarer wird.
Aber bevor wir dem großen Interesse für diesen Fall nachspüren, sind noch einige Bemerkungen zur Terminologie am Platze. Zum ersten scheint es mir ungeschickt, hier von Überbestimmtheit zu reden. Denn so verwandt, läuft Überbestimmtheit auf den trivialen und ubiquitären Sachverhalt hinaus, daß ein Geschehnis statt auf die tatsächliche Weise auf andere Weise hätte verursacht werden können; ziemlich jedes Ereignis wäre dann überbestimmt zu nennen. Gewiß,
in den obigen Beispielen ist die außer Kraft gesetzte Kausalkette, die auch zu dem
jeweiligen C geführt hätte, besonders augenfällig. Aber ob eine solche Kausalkette knapp vor ihrer Vollendung oder auf für uns nicht mehr oder gar nicht er-
1
Genau in dem Sinne, in dem wir im Rahmen des Falls 6 von asymmetrischer Überbestimmtheit
geredet haben.
2
Die zitierten Beispiele waren Beispiele für die Kombination 2c + 8a. Scrivens Staatsstreichbeispiel für „linked overdetermination“ ((1966), S. 261) oder Mackies Beispiel von den Gangstern
Smith und Jones ((1964), S. 251 – seine Quellen sind dort angegeben) lassen sich als Beispiele für
die Kombination 2b + 8b auffassen.
83
kennbare Weise schon vor Jahrhunderten angefangen wurde – das ist nur ein gradueller Unterschied. Drum scheint es mir sinnvoller zu sein, einen Sachverhalt nur
dann kausal überbestimmt zu nennen, wenn mehrere, vollständig realisierte Kausalketten gleichzeitig zu ihm führen; und an diesen Gebrauch will ich mich fürderhin halten. Diagrammatisches Kennzeichen für einen überbestimmten Sachverhalt ist dann, daß mehrere durchgezogene Pfeile bei ihm enden – wie es etwa
im Fall 6 oder in der Kombination 2b + 5 der Fall war.
Zum zweiten wird der Leser schon bemerkt haben, daß der Abschirmungsbegriff nun schon zum dritten Mal aufgetaucht ist; im Fall 3, im Fall 4 und hier war
davon die Rede. Dies zeigt, daß er arg vieldeutig verwandt wird, was so manche
Verwirrung heraufbeschworen haben mag. Dabei würde er meinem Empfinden
nach am besten auf den Fall 8 passen. Denn im Fall 3 hat B überhaupt keine kausale Relevanz für C – man hat sie sich allenfalls eingebildet –, so daß es da gar
nichts abzuschirmen gibt; im Fall 4 ist die mit dem Abschirmungsbegriff verbundene Assoziation verletzt, daß das Abschirmende etwas vom Abgeschirmten kausal Unabhängiges ist; und bei den zuletzt betrachteten Kombinationen ist es allein
der darin enthaltene Fall 8, der einen von Abschirmung reden läßt. Wegen dieser
Vieldeutigkeit mag ich aber lieber gar nicht mehr von Abschirmung sprechen, so
daß ich für den Fall 8 den Terminus „Außerkraftsetzung“ gewählt habe.
Zur Ehrenrettung des Abschirmungsbegriffs ist freilich zu sagen, daß er ursprünglich1 unzweideutig für eine bestimmte probabilistische Sachlage stand. Es
mag auch sein, daß diese probabilistische Sachlage in den Fällen 3, 4 und 8 vorliegt (auch wenn sie allein diese Fälle offenkundig nicht kennzeichnen kann). Aber die mit dem Abschirmungsbegriff verbundenen Intentionen und Konnotationen sind eben doch eindeutig kausaler Natur und, wie sich gezeigt hat, ungut unklar.
Was ist an den Kombinationen 2c + 8a und 2b + 8b so knifflig? Daß sie sowohl
der Regularitätstheorie wie dem kontrafaktischen Ansatz Schwierigkeiten machen. Bei der Kombination 2c + 8a fällt es der Regularitätstheorie schwer, A die
Ursächlichkeit für C abzusprechen – ebenso wie es ihr schwerfiel, im Fall 3 B
richtig einzuschätzen. Denn diese Kombination ändert ja nichts am regelmäßigen
Zusammenhang zwischen A- und C-Artigem, also etwa – in Scrivens Beispiel –
zwischen dem Vorliegen der Bedingungen für einen Schlaganfall und dem darauf-
1
Reichenbach (1956), S. 189, hat ihn eingeführt.
84
folgenden Tod. Also müßte die Regularitätstheorie A als Ursache von C bezeichnen, und gerade, um ihr das vorzuhalten, hat Scriven das Beispiel angeführt.1
Umgekehrt fällt es dem kontrafaktischen Ansatz bei der Kombination 2c + 8a –
ebenso wie schon beim Fall 6 – schwer, B die Ursächlichkeit für C zuzusprechen.
Denn die Aussage „wenn B nicht passiert wäre, wäre auch C nicht passiert“ ist
hier rundweg falsch; C wäre ja trotzdem passiert. Ein mehrfach beschrittener und
auch intuitiv plausibler Ausweg aus dieser Schwierigkeit argumentiert folgendermaßen.2 Betrachten wir etwa den Fall des Wüstenreisenden, von dessen Tod wir
sagen wollen, daß er vom zweiten und nicht vom ersten Mordanschlag verursacht
worden ist. Zwar ließe sich sein Tod als solcher noch unter Berufung auf das Gift
im Wassersack erklären, aber es gibt da zum Tode führende Zwischenschritte, die
sich nicht mehr so erklären lassen. So wird der Wüstenreisende tagelang nichts
getrunken haben, was sich nur auf das Loch im Wassersack und nicht auf das Gift
zurückführen läßt. Es hat sich eben nur die vom Loch und nicht die vom Gift ausgehende Kausalkette vollständig realisiert. Das hat auch Folgen für unser kontrafaktisches Reden über diesen Fall: Wir würden zwar zugeben, daß der Reisende
auch dann gestorben wäre, wenn in seinen Wassersack kein Loch gebohrt worden
wäre. Wir würden aber auch sagen: Wenn der Reisende nicht tagelang nichts getrunken hätte, dann wäre er nicht unbedingt gestorben,3 und wenn kein Loch in
seinem Wassersack gewesen wäre, dann hätte er nicht tagelang nichts getrunken.4
Dies legt die folgende Modifikation des kontrafaktischen Ansatzes nahe: Wir
verlangen nur noch, daß für zwei aufeinanderfolgende Glieder einer realisierten
Kausalkette oder – wie wir auch sagen können – für direkte Ursachenbeziehungen
die entsprechende kontrafaktische Aussage gilt; indirekte Ursachenbeziehungen
müssen sich dann aus direkten zusammensetzen lassen, ohne daß die zugehörige
1
Vgl. Scriven (1963/64), S. 411. – Dieselbe Schwierigkeit hat die Regularitätstheorie im übrigen
schon mit dem Fall 8 selbst, der wohl nur deswegen in der Literatur nicht zu finden ist, weil in ihm
gar keine Ursache für C vorkommt. In der Tat mag man sich fragen, ob denn etwa der Fall 8a nicht
immer in Form der Kombination 2c + 8a vorkommt. Dies ist eindeutig mit „nein“ zu beantworten.
Denn erstens muß es nicht ein und derselbe Sachverhalt sein, der A in Bezug auf C außer Kraft
setzt und selbst C verursacht – wie unsere Beispiele zum Fall 8 zeigen. Und zweitens ist auch
immer mit unverursachten, nicht dem Kausalprinzip genügenden Ereignissen zu rechnen – zumindest als Denkmöglichkeit –, auch wenn uns das gegen den Strich geht.
2
Dieser Ausweg ist z.B. schon bei Scriven (1963/64) angedeutet und bei Lewis (1973b), S. 567,
und Mackie (1974), S. 45f., ausgeführt.
3
Weil wir eben nicht sagen würden: Wenn der Reisende in jenen Tagen etwas getrunken hätte,
dann hätte er das Gift aus seinem Wassersack getrunken.
4
Dies ist gleichzeitig kein schlechtes Beispiel dafür, dass kontrafaktische Konditionale nicht transitiv sind; d.h. mit der Notation von Abschnitt 2.3: aus „p q“ und „q r“ folgt nicht „p r“.
85
kontrafaktische Aussage zu gelten braucht.1 Nach dem so modifizierten kontrafaktischen Ansatz wäre dann der zweite Mordanschlag, wie erwünscht, Ursache
des Tods des Wüstenreisenden – und der erste nach wie vor nicht, da eben von
ihm aus keine vollständige Kausalkette kontrafaktischer Konditionale zum Tod
des Wüstenreisenden führt.
Doch damit ist die Angelegenheit immer noch nicht ausdiskutiert. Denn diese
Argumentation hat eine bemerkenswerte Konsequenz: Malen wir uns die wüste
Geschichte anders aus, nehmen wir an, daß der zweite Mordanschlag nicht stattgefunden hat, daß also kein Loch in den Wassersack gebohrt wurde und daß der
Reisende in der Wüste aus dem Wassersack trinkt und auch stirbt. Dann ist er
gestorben, weil er Gift zu sich genommen hat, und er hat Gift zu sich genommen,
weil beim ersten Mordanschlag Gift in seinen Wassersack eingefüllt wurde und
weil kein Loch im Wassersack war, aus dem das Gift wieder herausgeflossen wäre. Diese faktiven Weil-Sätze können wir auch kontrafaktisch wenden. Der eben
dargelegten Argumentation zufolge heißt das jedoch nichts anderes, als daß jetzt
die Tatsache, daß kein Loch in den Wassersack gebohrt wurde, (mit-)ursächlich
für den Tod des Wüstenreisenden ist (wenn auch vielleicht nur als Randbedingung
– aber wir hatten uns entschlossen, Randbedingungen auch als Ursachen anzusehen).
Allgemein ausgedrückt, bedeutet dies für die Kombination 2c + 8a, in der A
und C Tatsachen darstellen: Wenn B passiert ist, so ist B eine Ursache von C, und
wenn non-B passiert ist, so ist non-B eine Ursache von C. Ich bezweifle sehr, ob
diese Konsequenz jedermann gefällt; und wem sie gefällt, dem wird sie vermutlich nicht auf Anhieb gefallen haben. Ich habe mich mittlerweile mit ihr angefreundet – auch weil sie die hier dauernd besprochenen Kombinationen in ein
ganz anderes und, wie ich glaube, erhellenderes Licht rückt.
Denn die besondere Rolle, die B in der Kombination 2c + 8a spielt, läßt sich
nun in der folgenden Weise als eine Relais-Funktion beschreiben: B fungiert in
Bezug auf C wie ein Schalter, der je nachdem, wie er steht, die eine oder die andere zu C führende Kausalkette auf ihren Weg bringt; dabei sind B und non-B die
beiden Stellungen des Schalters. Im Beispiel: Je nachdem, ob der zweite Mordanschlag stattfindet oder nicht, kommt der Wüstenreisende durch Durst oder durch
Gift zu Tode.
1
Genau diese Modifikation bildet den Kern der Ursachenexplikation von Lewis (1973b).
86
Wir sollten hier besser sagen, daß die Sachverhaltsmenge {B, non-B} in Bezug
auf C als Relais fungiert; damit fassen wir ein Relais als die Menge seiner möglichen Stellungen auf. Dies gestattet uns, auch komplexere Relais {A1, ..., An} (n >
2) mit mehr als zwei Stellungen ins Auge zu fassen. Dabei müssen die A1, ..., A n
in jedem Fall paarweise logisch disjunkt sein; Relais sollen aus alternativen Kausalwegen nicht mehr als einen auswählen.1 Hingegen brauchen wir nicht zu verlangen, daß die A 1, ..., An zusammen logisch erschöpfend sind; ein Relais muß
nicht für alle logischen Möglichkeiten einen Kausalweg nach C parat haben.
Wichtig ist allein, daß es mindestens zwei Stellungen hat. Aber wir brauchen jetzt
keine Relais-Theorie zu entwickeln; in dieser Fallsammlung haben wir es ohnehin
nur mit einfachen Relais der Form {B, non-B} zu tun. Und da wollen wir uns auch
wieder gestatten, einfach B selbst statt der Menge {B, non-B} als Relais zu bezeichnen.
Wenn nun also B wie in der Kombination 2c + 8a in Bezug auf C als Relais
fungiert, sollen wir dann sowohl B wie non-B als Ursache von C bezeichnen, je
nachdem, ob B oder non-B passiert? Ich finde, ja – und zwar gerade aufgrund der
gelieferten Argumentation. B und non-B kausaltheoretisch unterschiedlich zu behandeln, also etwa B, wenn es passiert, als Ursache von C und non-B, wenn es
passiert, nicht als Ursache von C zu bezeichnen, ist meines Erachtens unzulässig –
auch wenn wie im Fall des Wüstenreisenden B eine auffällige Ursache seines Todes ist und non-B in der anderen Kausalkette nur eine unscheinbare Randbedingung gewesen wäre; Unterschiede sollten da erst mit Hilfe solcher Überlegungen
gemacht werden, wie wir sie zu Beginn dieses Kapitels explizit außer Betracht
gestellt haben. Und weder B noch non-B als Ursache von C zu bezeichnen, ist
intuitiv auch nicht attraktiv; es hätte überdies die unerfreuliche Konsequenz, daß
die am Fall 4 gewonnene Schlußfolgerung, jedes Glied einer zu C führenden Kausalkette Ursache von C zu nennen, plötzlich löchrig würde; es wären justament
diejenigen Glieder davon auszunehmen, die in Bezug auf C Relais-Funktion haben.
Aber wiederum ist nicht so wichtig, wie wir mit dem Begriff der Ursache
schlechthin bei solchen ausgefalleneren Konstellationen verfahren sollen. Entscheidend ist, daß wir hier mit der Funktion als Relais ein neuartiges Kausalver-
1
Dies schließt natürlich nicht aus, dass ein C, in Bezug auf das {A 1, ..., An} als Relais fungiert,
außerdem kausal überbestimmt ist; nur wäre das mit dem Relais allein nicht zu beschreiben.
87
hältnis zwischen B und C vorliegen haben, dem eine Kausalitätstheorie jedenfalls
Rechnung zu tragen hat.
Wenn wir diese neue Möglichkeit wirklich ernst nehmen, so ist klar, daß sich
damit die Anzahl möglicher Konstellationen zwischen A, B und C nachgerade
potenziert, so daß es sich gar nicht mehr lohnt, sie alle aufzuzählen und mit einem
charakteristischen Diagramm auszustatten. Denn erstens kann sich hinter jedem
(durchgezogenen) Pfeil in den bisherigen Diagrammen ein Relais verbergen. Betrachten wir etwa den Fall 2b, wo A für C ursächlich ist und B beziehungslos
daneben steht. Hier könnten wir übersehen haben, daß über non-A eine andere
Kausalkette als die tatsächliche zu C gelaufen wäre. Im Fall 5 ist es noch komplizierter: Dort hatten wir bisher eine Kausalkette ausgemacht, die A und B als relevante Bestandteile enthält. Es könnte aber dazu eine andere zu C führende Kausalkette geben, die A und non-B enthält – in welchem Falle B als Relais in Bezug
auf C fungierte; es könnte stattdessen wieder eine andere Kausalkette geben, die
non-A und B enthält – in welchem Falle A als Relais in Bezug auf C fungierte;
oder es könnte alle drei Kausalketten geben und vielleicht noch eine vierte mit
non-A und non-B – in welchem Falle A und B beide Relais wären.
Und zweitens kann sich auch hinter jeder leeren Fläche in den bisherigen Diagrammen ein Relais verbergen. Betrachten wir wieder den Fall 2b: Hier ist A eine
Ursache von C; aber die vermittelnde Kausalkette könnte uns nur unvollständig
bekannt sein; daß sich diese Kausalkette über das Relais B in zwei Zweige aufspaltet, könnte uns dabei ganz entgangen sein – eben weil C ja so oder so, mit
oder ohne B, passiert wäre. In der Tat würde ich diese Situation – in der ich ja B
als Ursache von C bezeichnen wollte – den bisher ermittelten Irrtumsmöglichkeiten als eine fünfte hinzugesellen.
Um die Aufzählung zu komplettieren: Selbst hinter einem gestrichelten Pfeil
kann sich ein Relais verbergen. Im Fall 8a etwa kann es sein, daß B nicht bloß A
als Ursache von C, sondern vielmehr {A, non-A} als Relais in Bezug auf C außer
Kraft setzt. Aber es ist schon sonnenklar: Aufzählungen und Exemplifizierungen
würden hier ins Endlose führen. Mit Kasuistik kommen wir hier nicht mehr weiter; Systematik ist vonnöten. Die wollen wir auch liefern. Jedoch – es hilft alles
nichts:
88
3.3 Noch mehr Fälle: Seltsames und Zweischneidiges
Fall 9: Da haben wir zunächst einen Fall, der den eben besprochenen Kombinationen und auch dem Fall 6 ähnelt, letztlich jedoch nur eine ausgefallene Denkmöglichkeit darstellt – aber immerhin eine Denkmöglichkeit, und allein darauf
kommt es an. Dem Fall 6 und den Kombinationen 2c + 8a und 2b + 8b war gemeinsam, daß dort schon das Vorliegen des Sachverhalts A-oder-B das Vorliegen
des Sachverhalts C garantierte (falls man Ursächlichkeit als hinreichende auffaßt).1 Zweitens war ihnen gemeinsam, daß in ihnen jeweils zwei verschiedene
Kausalketten im Spiele sind. Der Unterschied lag erst darin, daß sich im Fall 6
beide involvierten Kausalketten realisierten, weswegen dort sowohl A wie B Ursache von C war, während in den Kombinationen sich nur die von A bzw. die von
B ausgehende Kausalkette realisierte und die andere außer Kraft gesetzt war. Der
nun anvisierte Fall 9 soll die erste Gemeinsamkeit teilen, die zweite aber nicht;
d.h., auch hier soll schon A-oder-B C garantieren (bzw. ermöglichen, je nachdem,
ob hinreichende oder notwendige Ursächlichkeit vorliegt), doch soll dabei nur
eine einzige Kausalkette am Werke sein.
Um diesen Fall und, was daran merkwürdig ist, zu illustrieren, müssen wir ein
Beispiel erfinden – ein reales gibt’s wohl nicht: Bekanntlich funktionierte der alte
Goldesel so, daß man ihn erst auf ein Tuch stellen und dann „Bricklebrit“ rufen
mußte, und schon spie er Goldstücke. So ist der Goldesel einfach ein Beispiel für
den Fall 5; das Tuch und das „Bricklebrit“ sind beide (Teil-)Ursachen für den
Goldregen, auch wenn die Details der Verursachung geheimnisvoll sind. Mittlerweile wurde ein effektiverer, neuer Goldesel gezüchtet, der so funktioniert: Immer
wenn man ihn auf ein Tuch stellt, so spuckt er zwei Sekunden später Goldstücke,
und immer wenn man „Bricklebrit“ ruft, so setzt eine Sekunde später der nämliche Goldregen ein. Wie sind dann die Kausalverhältnisse einzuschätzen, wenn
man den neuen Goldesel auf einem Tuch plaziert (A) sowie eine Sekunde später
„Bricklebrit“ ruft (B) und der Goldesel wieder eine Sekunde später Goldtaler speit
(C)?
Der entscheidende Zusatz ist dabei dieser: Es möge hier nicht der Fall 6 vorliegen; es möge hier also nicht von A eine Kausalkette ausgehen und von B eine andere, die beide zufälligerweise gleichzeitig mit dem Geldsegen enden. Es möge
1
Von den bisher besprochenen Fällen und Kombinationen sind das auch die einzigen mit dieser
Eigenschaft.
89
auch nicht die Kombination 2c + 8a vorliegen; es möge also nicht die vom Tuch
ausgehende Kausalkette wegen des intervenierenden „Bricklebrit“ unvollendet
bleiben. Und ebensowenig möge die Kombination 2b + 8b vorliegen. Vielmehr
möge uns, auch wenn wir allen erdenklichen Scharfsinn aufbringen, völlig unerkennbar sein, inwiefern sich das „Bricklebrit“ einer anderen Kausalkette bedient
als das Tuch. Das muß nicht heißen, daß wir überhaupt keine vermittelnden Kausalglieder zwischen A bzw. B und C aufspüren können; es heißt nur, daß alles,
was wir an Vermittlung zwischen B und C finden, auch zwischen A und C vermittelt. Dabei brauchen wir das gar nicht so epistemelnd zu formulieren; im Märchen geht ohnehin alles anders zu, und vielleicht gibt es zwischen B und C wirklich nichts anderes an Vermittlung als zwischen A und C.
Das mag sehr rätselhaft oder gar unmöglich erscheinen. Jedoch, logisch unmöglich ist es sicherlich nicht. Es ist nur so, daß dieser Fall unserer eingefleischten Vorstellung, Kausalketten seien kontinuierlich, zuwiderläuft: Wenn die Kausalkette von A nach C kontinuierlich ist und nicht über B läuft (was hier der Fall
ist – „Bricklebrit“ wird nicht vom Tuch verursacht) und wenn auch die Kausalkette von B nach C kontinuierlich ist, so muß letztere zumindest ein kleines
Stückchen für sich allein haben. Und weil diese Vorstellung so eingefleischt ist,
läßt sich auch kaum ein realistisches Beispiel für diesen Fall 9 angeben. Nur sollten wir unsere Analyse nicht von vorneherein mit dieser einschränkenden Vorstellung belasten, und drum sollten wir den Fall 9 zumindest als logische Möglichkeit hinnehmen.
Wie sind also in diesem Fall die Kausalverhältnisse zwischen A, B und C einzuschätzen? Einerseits könnte man sagen, daß hier nur A und nicht B eine Ursache
von C ist – weil eben alles, was an Goldregen erzeugender Vermittlung vorhanden
ist, schon von A in Gang gesetzt worden ist und B nichts mehr dazutut;
„Bricklebrit“ wäre danach nur dann Ursache des Goldregens, wenn der neue
Goldesel zuvor nicht auf ein Tuch gestellt worden wäre. Der Fall 9 wäre dann also
eine seltsame Variante von Außerkraftsetzung von B durch A. Andererseits könnte
man im Fall 9 auch einen Fall von kausaler Überbestimmtheit erblicken, in dem A
und B beide und unabhängig voneinander Ursachen von C sind. Er wäre dann
freilich kein normaler Fall von Überbestimmtheit wie der Fall 6, sondern auch ein
merkwürdiger, weil dunkel bleibt, was B zur Überbestimmtheit beiträgt. Doch
brauchen wir uns nicht auf eine bestimmte Einschätzung des Falls 9 festzulegen;
90
wichtig ist wiederum nur seine Neuartigkeit und Wohlunterschiedenheit gegenüber den früheren Fällen.
War der Fall 9 nur ein entlegener Sonderfall, so wird sich durch unsere letzte
Betrachtung – ähnlich wie durch die Entdeckung der Relais – die Anzahl der
Möglichkeiten noch einmal kräftig potenzieren. Sie besteht zunächst in einem
sehr einfachen Gedanken: Auf all die beschriebenen Weisen, in denen A und B
sich gegenüber C kausal verhalten können, können sich A und B auch gegenüber
non-C statt C kausal verhalten – wobei die Annahme stehenbleiben soll, daß neben A und B nach wie vor C und nicht non-C passiert. Die so entstehenden Fälle
seien durch einen angehängten Strich gekennzeichnet. Im Fall 5' etwa wären A
und B also beide (Teil-)Ursachen für non-C, wenn non-C passiert wäre; und so
sind beide keine Ursachen von C. Und im Fall 3' ist A Ursache von B und wäre
Ursache von non-C, wenn non-C passiert wäre. In beiden Fällen ist rätselhaft,
warum C statt non-C passiert ist; wenn es überhaupt eine Erklärung dafür gibt, so
liegt sie jedenfalls nicht in A und B. Aber solche Rätselhaftigkeit ist uns schon
von den Fällen 7 und 8 her wohlbekannt.
Eine interessante Folge dieses Gedankens ist, daß sich damit nicht bloß die
Möglichkeiten insgesamt an Zahl vermehren, sondern auch alte Fälle noch weiter
differenzieren lassen. Betrachten wir etwa den sehr kurz abgehandelten Fall 1, wo
A nicht für B und beide nicht für C ursächlich waren. Dieser splittert sich nun, wie
dort angekündigt, auf: Er kann zunächst in der Kombination 1 + 1' vorliegen,
worin C (und eben auch non-C) mit A und B kausal überhaupt nichts zu tun hat;
unser Beispiel zum Fall 1 fällt unter diese Kombination, und an sie hatten wir bei
der Formulierung des Falls 1 hauptsächlich gedacht. Aber ebensogut kann der Fall
1 sich in den Kombinationen 1 + 2b', 1 + 2c', 1 + 5', 1 + 6' sowie 1 + 2b' +5', 1 +
2c' + 5', 1 +5' + 6' und schließlich auch 1 + 2b' + 8b' und 1 + 2c' + 8a' realisieren –
um die Möglichkeiten einigermaßen vollständig aufzuzählen. Hier zeigt sich eben
deutlich, daß „keine Ursache von C sein“ auch die Möglichkeit „Ursache von
non-C sein, wenn non-C passiert wäre“ einschließt. In ähnlicher Weise, wenngleich bei weitem nicht in solche Vielfalt, lassen sich auch die Fälle 2a, 2b, 2c, 8a
und 8b zerlegen. Doch mag der bloße Hinweis darauf genügen. Es lohnt sich jetzt
nicht, durchzudenken, was alles miteinander kombinierbar ist; das überlassen wir
besser einer systematischen Theorie zur Entscheidung.
Eine weitere Konsequenz ist, daß wir nun im Rahmen unserer Klassifikation
eine im Groben vollständige Beschreibung negativen Feedbacks liefern können:
91
Sei C der Sachverhalt, daß ein bestimmtes Gleichgewicht aufrechterhalten wird, B
der Sachverhalt, daß der Schutzmechanismus des Gleichgewichts eingeschaltet
ist, und A ein störender Einfluss. Dann bestehen hier folgende Kausalbeziehungen: A würde mit non-B non-C verursachen; tatsächlich schaltet A jedoch B ein,
und B bewahrt C.
Einer frappanteren Folge kommen wir mit einer abseitigen Frage auf die Spur:
Wenn man schon mit dem Kausalverhältnis zwischen A, B und C auch das zwischen A, B und non-C betrachten muss, ist es dann denkbar, daß etwa A für C wie
für non-C ursächlich ist, d.h. tatsächlich Ursache von C ist und Ursache von nonC gewesen wäre, wenn non-C geschehen wäre? Ein kräftiges „unmöglich“ oder
„absurd“ liegt einem auf der Zunge. Doch machen uns die Relais-Fälle vielleicht
vorsichtig, wo wir die reziproke Frage, ob denn sowohl A wie auch non-A, wenn
es passiert wäre, Ursache von C sein könne, positiv beantwortet hatten. Und in der
Tat, auch hier neige ich zu einer positiven Antwort; so sonderbar, wie es anmuten
mag, ist das gar nicht:
Fall 10: Wir wissen nicht, ob es die beiden Supermächte binnen der nächsten
zwei, drei Jahre schaffen, sich auf eine nennenswerte Abrüstung zu verständigen.
Wenn sie es nicht schaffen, würden wir gewiss eine der vielen Ursachen davon in
Reagans Politik der Stärke, um sie nur grob zu charakterisieren, erblicken. Und
umgekehrt würden wir, wenn sie es doch schafften, sagen, daß es auch Reagans
Politik der Stärke war, die auf irgendwelchen verschlungenen Pfaden zur Abrüstung geführt hat und so für diese ursächlich war. Oder um ein überschaubareres
Beispiel zu geben, in dem es leider schon wieder um einen Noch-nicht-Toten
geht: Ein akut schwer Erkrankter, der ohne ärztliche Hilfe jede Minute sterben
kann und jedenfalls nur noch wenige Stunden zu leben hat, werde ins Krankenhaus eingeliefert. Er kommt sofort in den OP, wo die Ärzte um das Leben des
Patienten kämpfen. Zwei Stunden später ist er tot. Der Fall kann hier so liegen,
daß es sehr klar ist, daß die Notoperation für den Tod des Patienten ursächlich war
– etwa weil Erkrankung und Operation doch zuviel für die Konstitution des Patienten waren oder weil sich, wie es heißt, eine nicht auch noch behebbare Komplikation ergeben hat. Die Sache hätte aber auch gut ausgehen können, und wenn der
Patient zwei Stunden später noch gelebt hätte, so wäre die Notoperation auch dafür ursächlich gewesen.
92
Dies scheinen mir ziemlich klare Beispiele für den scheinbar so absurden Fall
zu sein, daß ein Sachverhalt A für einen Sachverhalt C und für seine Negation
non-C, je nachdem, ob C oder non-C vorliegt, ursächlich ist. Wie kann das zugehen? Mir scheint, A muss hier sozusagen eine zweischneidige Maßnahme sein,
von der komplexe Kausalketten, die nach C greifen, wie auch solche, die nach
non-C greifen, ausgehen. Welche davon sich durchsetzt und vollständig realisiert,
liegt dabei an feinen und schwer identifizierbaren Details – so daß uns nichts anderes übrigbleibt, als das klare, wenngleich wenig klärende Urteil zu fällen, es
habe sich diejenige Kausalkette durchgesetzt, deren Ende tatsächlich eingetreten
ist. Oder anders ausgedrückt: Es scheint für den Fall 10 charakteristisch zu sein,
daß er sich nur durch sehr verwickelte Kausalprozesse exemplifizieren läßt, von
denen uns sehr viele Details unbekannt oder undurchschaubar sind. Bei einem
solchen Prozeß neigen wir dann dazu, seine früheren Stadien, wie immer sie sind,
für seine späteren Stadien, wie immer sie sind, für ursächlich zu halten. Das heißt
mitnichten, daß wir hier dem Fehlschluss „post hoc ergo propter hoc“ erliegen.
Nicht alles, was vor dem Ende des Prozesses passiert, ist dafür ursächlich, sondern nur alles, was vor dem Ende des Prozesses passiert und Bestandteil des Prozesses ist. Und in der Regel haben wir ziemlich bestimmte Vorstellungen darüber,
was zum Prozeß gehört und was nicht,1 auch wenn uns die Funktionsweisen, die
einzelnen Kausalschritte des Prozesses weitgehend unklar sind.
Mit den früheren Fallbezeichnungen können wir den Fall 10 einfach als die
Kombination 2b + 2b' beschreiben. Daß Fälle ohne Strich mit Fällen mit Strich
kombinierbar sind, hatten wir schon bei obiger Zergliederung des Falls 1 beobachtet; das ist auch nicht weiters überraschend. Was uns der Fall 10 demonstriert, ist vielmehr, daß sogar Fälle ohne Strich, in denen A und B auf die eine oder
andere Weise für C ursächlich sind, mit Fällen mit Strich, in denen A und B auch
für non-C, wenn es passierte, ursächlich wären, kombinierbar sind. Solche Kombinationen sind offenbar groß an Zahl, und die Moral aus dem Fall 10, wenn wir
sie akzeptieren, ist, daß wir alle diese Kombinationen als mögliche Kausalbeziehungen ernst nehmen sollten.
1
Nicht in dem Sinne, daß wir alles angeben könnten, was zum Prozeß gehört, sondern in dem
Sinne, daß wir von jeder vorgelegten Tatsache ziemlich sicher sagen könnten, ob sie zum jeweiligen Prozeß gehört oder nicht.
93
3.4 Zusammenfassung
Diese lange Fallsammlung mag so manchen Leser zweifelnd zurückgelassen
haben; diverse Einwände mögen ihm durch den Kopf gegangen sein: etwa daß da
doch ziemlich verschiedene Sachen auf eine Stufe gestellt würden; daß da dauernd von realisierten und unrealisierten Kausalketten geredet wurde – ohne weitere Erläuterung, die da wohl angebracht wäre; daß von gleichen und verschiedenen
Kausalketten die Rede war, ohne daß die Identitätskriterien klar wären; daß da arg
leichtfüßig zwischen der faktischen und der epistemischen Ebene hin und her gesprungen wurde, also zwischen dem, wie Kausalbeziehungen wirklich sind, und
dem, wie wir die Kausalbeziehungen einschätzen; oder daß die aus stilistischen
Gründen vorgenommene Identifizierung von Sachverhalten und Ereignissen
mehrfach intuitive Verwirrungen heraufbeschworen habe; kurz, daß man all die
genannten Fälle wesentlich gründlicher analysieren müsse und daß sich dann die
vorgebliche Vielfalt vermutlich beträchtlich reduzieren ließe.
Solchen Einwänden möchte ich mitnichten widersprechen. Nur verfolgte ich
mit der Fallsammlung gar nicht die Absicht, alle Möglichkeiten restlos aufzuklären und zu systematisieren. Die Strategie war vielmehr, erst einmal auf möglichst
viele Möglichkeiten aufmerksam zu machen. Denn zu viel für möglich zu halten
und dies durch weitere Analyse zu korrigieren, ist bestimmt besser, als zu wenig
für möglich zu halten und dann über lückenhaftem Material eine vermutlich ebenso lückenhafte Theorie zu errichten. Dringlicher als schärfere Analyse ist daher
zunächst anderes: nämlich erstens, etwas mehr Ordnung in unsere Fallsammlung
zu bringen; und zweitens vor allem, irgendwie noch mehr Sicherheit darüber zu
gewinnen, daß nun wirklich alle Möglichkeiten bedacht sind. Wie könnten wir das
anfangen? Nun, eine Methode scheint mir zu sein, mit ersterem auch zweiteres zu
leisten. Denn wenn wir ein möglichst liberales Schema ausbreiten und dann feststellen, daß unsere Fallsammlung dieses Schema vollständig ausfüllt, dann hätten
wir mehr Sicherheit (wenn auch natürlich keine absolute), da eine neue Möglichkeit dann schon das ganze Schema sprengen müßte.
Ein solches Schema gibt’s, und ich will es zuerst präsentieren und dann erläutern, wie unsere Fallsammlung darin unterzubringen ist. Wenn wir die Fälle Revue passieren lassen, zeigt sich, daß es vier verschiedene Kausalbeziehungen zwischen A und C gibt, bei denen B nicht beteiligt ist: Es kann wie im Fall 2b eine
Kausalkette von A zu C führen, so daß A für C ursächlich ist; es kann wie im Fall
94
2b' eine Kausalkette von A zu non-C führen, die sich auf womöglich unerklärliche, jedenfalls durch B nicht erklärbare Weise nicht vollständig realisiert hat; es
kann wie im Fall 1 (so wie er intendiert war) überhaupt keine Kausalkette von A
zu C oder non-C führen; oder A kann wie im zweischneidigen Fall 10 für C wie
für non-C, wenn es passiert wäre, ursächlich sein. Diese vier Möglichkeiten seien
so symbolisiert:
„+“ stehe für den positiven Fall (Ursächlichkeit für C),
„–“ stehe für den negativen Fall (Ursächlichkeit für non-C),
„“ stehe für den neutralen Fall (Ursächlichkeit weder für C noch für non-C),
„±“ stehe für den zweischneidigen Fall (Ursächlichkeit für C wie für non-C);
„•“ stehe ferner für „ oder –“ und
„ “ (d.h. kein Eintrag in der folgenden Tabelle) für „+ oder oder –“.
Auf die gleichen vier Weisen kann nun auch non-A zu C stehen, auch wenn
dies bisher allenfalls im Relais-Fall angesprochen worden war. Wieder die gleichen vier Möglichkeiten bestehen etwa für die Beziehung zwischen A-und-B und
C, wie der Fall 5, der Fall 5', der Fall 1 und die Kombination 5 + 5' exemplifizieren, wo jeweils eine oder keine A und B enthaltende und zu C oder non-C führende Kausalkette vorliegt. Dies legt nahe – jedenfalls hier, wo es uns um ein möglichst liberales Schema geht –, daß diese vier Möglichkeiten der Beziehung zu C
für jede logische Kombination aus A und B bestehen – mit Ausnahme natürlich
der tautologischen und der kontradiktorischen Kombination, die ja weder A noch
B wesentlich enthalten und so auch in keiner Kausalkette wesentlich enthalten
sein können. Wir haben es demnach mit den folgenden 14 logischen Kombinationen zu tun:1
A, ¬ A, B, ¬ B,
1
Dabei bedienen wir uns der üblichen aussagenlogischen Kurznotation: „¬“ für „nicht“, „∧“ für
„und“, „∨“ für das adjunktive „oder“ und „↔“ für die materiale Äquivalenz.
95
A ∧ B, A ∧ ¬ B, ¬ A ∧ B, ¬ A ∧ ¬ B,
A ∨ B, A ∨ ¬ B, ¬ A ∨ B, ¬ A ∨ ¬ B, A ↔ B und A ↔ ¬ B.
Schließlich dürfen wir nicht vergessen, daß die obigen vier Möglichkeiten auch
für die Kausalbeziehung von A bzw. ¬ A zu B bestehen. Dies bedeutet, zusammengefaßt, daß wir die möglichen Kausalbeziehungen zwischen A, B und C dadurch charakterisieren können, daß wir +, –, und ± über insgesamt 16 Fälle oder
Spalten verteilen. Damit ergibt sich für unsere Fallsammlung die Tabelle auf der
nächsten Seite, welche mit nachstehenden Kommentaren verständlicher wird:
(1) Von Interesse sind eigentlich nur die letzten vierzehn Spalten, da sich in ihnen alle wichtigen Variationen abspielen. Nennen wir sie die C-Spalten. Das
Schema ist dann so zu verstehen: Pluszeichen in verschiedenen C-Spalten stehen
immer für zumindest teilweise verschiedene, zu C führende Kausalketten. Wenn
also wie bei der Kombination 2b + 5 in der C-Spalte „A“ wie in der C-Spalte „A ∧
B“ ein Pluszeichen steht, so heißt das, daß es eine zu C führende Kausalkette gibt,
die nur A enthält, und eine andere, die A und B enthält. Daraus ergibt sich also
z.B., daß C genau dann kausal überbestimmt ist, wenn in den „wahren“ C-Spalten
„A“, „B“, „A ∧ B“, „A ∨ B“, „A ∨ ¬B“, „¬A ∨ B“ und „A ↔ B“1 insgesamt mehr
als ein Pluszeichen steht. Entsprechendes gilt für andere als Pluszeichen. Die Bedeutung der ersten acht C-Spalten, der normalen sozusagen, dürfte mit dieser Bemerkung schon verständlich sein.
1
Wo A und B wahr sind, sind das ja gerade alle wahren logischen Kombinationen aus A und B.
96
Kausalbeziehung von A zu B
Kausalbeziehung von A und B zu C
A ν ¬B
AνB
¬A ∨ B
A ∨ ¬B
A∨B
¬ A ∧B
A ∧ ¬B
A∧B
¬B
B
¬A
A
¬A
A
•
•
•
•
•
•
Fall 2a:
+ •
•
•
•
•
•
Fall 2b:
•
+ •
•
•
•
•
Fall 2c:
•
•
+ •
•
•
•
Fall 3:
+ •
+ •
•
•
•
Fall 4:
+ •
•
+ •
•
•
•
Fall 5:
•
•
+ •
•
Fall 6:
•
+ •
+ •
•
•
Kombination 2a + 5:
+ •
•
•
+ •
•
Kombination 2b + 5:
•
+ •
•
+ •
•
•
Kombination 2a + 6:
+ •
+ •
+ •
•
•
•
Fall 7:
•
•
•
+ + •
Fall 8a:
•
•
•
•
+ •
•
Fall 8b:
•
•
•
•
+ •
+ •
•
+ •
•
+ •
•
•
•
•
+ •
•
+ •
+ •
•
•
+ •
•
•
+ •
•
•
•
•
•
•
•
•
•
+ •
•
•
•
•
+ •
+ •
–
•
±
•
•
•
•
•
Fall 1:
Kombination 2a +
8a:
Kombination 2a +
8b:
Kombination 2c +
8a:
Kombination 2b +
8b:
Fall 9:
negatives Feedback:
Fall 10:
•
•
•
•
•
•
•
•
97
(2) Weniger klar ist der Sinn der letzten sechs und eher pathologischen Spalten.
Er erschließt sich aber, wenn wir beachten, daß nur der Fall 9 wesentliche Verwendung von diesen Spalten macht. Im Fall 9 war es ja so, daß es nichts an kausaler Vermittlung zwischen B und C gab, was nicht auch schon zwischen A und C
vermittelte. Zumindest ab dem Zeitpunkt, auf den sich B bezieht, gab es hier also
nur eine zu C führende Kausalkette, gleich, ob sich nun A oder B oder A und B
realisiert. (Und im Extremfall existierte gar nichts an vermittelnder Kausalkette,
d.h. sozusagen nur die Nullkette.) Deswegen scheint es mir angebracht, den Fall 9
mit Hilfe der Spalte „A ∨ B“ zu beschreiben und diese Spalte gerade auf solche
Fälle anzuwenden. Analog sind die Spalten „A ∨ ¬B“, „¬A ∨ B“ und „¬A ∨ B“ zu
interpretieren. Den Spalten „A ↔ B“ und „A ↔ ¬B“, nur der Vollständigkeit halber hinzugefügt, läßt sich auch nur in ähnlich seltsamen Fällen Sinn abgewinnen.
Denn gemäß der gegebenen Erläuterung bedeutet ein Pluszeichen etwa in der
Spalte „A ↔ ¬ B“, daß alles, was A und ¬ B mit C kausal verknüpft, auch ¬ A
und B mit C verknüpft oder umgekehrt, d.h. daß entweder A und ¬ B oder ¬ A
und B nichts an eigener, differenzierender Vermittlung zu C besitzen. Und dafür
gibt es wohl nur ähnlich märchenhafte Beispiele wie für den Fall 9.
(3) Wenn wir alle diskutierten Fälle für wenigstens denkbar halten, so stellt, im
Prinzip zumindest, jede Verteilung von „+“, „–“ „“ und „±“ auf die 16 Spalten
eine logische Möglichkeit dar. So kommt die erwähnte horrende Zahl von 416
Möglichkeiten zustande. Diese sind in vorstehender Tabelle natürlich nicht alle
enthalten; aber sie enthält immerhin von jedem Möglichkeitstyp ein Beispiel, wie
wir gleich noch ausführen. Die allermeisten dieser 416 Möglichkeiten sind natürlich groteske und praktisch irrelevante Kombinationen von mehrfacher positiver
Überbestimmtheit (von C), mehrfacher negativer Überbestimmtheit (von ¬C,
wenn es passiert wäre), multiplen Relais und vielfältigen Zweischneidigkeiten.
Die Frage, ob diese 416 Kombinationen wirklich alle logisch möglich sind, ist dabei in Anbetracht der mit unserer Systematik verbundenen Zielsetzung nicht so
wichtig.1
(4) Um nun die Tabelle von unten aufzurollen und so von den Absonderlichkeiten zu den interessanteren Beobachtungen fortzuschreiten: Der Fall 10 ist der
1
Z.B. mag man, selbst wenn man die Möglichkeit von Relais und Zweischneidigkeiten zugesteht,
bezweifeln, daß es möglich ist, daß sowohl A wie ¬A in Bezug auf C zweischneidig sind. Auch ist
nicht zu sehen, wie sich der Fall 9 mit dem Fall 2c, in dem eine von A unabhängige Kausalkette
von B zu C führt, kombinieren lassen soll. Und so weiter.
98
einzige, der ein „±“ enthält, und er soll für alle ±-Fälle stehen. Die vielen Zeichen, die in der Tabelle in den ersten acht C-Spalten auftauchen, sollen dabei
sicherstellen, daß die anderen Zeilen nicht einmal versteckt einen solchen ±-Fall
enthalten. Denn wenn etwa in der C-Spalte „A“ ein „+“ und in der Spalte „A ∧ B“
ein „–“ stünde, so wäre das auch als eine tatsächliche Zweischneidigkeit zu beurteilen.
(5) Den Fall des negativen Feedbacks habe ich nur deswegen in die Tabelle
aufgenommen, um wenigstens eine Zeile zu haben, in der explizit ein Minuszeichen auftritt.
(6) Der Fall 9 ist der einzige, der in den letzten sechs Spalten ein Pluszeichen
enthält. Sonst habe ich dort immer ein „“ platziert, um klarzumachen, daß all die
anderen Fälle so zu verstehen waren, daß in ihnen so etwas Merkwürdiges wie der
Fall 9 nicht beigemischt ist. Hält man den Fall 9 und Ähnliches für unmöglich, so
kann man die letzten sechs Spalten einfach streichen.
(7) Die Kombinationen 2c + 8a und 2b + 8b sind die einzigen, die Relais enthalten; in der Kombination 2c+8a etwa ist B tatsächlich Ursache von C, und wenn
¬B passiert wäre, so wäre ¬B wie auch A Ursache von C gewesen. Gleiches gilt
für keine andere Zeile, selbst wenn wir an den leeren Stellen Pluszeichen einsetzen. Natürlich gibt es viele andere Relais als die angeführten. So, wie Überstimmtheit immer von mehreren Pluszeichen in „wahren“ C-Spalten angezeigt ist,
sind Relais immer durch Pluszeichen in mehreren, logisch miteinander unverträglichen C-Spalten charakterisiert.1 Überbestimmtheiten und Relais-Funktionen
können auch gemeinsam auftreten; so kann etwa in den vier ersten C-Spalten jeweils ein Pluszeichen stehen.
(8) Als Beispiele für kausale Überbestimmtheit von C enthält unsere Tabelle
den Fall 6 und die Kombinationen 2b+5 und 2a+6.
(9) Die restlichen Zeilen, also die Fälle 1, 2a, 2b, 2c, 3, 4, 5, 8a und 8b und die
Kombinationen 2a+5, 2a+8a und 2a+8b decken die „normalen“ Möglichkeiten
vollständig ab, in denen weder eine Zweischneidigkeit noch der Fall 9 noch eine
kausale Überbestimmtheit noch eine Relais-Funktion hereinspielen.
(10) Damit können wir auch unsere Ergebnisse darüber resümieren, wann wir
sagen sollten, daß A und B Ursachen von C sind. A ist eine Ursache von C, wenn
in den C-Spalten „A“, „A ∧ B“, „A ∨ B“, „A ∨ ¬ B“ und „A ↔ B" mindestens ein
1
Entgegen den früheren Erläuterungen wäre demzufolge auch der Fall 7 als ein Relais-Fall einzustufen. Diese Unsicherheit auszuräumen, ist jetzt jedoch nicht nötig.
99
+- oder ±-Zeichen auftaucht; sonst ist A nur noch in dem in der nächsten Bemerkung besprochenen Fall eine Ursache von C. B ist genau dann eine Ursache von
C, wenn in den C-Spalten „B“, „A ∧ B“, „¬A ∨ B“ und „A ↔ B“ – und je nachdem, wie wir über den Fall 9 reden wollen, eventuell noch „A ∨ B“ – mindestens
ein +- oder ±-Zeichen steht.
(11) In noch einer weiteren Situation ist A eine Ursache von C, nämlich dann,
wenn A eine Ursache von B ist, d.h. die allererste Spalte ein +- oder ±-Zeichen
enthält und wenn die C-Spalte „B“ (oder auch die C-Spalte „¬A ∨ B“) ein +- oder
±-Zeichen enthält. Prototyp dieser Situation ist der Fall 4, und A ist hier eben, wie
früher festgestellt, wegen B nur indirekte Ursache von C.
(12) Mit der Unterscheidung zwischen direkten und indirekten Ursachen (in
dem relativen Sinne, wie er in den Ausführungen zum Fall 4 erläutert wurde) läßt
sich noch etwas mehr Ordnung in unser Schema bringen. Denn nur bei den „normalen“ Möglichkeiten können die Ursachenbeziehungen direkt sein, während alle
Vertracktheiten, wollen sie nicht ins Absonderliche abgleiten, auf indirekte Ursachenverhältnisse rekurrieren müssen. Damit ist folgendes gemeint: Betrachten wir
etwa den Fall 6, wo C durch A und B kausal überbestimmt ist. Innerhalb der beschränkten Sachverhaltsmenge {A, B, C} sind A und B beide direkte Ursachen von
C; weder macht A B noch B A zur indirekten Ursache. Dennoch ruht der Fall 6
stillschweigend auf der Hypothese, daß es weitere, bisher nicht genannte Sachverhalte gibt, die A zu einer indirekten Ursache von C machen, und andere Sachverhalte, die B zu einer indirekten Ursache von C machen. Denn gäbe es solche
Sachverhalte nicht, so könnte keine Rede davon sein, daß A und B auf verschiedenen Wegen zu C führen. Vielmehr führte dann von A wie von B ein und derselbe
Weg zu C – nämlich sozusagen der Nullweg –, und damit verkümmerte der Fall 6
zu unserem obskuren Fall 9.
Dasselbe gilt für Relais: Die Kombination 2c + 8a etwa setzte voraus, daß C
durch A und non-B über eine und durch B über eine andere Kausalkette herbeigeführt wird. Gäbe es keine vermittelnden Sachverhalte, so wäre es beidemal wieder
der Nullweg, der zu C führt, und auch diese Kombination degenerierte zum Fall 9.
Oder betrachten wir das Relais {A ∧ B , A ∧ ¬B}. Damit B hier eine RelaisFunktion haben kann, müssen durch B und ¬ B verschiedene Kausalketten eingeschaltet werden. Fehlten die differenzierenden vermittelnden Sachverhalte, so
wäre B schlicht irrelevant, und das vermeintliche Relais reduzierte sich auf den
normalen Fall 2b.
100
Natürlich gilt diese Überlegung erst recht für den zweischneidigen Fall 10; ohne vermittelnde Sachverhalte, die teils in Richtung C und teils in Richtung non-C
weisen, würde er zur schieren Unbegreiflichkeit.
Diese Beobachtung wird sich als sehr wertvoll erweisen. Sie verheißt uns einen
relativ einfachen Einstieg in die Explikation kausaler Begrifflichkeit, sofern wir
über den Begriff der direkten Ursache einsteigen. Denn bei diesem müssen wir
uns nur mit überschaubar wenigen Möglichkeiten auseinandersetzen. Und haben
wir den Einstieg erst einmal geschafft, so müßten wir doch auch mit all den Komplikationen zu Rande kommen. –
Lassen’s wir damit genug sein an Resumée. Vergegenwärtigen wir uns nur
kurz noch einmal, was wir in diesem Kapitel geleistet haben. Wir haben untersucht, welche Formen das Kausalverhältnis zwischen drei Sachverhalten A, B und
C annehmen kann, die alle drei statthaben, wobei A früher als B und B früher als C
stattfindet. Wir haben versucht, diese Formen so vollständig wie irgend möglich
aufzuzählen, um unsere spätere Theorie an möglichst vollständigem Material orientieren und überprüfen zu können. Die Hoffnung, daß unsere Aufzählung tatsächlich vollständig ist, dürfte dabei vielleicht nicht zu verwegen sein. Unser
Schema macht gleichzeitig klar, daß es für vier und mehr Sachverhalte noch sehr
viel mehr und verwickeltere mögliche Kausalbeziehungen gibt. Aber bei unserer
Fallsammlung leitete uns die untergründige Hoffnung, daß unter vier und mehr
Sachverhalten keine prinzipiell neuen Konstellationen auftauchen, sondern nur
Situationen, wie wir sie auch schon an drei Sachverhalten studieren konnten.
Auf gewisse Beispielssorten sind wir freilich gar nicht eingegangen. So haben
wir nichts über die möglichen Kausalverhältnisse zwischen gleichzeitigen Sachverhalten gesagt. Wir haben physikalische Spekulationen, die auf die Möglichkeit
zeitlich rückläufiger Verursachung hinweisen, einfach außer acht gelassen. Ob
sich komplexere kausale Konstellationen, unter denen z.B. Wechselwirkungen
oder Regelsysteme prominent sind, aus unseren einfachen Fällen zusammensetzen
lassen, ist alles andere als klar. Und so weiter. Dies erinnert uns daran, daß die
adäquate Behandlung der hier diskutierten Fälle nur eine notwendige Bedingung
für die Akzeptabilität einer Kausalitätstheorie ist.
Auch sind wir unserem Hauptziel – nämlich kausale Begrifflichkeit mit Hilfe
möglichst nicht kausaler Begriffe zu erklären – noch gar nicht näher gekommen.
Wir können nur besser überprüfen, ob wir dieses Ziel erreicht haben, wenn wir
101
meinen, so weit zu sein. Wenden wir uns also nach all diesen Vorbereitungen
zielstrebig unserer Theorie selbst zu.
T E I L II
DIE THEORIE
KAPITEL 4
PROZESSRÄUME:
DIE GEGENSTÄNDE VON URSACHENAUSSAGEN
Wenn wir uns nach all den vorbereitenden Darlegungen nun daranmachen, eine
systematische Theorie der Kausalität zu entwickeln, so muß der erste Schritt sein,
dafür präzise formale Grundlagen bereitzustellen. Dies soll in diesem und im
nächsten Kapitel geschehen: In diesem Kapitel müssen wir unser dauerndes Reden von Sachverhalten, ihrem zeitlichen Hintereinander, ihrem Vorliegen etc.
formal befassen; das heißt, wir müssen hinsichtlich der Problematik (3) von Kapitel 1, hinsichtlich des Gegenstandsbereichs von Kausalaussagen eine präzise
Stellung beziehen. Hierzu werde ich eine mathematische Konstruktion verwenden, welche ich als Prozeßraum bezeichnen werde. Im nächsten Kapitel gilt es
dann, die Konzepte zu definieren, auf deren Grundlage wir die Explikation kausaler Begriffe oder eigentlich die gesamte Problematik (4) von Kapitel 1 angehen
können; das heißt, wir müssen hier für unsere Theorie das einführen, was für die
Regularitätstheorie die wahren (Natur-)Gesetze1, für den kontrafaktischen Ansatz
die kontrafaktischen Aussagen oder eine dahinter stehende Theorie des kontrafaktischen Konditionals2 und für das probabilistische Paradigma die Wahrscheinlichkeiten3 waren. Ich werde das als Prozeßgesetz bezeichnen, im deterministischen Fall als deterministisches, im probabilistischen als probabilistisches. Ein
Prozeß ist dann einfach ein Prozeßraum mit einem Prozeßgesetz4, und was wir in
den weiteren Kapiteln tun werden, ist dann gerade, die in einem gegebenen Prozeß dieser Art herrschenden Kausalverhältnisse zu untersuchen.
1
Vgl. S. 32, 34 und 37f.
Vgl. S. 43ff.
3
Vgl. S. 53ff.
4
Diese Terminologie, die vielleicht nicht besser, aber auch nicht schlechter als andere ist, kommentiere ich später ausführlicher.
2
106
Die formalen Definitionen sind dabei schnell geliefert; sie bestehen im wesentlichen aus einigen mathematischen Standardkonstruktionen. Mehr Mühe wird uns
bereiten, uns Klarheit darüber zu verschaffen, was wir da überhaupt zusammendefinieren. Denn dies ist ein für allemal festzuhalten: Formale Präzision einerseits
und Klarheit und Begreifbarkeit andererseits sind zunächst zwei ganz verschiedene Dinge. Wenn wir über einen bestimmten Untersuchungsbereich reden und
wenn wir dann unsere Behauptungen in den Stand der Beweisbarkeit oder Herleitbarkeit bringen oder gar metatheoretische Überlegungen über unser Reden
anstellen wollen, so ist es unerläßlich, dieses Reden in einen präzisen formalen
Apparat zu übersetzen; drum kommen auch wir nicht umhin, einen geeigneten
formalen Apparat einzuführen. Und in der Tat bringt die strenge Geregeltheit des
Hantierens mit dem formalen Apparat eine nicht zu unterschätzende Form von
Klarheit mit sich. Jedoch – wenn der formale Apparat nicht zum Selbstzweck verkommen soll, muß ihm ein möglichst klares Verständnis dessen beigegeben werden, wofür er stehen soll, was mit ihm repräsentiert werden soll. Dieses Verständnis kommt nicht von der Kenntnis des formalen Apparates allein. Es kann sich
dadurch einstellen, daß man gründlich übt, worauf alles der Formalismus angewandt werden soll – so, wie wir einmal das Wort „Ball“ gelernt haben. Diese
Methode, zu einem Verständnis zu kommen, ist nicht gering zu achten; aber bei
komplexeren formalen Apparaten und für Erwachsene, die schon Sprechen gelernt
haben, ist dies eine unzulängliche Methode. Weiter hilft nur eine möglichst sorgfältige Erläuterung des Formalismus, eine möglichst sorgfältige Beschreibung
dessen, was er repräsentieren soll. Und darum will ich mich hier wenigstens bemühen.1
4.1 Prozeßräume: Der mathematische Apparat
Was in diesem Abschnitt geschieht, ist im wesentlichen identisch mit der mathematischen Konstruktion eines so genannten Meßraumes, wie er in der Wahrscheinlichkeitstheorie zur Repräsentation eines stochastischen Prozesses verwandt
1
Ich betone das deshalb so, weil mir gegen diese Grundregel des Einführens von Formalismen
allzu oft verstoßen zu werden scheint, von Philosophen wie von Wissenschaftlern. Mehr als diese
etwas moralinsaure Bemerkung zum bloßen Verfahren mag ich hierzu jetzt nicht machen; natürlich reichen die Weiterungen dieses Themas tief in die Sprachphilosophie und in die Philosophie
der Mathematik hinein.
107
wird. Aber schon hier ist vorstehende Bemerkung einschlägig; was da repräsentiert wird, ist nicht so klar, wie man denken sollte. Doch führen wir diese Konstruktion erst einmal durch; reflektieren läßt sie sich besser hinterher, in den Abschnitten 4.2 – 4.4.
Als erste Ingredienz benötigen wir eine zeitliche Struktur. Diese sei gegeben
durch eine Menge T von Zeitpunkten oder Zeitindizes samt einer Ordnungsrelation ≤ auf T, die die zeitliche Reihenfolge der Elemente von T spezifiziert; „t ≤ t'“
heißt also, daß t höchstens so spät ist wie t'. Da es nicht nötig sein wird, auf die
metrischen Eigenschaften der Zeit Bezug zu nehmen, reicht die Annahme einer
solchen bloßen Ordnung hin. Die Elemente von T sollen auf dreifache Weise interpretierbar sein, weswegen ich sie neutral als Zeitindizes bezeichne: Erstens
können wir sie als Zeitpunkte im physikalischen Sinn verstehen; diese Interpretation werden wir z.B. wählen, wenn wir den Prozeß betrachten, wie sich ein Körper kontinuierlich in Zeit und Raum bewegt. Zweitens können wir sie als mehr
oder weniger ausgedehnte, paarweise disjunkte Zeitintervalle im physikalischen
Sinn verstehen; diese Interpretation wäre etwa für den Prozeß der Wirtschaftsentwicklung angemessen, wenn wir nur auf monatlich ermittelte Wirtschaftsdaten
eingehen. Und drittens können wir sie als abstrakte Stadien eines Prozesses verstehen, deren physikalische Lokalisierung nicht spezifiziert sein muß; wenn wir
etwa den Prozeß des Schachspielens beschreiben wollen, so werden wir ihn durch
die Folge von Zügen bzw. Halbzügen ordnen; diese müssen zwar in physikalischer Zeit vollziehbar sein, aber in welchen konkreten physikalischen Zeitpunkten
oder -intervallen die Halbzüge stattfinden, ist uns dabei ganz egal.
An formalen Eigenschaften von T und ≤ ergibt sich daraus dies: ≤ muß eine
totale Ordnung auf T, d.h. transitiv, konnex und antisymmetrisch sein. Darüber
hinaus muß sich T in Bezug auf ≤ ordnungserhaltend in die Menge der reellen
Zahlen abbilden lassen, d.h. T versehen mit ≤ muß ordnungsisomorph zu einer
Teilmenge der Menge der reellen Zahlen (versehen mit der natürlichen Ordnung
zwischen den reellen Zahlen) sein; denn ohne diese Annahme ist keine der drei
Interpretationen der Zeitindizes durchführbar. Als Variablen für die Elemente von
T werde ich durchweg „s“ und „t“ mit oder ohne Indizes verwenden. Schließlich
stehe „s ≥ t“ für „t ≤ s“, „s < t“ für „s ≤ t“ und „s ≠ t“ und „s > t“ für „t < s“ – um
damit auch die Relationen „höchstens so früh wie“, „früher als“ und „später als“
symbolisiert zu haben.
Als zweite Ingredienz benötigen wir eine Familie (Ωu )u∈U von Faktorentypen.
108
Ein Faktorentyp Ωu soll eine Menge von Zustandstypen sein, von denen sich zu
jedem Zeitpunkt oder -index aus logischen Gründen genau einer realisieren muß,
die also logisch paarweise disjunkt und zusammen erschöpfend sind. Zustandstypen und somit auch Faktorentypen sind demnach zeitlich noch unspezifiziert – zur
zeitlichen Spezifikation steht ja die schon eingeführte zeitliche Struktur bereit –,
und die Bezeichnung „Typ“ bezieht sich allein auf diese Abstraktion von der zeitlichen Spezifikation. Faktorentypen sind also z.B.: {der Würfel a (ein ganz bestimmter) zeigt n Augen | n = 1, ..., 6}, den wir verwenden werden, wenn wir den
Prozeß, der aus einer Reihe von Würfen mit dem Würfel a besteht, betrachten
wollen; oder {der in Rede stehende Minister tritt zurück, der in Rede stehende
Minister tritt nicht zurück} oder auch {die große Schneeschmelze setzt ein, die
große Schneeschmelze setzt nicht ein}, um auf frühere Beispiele zurückzugreifen;
oder {der Schwerpunkt der Voyager 2 befindet sich am Ort x | x ist Raumpunkt},
womit wir die Reise der Voyager 2 beschreiben können; oder {der durchschnittliche Luftdruck in München beträgt x Millibar | x ≥ 0}, was ein Teil der Beschreibung meteorologischer Prozesse wäre; und so weiter. Die Elemente dieser Beispielsmengen sind alle zeitlich unspezifiziert; zusammen mit einer zeitlichen Spezifikation sind sie konkrete Sachverhalte.
Statt der Menge Ωu von Zustandstypen werde ich häufig auch den charakteristischen Index u selbst als Faktorentyp bezeichnen. Da wir zur Repräsentation irgendeines Wirklichkeitsausschnitts in der Regel mehrere solcher Faktorentypen
brauchen, habe ich oben eine ganze Familie von Faktorentypen angesetzt, die
durch irgendeine Indexmenge U indiziert sei, welche lediglich sozusagen buchhalterische Funktion hat. Wenn wir etwa nur eine Reihe von Würfen mit dem
Würfel a repräsentieren wollen, so kommen wir da noch mit nur einem Faktorentyp, nämlich dem oben angeführten, aus. Aber eine halbwegs inhaltsreiche Repräsentation des Wettergeschehens wird nicht nur über den Luftdruck in München,
sondern auch über die Temperatur, Stärke und Richtung des Windes, Niederschlagsmenge etc. in München und an anderen Orten reden und deshalb für jede
betrachtete meteorologische Variable und für jeden betrachteten Ort einen eigenen
Faktorentyp benötigen. Was dabei alles zu einem Faktorentyp zusammengefaßt
werden darf, ist – abgesehen davon, daß die Zustandstypen eines Faktorentyps
logisch paarweise disjunkt und zusammen erschöpfend sein müssen – eine
schwammige und kaum präzisierbare Angelegenheit, die wir innerhalb der von
unseren Natürlichkeitsgefühlen abgesteckten Grenzen ziemlich willkürlich ent-
109
scheiden können. Wenn wir etwa ein aus fünf Körpern bestehendes physikalisches
System beschreiben, so können wir dazu zehn Faktorentypen verwenden – für
jeden Körper einen, der seine möglichen Orte angibt, und einen zweiten, der seine
möglichen Impulse nennt. Ebensogut jedoch können wir dieses System mit Hilfe
seines Phasenraumes, wie die Physiker es nennen, repräsentieren; dabei spezifiziert jeder Punkt des Phasenraumes einen kompletten möglichen (zeitlich unspezifizierten) Zustandstyp des Systems, d.h. für jeden Körper einen Ort und einen
Impuls. Diese zweite Repräsentation enthält nur noch einen Faktorentyp, nämlich
den Phasenraum. Welche Repräsentation, die mit zehn Faktorentypen oder die mit
einem, die richtige sei, ist dabei eine unsinnige Frage. Die Repräsentationen sind
ineinander übersetzbar und laufen inhaltlich auf dasselbe hinaus. Die eine wird in
der einen, die andere in der andern Hinsicht nützlicher sein; aber mehr an Unterschied gibt es nicht.
An formalen Anforderungen haben wir dann lediglich, daß U nicht leer sein
darf – es muss mindestens einen Faktorentyp geben – und daß jedes Ωu (u ∈ U)
mindestens zwei Elemente hat; denn enthielte Ωu nur einen Zustandstyp, so
müßte dieser sich mit logischer Notwendigkeit realisieren, und ein solches Ωu
wäre uninteressant. Hingegen sind der Kardinalität von U und der jedes Ωu (u ∈
U) nach oben hin keine Grenzen gesetzt.
Hier ist nun eine dritte Ingredienz manchmal notwendig und immer nützlich.
Diese besteht in einer Sachverhaltsstruktur, auf der dann die im nächsten Kapitel
einzuführenden Prozeßgesetze definiert sein werden. Diese sei dadurch eingeführt, daß wir jedem Ωu (u ∈ U) eine nicht-triviale, d.h. nicht allein aus ∅ und
Ωu bestehende Mengenalgebra Au über Ωu beigeben. Die Elemente von Au mögen – da zeitlich noch unspezifiziert – Sachverhaltstypen heißen. Durch die gesonderte Spezifizierung von Au (u ∈ U) verschaffen wir uns also die Möglichkeit,
im jeweiligen Au genau die Sachverhaltstypen zu versammeln, über die wir gerade reden wollen. Wir werden dann für u ∈ U auch das Paar 〈 Ωu , Au〉 als Faktorentyp bezeichnen.
Wichtig ist der Umstand, daß dem deterministischen und dem probabilistischen
Fall unterschiedliche Sachverhaltsstrukturen technisch angemessen sind; die
Gründe hierfür werden im nächsten Kapitel klar werden. Deshalb wollen wir für
den deterministischen Fall annehmen, daß Au (u ∈ U) eine vollständige Algebra
über Ωu ist, und für den probabilistischen Fall, daß Au eine σ-Algebra über Ωu ist.
Au ist dabei genau dann eine vollständige bzw. eine σ-Algebra über Ωu, wenn Au
110
eine Menge von Teilmengen von Ωu ist derart, daß Ω u ∈ A u, für jedes A ∈ A u
auch Ωu \ A ∈ Au und für jedes nicht-leere B ⊆ Au bzw. für jedes nicht-leere,
endliche oder abzählbar unendliche B ⊆ Au auch B ∈ Au gilt.
Natürlich wird im deterministischen Fall Au in der Regel die Potenzmenge von
Ωu sein; aber es ist nützlich, sich nicht darauf festlegen zu müssen. Wenn Ωu
endlich oder abzählbar unendlich ist, so wird auch im probabilistischen Fall Au in
der Regel die Potenzmenge von Ωu sein. Wenn hingegen Ωu überabzählbar ist –
was wir ja nicht ausgeschlossen haben –, so darf im probabilistischen Fall Au gar
nicht die Potenzmenge von Ω u sein; denn A u soll später der Definitionsbereich
eines Wahrscheinlichkeitsmaßes werden, und auf der Potenzmenge einer überabzählbaren Menge lassen sich bekanntlich nur uninteressante Wahrscheinlichkeitsmaße definieren.1 Hier ist also der Punkt, wo es notwendig ist, explizit eine
Sachverhaltsstruktur Au (u ∈ U) einzuführen, die mit den Ωu (u ∈ U) allein noch
nicht gegeben ist. Für die anderen Fälle wäre das nicht unbedingt notwendig, aber
es ist, wie gesagt, technisch nützlich und auch zwecks Gleichbehandlung der gerade angesprochenen Fälle wünschenswert.
Damit haben wir all unser deskriptives Material beieinander, mit dem wir konstruieren können, was wir nachfolgend als Prozeßraum definieren. In dieser Definition wird jedoch eine Teilmenge I von U × T eine Rolle spielen, deren Funktion
vorher erläutert sei: Mit dem bisher Eingeführten können wir für jeden uns interessierenden Zeitindex t sagen, welcher Zustands- oder Sachverhaltstyp eines uns
interessierenden Faktorentyps sich zu t realisiert. Aber vielleicht ist das schon
mehr, als wir in Anspruch nehmen wollen; vielleicht wollen wir gar nicht für jeden Zeitpunkt jeden Faktorentyp in Betracht ziehen. So mag etwa, ob ein gewisser
Herr eine gewisse Fahne schwenkt oder nicht, nur für einen bestimmten Zeitpunkt
interessant sein, während wir diesen Faktorentyp für andere Zeitpunkte außer Betracht lassen wollen. Genau dies soll die Menge I leisten; sie soll genau jene Paare
〈u, t〉 ∈ U × T enthalten, für die wir explizit in Betracht ziehen wollen, wie sich
der Faktorentyp u zu t realisiert. Mag es auch im Moment nicht unbedingt einleuchten, daß wir diese selektierende Menge I wirklich benötigen – jedenfalls verschafft sie uns eine als solche schon schätzenswerte Freiheit.
Über das bisher Erläuterte hinaus enthält die folgende Definition nur die Konstruktion eines großen Produktraumes, die hinterher weiter kommentiert wird:
1
Vgl. etwa Bauer (1968), §8, oder Hewitt, Stromberg (1969), sect.10.
111
Definition 4.1: 〈I, Ω, A〉 heißt ein deterministischer bzw. ein probabilistischer
oder kurz ein D- bzw. P-Prozeßraum relativ zu (〈Ωu, A u〉)u∈U, T und ≤ genau
dann, wenn gilt:
(a) U ist eine nicht leere Menge, und für jedes u ∈ U ist Ωu eine mindestens
zweielementige Menge und Au eine nicht-triviale vollständige bzw. σAlgebra über Ωu,
(b) T ist eine nicht leere Menge und ≤ eine totale Ordnung auf T, so daß T mit ≤
isomorph zu einer Teilmenge von R ist,
(c) I ist eine nicht leere Teilmenge von U × T,
(d) Ω ist die Menge aller auf I definierten Funktionen ω, für die gilt: für jedes i
= 〈u, t〉 ∈ I ist ω(i) ∈ Ωu,
(e) wenn für jedes i = 〈u, t〉 ∈ I und A ∈ Au E(i, A) = {ω ∈ Ω | ω(i) ∈ A} und E i
= {E(i, A) | A ∈ Au} ist, dann ist A die von E i erzeugte vollständige bzw.
i∈I
σ-Algebra über Ω.
1
Die Elemente von I mögen Faktoren heißen; jedes i ∈ I gibt ja einem Faktorentyp u ∈ U einen Zeitindex t ∈ T als zeitliche Konkretisierung bei.
Die Elemente von Ω nennen wir (mögliche) Verläufe im Prozeßraum 〈I, Ω, A〉
– zu Recht: eine Funktion ω ∈ Ω gibt für jeden uns interessierenden Faktorentyp
u und für jeden uns interessierenden Zeitindex t, d.h. für jedes 〈u, t〉 ∈ I an, welcher Zustandstyp von Ωu sich zu t gemäß ω realisiert; jedes ω ∈ Ω liefert also
eine komplette Beschreibung dessen, was alles in dem durch I gekennzeichneten
Wirklichkeitsausschnitt passieren kann.
Die Algebra A soll dann die Sachverhaltsstruktur, die jedem Faktorentyp Ωu
durch die Algebra Au beigegeben ist, auf Ω übertragen: Für i = 〈u, t〉 ∈ I und A ∈
Au enthält E(i, A) genau die Verläufe, gemäß denen sich ein Zustandstyp aus A zu
t realisiert, und repräsentiert so den Sachverhalt, daß der Sachverhaltstyp A zu t
vorliegt. A enthält dann gerade alle diese einfachen Sachverhalte der Form E(i, A)
und alle bzw. alle abzählbaren logischen, d.h. mengenalgebraischen Kombinationen davon. Ich werde daher die Elemente von A ganz allgemein als Sachverhalte
bezeichnen.
Hier ist noch eine ergänzende Notation einzuführen:
1
D.h., A ist die kleinste vollständige bzw. σ-Algebra über Ω, für die
Ei ⊆ A.
I ∈I
112
Definition 4.2: Sei 〈I, Ω, A〉 ein D- bzw. P-Prozeßraum. Dann sei für jedes J ⊆
I AJ die von E i erzeugte vollständige bzw. σ-Algebra über Ω. Für i ∈ I
i∈J
schreiben wir statt A{i} auch einfach Ai.
AJ ist also diejenige Subalgebra von A, die genau jene Sachverhalte aus A
enthält, die allenfalls über die Faktoren aus J etwas aussagen. Ein Ai enthält demnach nur Sachverhalte, die sagen, wie sich der Faktor i realisiert; somit ist Ai = E i.
Damit können wir auch schon sagen, wodurch in dem angeführten Apparat die
Gegenstände von Kausalbeziehungen, d.h. die Dinge, die als Ursachen und Wirkungen in Frage kommen, repräsentiert werden sollen. Im 2. wie im 3. Kapitel
schien dauernd durch, daß Ursachen und Wirkungen Sachverhalte sind, die logisch nicht zusammengesetzt sind und sich auf einen bestimmten Zeitpunkt oder index beziehen;1 und hier sind das gerade die Sachverhalte A ∈ A, für die A ∈ Ai
für ein i ∈ I gilt. Aber im Moment ist das nur eine Vorankündigung; wir werden
noch darauf zurückkommen.2
Es ist außerdem darauf hinzuweisen, daß wir meist immer mit derselben Familie (〈Ωu,Au〉)u∈U von Faktorentypen und derselben zeitlichen Struktur T und ≤
arbeiten werden, so daß wir sie nicht immer zu erwähnen brauchen und auch unrelativiert von Prozeßräumen reden können. In der Definition 4.2 haben wir das ja
schon so gemacht.
Schließen wir das erste formale Paket mit einigen, später nützlichen Definitionen ab. Zuerst noch ein Stückchen Notation:
Definition 4.3: Für jeden Faktor i = 〈u, t〉 ∈ I sei τi = t.
τi ist also derjenige Zeitpunkt oder -index, zu dem sich der Faktor i auf die eine
oder andere Weise realisiert. Damit können wir einige spezielle Sorten von Prozeßräumen unterscheiden:
1
Zum zweiten vgl. etwa S. 33, und zum ersten vgl. etwa S. 74.
Ein Sachverhalt aus einem A i ist freilich nur relativ zum gegebenen Prozeßraum logisch nicht
zusammengesetzt. In einem anderen Prozeßraum mag, was intuitiv derselbe Sachverhalt ist, als
logisch zusammengesetzt repräsentiert werden – wie das Beispiel vom Fünf-Körper-System auf S.
108f. zeigt, das wir mit Hilfe eines Faktorentyps oder mit Hilfe von zehn Faktorentypen beschreiben können.
2
113
Definition 4.4: Sei 〈I, Ω, A〉 ein Prozeßraum relativ zu (〈Ωu, Au〉)u∈U, T und ≤.
(a) Dann heiße 〈I, Ω, A〉 homogen gdw. es U' ⊆ U und T' ⊆ T gibt, so dass I =
U' × T'.
(b) 〈I, Ω, A〉 heiße simultaneitätsfrei gdw. für alle i, j ∈ I mit i ≠ j τi ≠ τj gilt.
(c) 〈I, Ω, A〉 heiße endlich gdw. Ω endlich ist.
(d) 〈I, Ω, A〉 heiße zustandsendlich gdw. für jedes i = 〈u, t〉 ∈ I Ωu endlich ist.
(e) 〈I, Ω, A〉 heiße faktorenendlich gdw. I endlich ist.
(f) 〈I, Ω, A〉 heiße zeitlich diskret gdw. {τi | i ∈ I} (versehen mit ≤) isomorph
zu einer Teilmenge der Menge der ganzen Zahlen (versehen mit der natürlichen Ordnung) ist.
Der Inhalt dieser Definitionen ist klar: War die Definition 4.1 insofern noch
sehr allgemein, als über die Faktorenmenge I keinerlei einschränkende Annahmen
gemacht wurden, so läßt sich nun mit Definition 4.4 (a) eine wünschenswerte Einschränkung formulieren; denn in aller Regel werden wir es in der Anwendung mit
homogenen Prozeßräumen zu tun haben. In simultaneitätsfreien Prozeßräumen
gibt es keine Gleichzeitigkeiten; in ihnen realisieren sich keine zwei Faktoren zum
gleichen Zeitpunkt. Es ist klar, daß in einem homogenen und simultaneitätsfreien
Prozeßraum 〈I, Ω, A〉 I ={u} × T' für ein u ∈ U und ein T' ⊆ T sein muß. Wenn
für jedes i = 〈u, t〉 ∈ I α i die Kardinalität von Ωu ist, so beträgt die Kardinalität
von Ω offenbar Π α i („ Π “ als Kardinalzahlprodukt aufgefaßt); damit ist auch
i∈I
klar, daß ein Prozeßraum genau dann endlich ist, wenn er zustands- und faktorenendlich ist. Schließlich ist jeder faktorenendliche Prozeßraum offenkundig auch
zeitlich diskret.
Zweck der Definition 4.4 ist es, verschiedene Vereinfachungen zu ermöglichen. Solange wir es vermeiden wollen, höhere Mathematik heranzuziehen, werden wir uns auf endliche Prozeßräume beschränken. Das Problem, ob Ursache
und Wirkung gleichzeitig sein können, beschwert uns nicht, solange wir nur mit
simultaneitätsfreien Prozeßräumen arbeiten. Und eine vorläufige Beschränkung
auf zeitlich diskrete Prozeßräume enthebt uns all der Komplikationen, die sich mit
zeitlich kontinuierlichen Prozessen einstellen. Dies wiederum nur als Vorankündigung.
Ansonsten ist darauf hinzuweisen, daß wir all die gerade eingeführten technischen und notationellen Details erst ab Kapitel 6 wesentlich verwenden werden.
Für die weiteren, eher sprachphilosophischen Ausführungen und auch für die Be-
114
handlung der Prozeßgesetze im nächsten Kapitel brauchen wir nur von irgendeiner vollständigen bzw. σ-Algebra A von Sachverhalten über einer Grundmenge Ω
auszugehen; die gegebene Konstruktion von Ω und A aus einer Menge von Faktorentypen und einer zeitlichen Struktur ist da noch nicht relevant. –
Über diese Definitionen gibt es nun vor allem einmal dies zu sagen: Alle empirischen Wissenschaften, die mit dem klassischen, nicht-relativistischen Zeitbegriff
arbeiten, haben immer solche Prozeßräume zum Untersuchungsgegenstand. Seien
es die dynamischen Prozesse der klassischen Physik, die stochastischen Prozesse
aller Arten von Statistikern, die evolutionären Prozesse der Biologen, die Lernprozesse der Psychologen, die Zeitreihen der Ökonometriker, die Spielprozesse
der Spieltheoretiker, die Systeme der Systemtheoretiker, und so weiter – immer
geht es darum, Aussagen über einen bestimmten Prozeßraum zu machen. Selbst
bei sozialen, politischen oder historischen Prozessen ist das so, auch wenn diese
nicht solcherweise formalisiert vorliegen. Verwunderlich ist das nicht unbedingt;
aber wert, wenigstens einmal festgestellt zu werden, ist diese Tatsache schon. Die
Angst, irgendein Anwendungsfeld mit unserem Apparat nicht erfassen zu können,
braucht uns jedenfalls nicht zu plagen – von der allerdings wesentlichen Beschränkung auf den klassischen Zeitbegriff abgesehen.
So enthält denn auch die Definition 4.1 nichts weiter als das mathematische
Standardverfahren zur Erfassung all solcher empirischen Anwendungen. In der
Tat: Würden wir einem P-Prozeßraum 〈I, Ω, A〉 noch ein Wahrscheinlichkeitsmaß
auf A beigeben, so hätten wir gerade das, was Mathematiker unter einem stochastischen Prozeß oder, genauer, unter einem kanonischen stochastischen Prozess verstehen.1 Nur die Terminologie habe ich etwas abgeändert – eine Konzession an die philosophische Seite: So wird, was ich Faktor nenne, üblicherweise
Variable genannt. Doch ist diese Bezeichnung vieldeutig – manchmal werden
auch Faktorentypen Variablen genannt, und in der Logik sind Variablen ohnehin
etwas ganz anderes – und überhaupt ungut; zwar nicht mehr in der Mathematik,
doch in den angewandten Wissenschaften ringt man noch heute hart mit diesem
Wort. Drum vermeide ich lieber das Wort „Variable“ in diesem Zusammenhang
1
Vgl. etwa Bauer (1968), § 63.– Der einzige kleine Unterschied ist, daß in den stochastischen
Prozessen der Mathematiker gemeinhin nur ein Faktorentyp vorkommt. Daß ich mit mehreren
Faktorentypen arbeite, bringt demgegenüber nur scheinbar größere Allgemeinheit; dies zeigen
meine Bemerkungen darüber, wie man mehrere Faktorentypen zu einem einzigen zusammenfassen
kann. Es bringt aber den kleinen Vorteil, daß ich explizit sagen kann, wie sich ein momentaner
Gesamtzustandstyp aus Zustandstypen mehrerer Faktorentypen zusammensetzt; und bei vielen
Anwendungen möchte man das sagen können.
115
und verwende es nur im logischen Sinn. Die Elemente von Ω heißen in der Mathematik Pfade; „Verlauf“ schien mir demgegenüber die deutlicheren zeitlichen
Konnotationen zu haben. Und die Elemente von A heißen in der Mathematik Ereignisse. Davon ließen sich insbesondere Philosophen verwirren; denn, wie wir im
Abschnitt 4.4 sehen werden, repräsentieren die Elemente von A gerade nicht, was
nach philosophischer Analyse gemeinhin unter Ereignissen verstanden wird, sondern so etwas wie Propositionen oder Sachverhalte. Meine Bezeichnung „Sachverhalt“ ist jedenfalls zweifelsohne angemessener.
Diese Konzessionen an die philosophische Seite sind freilich eher gering. Dies
liegt daran, daß die Art und Weise und die Terminologie, in der logisch orientierte
Philosophen die gleiche Sache darstellen, ziemlich anders und, wie ich befürchte,
für die nicht-philosophische Seite eine noch höhere Hürde ist als die nichtphilosophischen Gebräuche für die Philosophen.1 Drum seien jedoch wenigstens
die nächsten Abschnitte darauf verwandt zu diskutieren, wie der gerade eingeführte mathematische Apparat an die in mancher Hinsicht subtilere Darstellungsweise der philosophischen Seite anzukoppeln ist – um dann später umso unbeschwerter mit dem mathematischen Apparat weiterzuarbeiten. Dadurch werden
wir gleichzeitig die Natur der Gegenstände von Kausalaussagen weiter klären
können; mit der Absichtserklärung (auf S. 112), daß diese Gegenstände Elemente
der Subalgebren Ai (i ∈ I) sein sollen, ist ja noch nicht viel geklärt.
4.2 Mögliche Verläufe und mögliche Welten
Die logisch-philosophische Darstellungsweise wäre, wie gesagt, eine andere
gewesen; sie hätte in einem zweistufigen Vorgehen bestanden. In dessen erstem
Schritt wird eine formale Sprache spezifiziert, die zur Beschreibung des interessierenden Wirklichkeitsausschnitts dienen soll.2 In aller Regel ist das die Prädikatenlogik erster Stufe, vielleicht angereichert mit einigen Prädikatkonstanten oder
Operatoren. Ich will jetzt die benötigte Sprache nicht genau spezifizieren, da dies
nur auf eine überflüssige Verdoppelung von Formalien hinausliefe und da es für
1
Dieser Umstand hat meines Erachtens zu einer ganz überflüssigen Abschottung so mancher philosophischen Diskussion geführt.
2
Von dieser Sprache kann man berechtigterweise sagen, sie beschreibe diesen Wirklichkeitsausschnitt, während man vom mathematischen Apparat vorsichtshalber nur sagen sollte, er repräsentiere diesen Wirklichkeitsausschnitt (und auch seine Beschreibung).
116
die Zwecke der folgenden Diskussion genügt, sich vorzustellen, diese Sprache sei
die Prädikatenlogik erster Stufe. Es sei lediglich kurz angedeutet, inwiefern die
benötigte Sprache von der normalen Prädikatenlogik erster Stufe abweichen
müßte:
Erstens müssten wir die benötigte Sprache zweisortig machen; die eine Sorte
von Parametern und Variablen wäre dazu da, um über Zeitindizes zu reden, die
andere Sorte, um über sonstige Individuen zu reden. Dem wäre eine auf Zeitterme
(d.h. Zeitparameter und -variablen) beschränkte, zweistellige Prädikatkonstante
beizugeben, welche die Ordnungsrelation für Zeitindizes ausdrückt. Zweitens
müßten mit Ausnahme dieser Prädikatkonstante und des Identitätszeichens alle
Prädikate der benötigten Sprache genau eine Stelle für einen Zeitterm und mindestens eine Stelle für sonstige Individuenterme haben. Und drittens müßten sich,
wieder mit Ausnahme der zwei erwähnten Prädikatkonstanten, die Prädikate gleicher Stellenzahl in sogenannte Prädikatfamilien gruppieren,1 die folgendem Bedeutungspostulat unterliegen: Wenn {P1,..., Pm} eine Prädikatfamilie n+1-stelliger
Prädikate ist (m ≥ 2, n ≥ 1), dann ist für alle Zeitparameter t und für alle Individuenparameter a1,..., an in der Satzmenge {P1(a1,..., an, t), ..., Pm((a1,..., an, t)} immer genau ein wahrer Satz. {„zeigt eine 1“, ..., „zeigt eine 6“} wäre z.B. eine
sechselementige Familie zweistelliger Prädikate; in zweielementigen Prädikatfamilien ist allerdings das eine Prädikat immer die Negation des andern. Eine solche
Satzmenge {P1(a1,..., an, t), …, P m(a1,..., a n, t)} ist dabei gerade das sprachliche
Analogon zu den Faktoren unserer mathematischen Konstruktion, und die entsprechende Menge {λtP1(a1,..., an, t)} λtPm(a1,..., an, t)} von einstelligen Prädikaten für Zeitterme ist das sprachliche Analogon zu dem, was wir einen Faktorentyp nannten.
Genau in diesen drei Punkten müßte eine zur Beschreibung von Prozeßräumen
geeignete Sprache von der normalen Prädikatenlogik erster Stufe abweichen. Ginge es nur um die Beschreibung eines endlichen Prozeßraums, so würden auch nur
endlich viele Prädikate, Zeit- und Individuenparameter benötigt; für sehr komplexe Prozeßräume wäre es hingegen nötig, Funktoren und Terme für reelle Zahlen
hinzuzunehmen. Aber gehen wir hier nicht weiter ins Detail; für eine ausführliche
und sehr präzise Darstellung der benötigten Sprache sei auf Carnap (1971),
Abschn. 2 und 3, verwiesen.
Der zweite Schritt des logisch-philosophischen Vorgehens besteht dann darin,
1
Vgl. etwa Carnap (1971), S. 43ff., oder Stegmüller (1973), S. 417ff.
117
die spezifizierte formale Sprache mittels eines Modells zu interpretieren. Eine
extensionale Interpretation wird es dabei nicht tun. Denn in einem späteren Stadium würden wir die formale Sprache um mindestens einen Kausaloperator erweitern wollen, der zweistellig wäre und Sätze bestimmter Form als Argumente hätte
– zu lesen etwa als „p ist eine Ursache von q“; und dieser Kausaloperator wäre
bestimmt nicht extensional, d.h. wahrheitsfunktional. Also wählen wir, solange
kein Grund für noch größere Extravaganzen vorliegt, ein intensionales Modell.
Für die Prädikatenlogik erster Stufe ist dieses ein Tripel 〈W, (Dw)w∈W, f〉, welches
folgende Dinge enthält: eine Menge W von möglichen Welten; für jede mögliche
Welt w ∈ W den Gegenstandsbereich Dw der in w existierenden Objekte; und eine
Interpretationsfunktion f, die jedem Individuenparameter a und jeder möglichen
Welt w ein Ding f(a,w) aus Dw als das Denotat von a in w, jedem n-stelligen Prädikat P und jeder möglichen Welt w eine Teilmenge f(P,w) von (Dw)n als die Extension von P in w und in dadurch eindeutig bestimmter Weise nach den üblichen
semantischen Regeln jedem Satz p und jeder möglichen Welt w den Wahrheitswert f(p,w) von p in w zuordnet. Die drei oben genannten Abweichungen von der
Prädikatenlogik erster Stufe wären entsprechend im interpretierenden Modell zu
berücksichtigen, was offenkundig keine Schwierigkeiten bereitet.
Was im vorigen Abschnitt die möglichen Verläufe waren, sind nun also die
möglichen Welten. Mit einer Zusatzannahme läßt sich hier sogar eine eineindeutige Entsprechung herstellen: Jedem Faktor i unserer mathematischen Konstruktion
entspricht, so hatten wir festgestellt, auf sprachlicher Ebene eine bestimmte Satzmenge – nennen wir sie Si. Dem Interesse an der Faktorenmenge I entspricht dann
das Interesse an der Satzmenge SI = Si . Wenn wir nun vom interpretierenden
i∈I
Modell verlangen, daß es für jede zulässige Wahrheitswertverteilung φ über die
Satzmenge SI genau eine mögliche Welt w enthält, so daß für alle p ∈ SI f(p,w) =
φ(p) ist, so haben wir eine eineindeutige Entsprechung zwischen den möglichen
Verläufen der mathematischen Konstruktion und den möglichen Welten des interpretierenden Modells.
Den Sachverhalten der mathematischen Konstruktion entsprechen dann offenkundig Mengen von möglichen Welten. Umgekehrt muß aber nicht jeder Menge
von möglichen Welten ein Sachverhalt entsprechen, einfach weil die Sachverhaltsalgebra A nicht jede Menge von Verläufen enthalten muß. Das Verhältnis ist
in etwa dieses: Bekanntlich heißen Mengen von möglichen Welten in der philosophischen Terminologie Propositionen. Nennen wir eine Teilmenge V von W eine
118
ausdrückbare Proposition, wenn es einen Satz p der formalen Sprache gibt, so daß
p (gemäß der Interpretationsfunktion f) genau in den Welten aus V wahr ist. Dann
entspricht jeder ausdrückbaren Proposition ein Sachverhalt aus A, und A ist gerade die von diesen Sachverhalten erzeugte vollständige bzw. σ-Algebra.
Somit können wir etwas grob, aber im Kern zutreffend zusammenfassend sagen, daß unsere mathematische Konstruktion gerade ein interpretierendes Modell
einer nicht spezifizierten formalen Sprache liefert. Diese Nicht-Erwähnung der
formalen Sprache ist es, die sowohl für die formale Redundanzfreiheit wie für die
unklare sprachphilosophische Stellung des mathematischen Vorgehens verantwortlich ist. Letzterer wollen wir uns nun zuwenden und dabei drei terminologisch gewandeten, aber natürlich inhaltlichen Fragen nachgehen: Wieso heißt hier
möglicher Verlauf, was die Sprachphilosophen – vermutlich nicht ohne Hintergedanken – mögliche Welt nennen? Wieso rede ich von Sachverhalten, wo die
Sprachphilosophen von Propositionen reden? Und auch da, wo die Mathematiker
von Ereignissen reden? Klären wir zunächst die erste Frage:
Mögliche Verläufe bezeichne ich nicht als mögliche Welten, weil sie – auch
wenn sich das mit dem oben Festgestellten schlecht zu vertragen scheint – einfach
keine möglichen Welten sind. Die Widersprüchlichkeit löst sich sofort auf, wenn
wir beachten, daß es einen apokryphen und einen rigorosen Gebrauch von „mögliche Welt“ gibt – und, wohl am häufigsten, einen unentschiedenen Gebrauch, der
sich nicht festlegen will oder jedenfalls nicht festlegt.
Im apokryphen Gebrauch sind mögliche Welten durch so etwas wie konsistente
Geschichten, maximale konsistente Satzmengen, Zustandsbeschreibungen, Wahrheitswertverteilungen, Interpretationen oder dergleichen repräsentiert. Hier sollen
also mögliche Welten sozusagen klein gehalten werden, und nachdem man sich
fatalerweise auf das großartige Wort „mögliche Welt“ eingelassen hat, beeilt man
sich, beschwichtigend hinzuzusetzen, wir sollten uns unter möglichen Welten
besser bloß hypothetische oder alternative Situationen, kontrafaktische Konstruktionen und Ähnliches vorstellen.1 Charakteristisch für den apokryphen Gebrauch
ist meines Erachtens, daß darnach mögliche Welten Dinge sind, die sich in der
Beschreibung mit Hilfe eines festen, idealerweise wohldefinierten sprachlichen
Bestandes erschöpfen, wenn auch erst in den detailliertesten Beschreibungen, die
1
Vgl. dazu Carnap (1956), S. 9, und (1971), Abschnitte 2 und 3, Kripke (1980), S. 15–20, Rescher
(1975), S. 2–5, von Kutschera (1976), S. 23, oder Putnam (1983), S. 66–68, um nur einige zu nennen, die sich so ausdrücken und dem apokryphen Gebrauch zuneigen.
119
mit dem gegebenen festen Sprachbestand überhaupt möglich sind. Daher die Rede
von maximalen konsistenten Mengen von Sätzen (einer bestimmten Sprache), von
Wahrheitswertverteilungen (über die Sätze einer bestimmten Sprache), etc. Mit
der Wohldefiniertheit des angenommenen sprachlichen Bestandes hapert es häufig. Wenn er etwa in der deutschen Sprache bestehen soll, so ist erstens ganz unklar, was alles zum Deutschen gehört: Ist Mathematisch Deutsch? Wie extensiver
Gebrauch der Wendung „der L-ische Satz p ist wahr“ – wobei L-isch für irgendeine fremde Sprache und p für irgendeinen Satz dieser Sprache stehe – darf noch als
Deutsch gelten? Und zweitens ist natürlich ganz unklar, was im Deutschen maximal detaillierte oder maximal konsistente Beschreibungen sind. Bei formalen
Sprachen ist das besser; hier ist Sprachzugehörigkeit durch die Syntax und Konsistenz durch die Semantik eindeutig geregelt. Doch sind die dem jeweiligen
Sprachbestand möglicherweise anhaftenden Vagheiten, auch wenn sie fatal sein
können, im Moment zweitrangig. Entscheidend ist, daß hinter den apokryphen
möglichen Welten immer irgendein fester, wenn auch vielleicht vager Sprachbestand steht, der sie erschöpft,
Denn gerade das haben die, die rigorosen Gebrauch von möglichen Welten
machen, nicht im Sinn. Genau zu sagen, was sie im Sinn haben, fällt ihnen notorisch schwer. Aber der Kerngedanke ist dieser: Auf jeden Fall ist unsere wirkliche
Welt eine mögliche Welt, und „andere Welten sind weitere Dinge dieser Art,
nicht prinzipiell anders, sondern nur darin, was in ihnen vorgeht“ (Lewis (1973a),
S. 85). Doch was für eine Art Ding ist unsere wirkliche Welt? Versuchen wir
nicht wirklich, diese Frage zu beantworten. Erinnern wir uns nur daran, was Wittgenstein schrieb: „Die Welt ist alles, was der Fall ist.“ Und im übernächsten Satz:
„Die Welt ist durch die Tatsachen bestimmt und dadurch, daß es alle Tatsachen
sind.“ Unstrittig erscheint so die Feststellung, daß sich unsere wirkliche Welt
durch die Menge aller Wahrheiten, die in ihr gelten, repräsentieren läßt; ob sie
diese Menge ist, ist im Moment ganz müßig. Der entscheidende Punkt ist, daß
diese Menge aller Wahrheiten eine ganz offene und nicht wohldefinierte (und
drum eigentlich gar keine richtige Menge) ist; sie ist nicht die Menge aller wahren
deutschen Sätze oder aller wahren Sätze irgendeiner anderen Sprache. Diesen
Punkt räumen alle bereitwillig ein; niemand würde behaupten, daß sich unsere
Welt mit dem Deutschen oder irgendeiner anderen bekannten Sprache erschöpfend beschreiben läßt. Beredtes Beispiel dafür liefert jede neue Farbwortcréation
der Kosmetikbranche oder jede neue, sprachlich noch nicht domestizierte Kultur-
120
form. Vielleicht läßt sich behaupten, daß es keine Wahrheit gibt, die in keiner
auch nur möglichen Sprache ausdrückbar ist; aber das ist eine schwer zu begreifende Behauptung, und jedenfalls kennen wir nicht alle möglichen Sprachen.
Vielleicht haben wir eines Tages die Universalsprache; doch ist das denkbar zweifelhaft, und jedenfalls haben wir sie derzeit nicht. Unsere wirkliche Welt ist also
durch alle sprachlichen Mittel, die wir angeben können, unerschöpft und womöglich sprachlich überhaupt unerschöpflich. Und andere mögliche Welten im rigorosen Wortsinn gleichen darin der wirklichen Welt. Das heißt nicht, daß jede mögliche Welt tatsächlich unerschöpflich ist; die banale mögliche Welt, in der ein einziges Elektronchen einsam seine Bahnen durchs leere All zieht (falls das Sinn
macht), könnten wir noch vollständig beschreiben. Aber es heißt, daß mögliche
Welten Dinge sein können – und es typischerweise auch sind –, die von angebbaren sprachlichen Mitteln unausgeschöpft bleiben. So sagt es Montague: „Zwei
mögliche Welten können verschieden sein, selbst wenn sie in jeder Hinsicht, die
in einer gegebenen Sprache ausdrückbar ist, ununterscheidbar sind.“ ((1974), S.
153) Und drum wird Lewis (1973a) im Abschnitt 4.1 nicht müde zu betonen, daß
er mögliche Welten in keiner Weise mit sprachlichen Entitäten gleichsetzen mag.
Natürlich schließen sich an die rigorose Auffassung von möglichen Welten allerlei skeptische Fragen an, die alle damit zu tun haben, daß Ontologisches wie
Semantisches auf freilich sehr undurchsichtige Weise an Epistemologisches angebunden ist. Die wirkliche Welt ist uns in einem ziemlich vagen Sinn gegeben; wir
werden in sie hineingeboren und können nun ausschweifen und mit mehr oder
weniger ausgefeilten und akzeptierten Methoden lauter Wahrheiten über sie einsammeln. (Vermutlich ist selbst das nicht richtig; das, was wahr ist, hängt am Ende womöglich auf engere Weise, als uns lieb ist, mit dem zusammen, was wir für
wahr halten;1 und die Frage, inwieweit wir uns die wirkliche Welt zusammenkonstruieren, ist spätestens seit Kant eine oder die zentrale Frage der Erkenntnistheorie.) Wie aber sind uns andere mögliche Welten gegeben? Wie können wir etwas
über sie herausbekommen? Und wenn das, wie mittlerweile die meisten meinen,2
die falschen Fragen sind, wenn mögliche Welten etwas sind, was wir stipulieren
oder konstruieren – wie können wir etwas stipulieren oder konstruieren, was uns
unerschöpflich ist? Ich will damit nicht behaupten (auch wenn ich’s glaube), daß
es auf diese Fragen keine guten Antworten mehr gibt. Doch brauchen wir jetzt
1
2
Vgl. etwa Putnam (1978), Part 4, (1980) und (1981), Kap.3.
Vgl. etwa Kripke (1980), S. 15ff. + 43ff., Rescher (1975), S. 89ff., oder Putnam (1983), S. 66ff.
121
denen, die es mit den möglichen Welten ernst meinen, nicht die Arbeit abzunehmen.
Klären wir vielmehr, wo wir hier mit unseren möglichen Verläufen stehen. Da
läßt sich ganz allgemein feststellen: Wo immer man von möglichen Welten eine
technische Verwendung im Rahmen einer intensionalen Semantik für irgendeine
formale Sprache macht, darf man sich hinsichtlich des Gebrauchs von „mögliche
Welt“ unentschieden geben. Denn einerseits benötigt man in der intensionalen
Semantik nicht mehr mögliche Welten, als durch die formale Sprache unterscheidbar sind; andererseits schadet es dort auch nichts, wenn man viel mehr und
viel größere mögliche Welten hat, als man braucht. Eben deswegen ist der unentschiedene Gebrauch von „mögliche Welt“ auch der häufigste. Wir haben uns allerdings diese Freiheiten nicht mehr gelassen. Denn um die möglichen Welten
unseres interpretierenden Modells auf S. 117 in eineindeutige Entsprechung zu
den möglichen Verläufen unserer mathematischen Konstruktion zu bringen, hatten wir ja dort die Anzahl der möglichen Welten so beschränkt, daß sie mit Hilfe
der zugrundeliegenden Sprache unterscheidbar sind. Und das bedeutet, daß die
möglichen Verläufe nur mögliche Welten im erläuterten apokryphen Sinn darstellen; sie dann auch nicht mögliche Welten zu nennen, ist daher dringend angebracht.
Denn – diese eher psychologische Bemerkung ist auch noch angebracht: Der
ganze Eiertanz um die möglichen Welten (einschließlich des hiesigen) rührt ja
gerade daher, daß die, die es mit den möglichen Welten ernst meinen, genau das
richtige Wort für das, was sie im Sinn haben, gewählt haben – weil eben jedermann unwillkürlich annimmt, wenigstens die wirkliche Welt müsse eine mögliche
Welt sein, und weil eben die wirkliche Welt nur im rigorosen Sinn und nicht im
apokryphen Sinn eine mögliche Welt ist. Da nun jeder Autor, der von möglichen
Welten redet, beim Leser erst einmal im Verdacht steht, es ernst zu meinen – wie
jeder, der überhaupt zu reden anfängt –, fühlt sich der Leser dadurch wider seinen
Willen und zu seiner Verwirrung in lauter schwer durchschaubare Fragen (etwa
die des vor- und vorvorletzten Absatzes) hineingezogen. Mancher Autor fängt
dann an, seine Ernsthaftigkeit zu dementieren, mancher Leser wird darob noch
verwirrter, und so weiter. – Man sollte wirklich nur dann von möglichen Welten
reden, wenn man partout rigoros sein will.
Zu betonen bleibt dabei dies: Wenn wir in allen späteren Kapiteln von apokryphen möglichen Welten, eben von möglichen Verläufen reden, so beinhaltet
122
das allein noch keine negative Stellungnahme gegenüber den möglichen Welten
im rigorosen Sinn. Vielmehr lassen wir die Frage einfach beiseite, ob sich aus den
möglichen Welten wirklich rigoroser Sinn machen läßt und welche philosophische Relevanz ihnen dann möglicherweise zukommt; unsere weiteren Ausführungen sind hinsichtlich dieser Frage nur insofern nicht neutral, als sie zeigen, daß
wir im Hinblick auf unsere Thematik ohne solche möglichen Welten auskommen.
4.3 Sachverhalte und Propositionen
Was nun die mit dem Sachverhaltsbegriff verbundenen Fragen betrifft, so befinde ich mich da in einer etwas heiklen Lage zwischen den Fronten. Die Philosophen, die in jüngerer Zeit über die Gegenstände von Ursachenaussagen debattiert
haben,1 teilen sich im wesentlichen in zwei Lager; die einen erblickten in Propositionen die geeigneten Gegenstände von Ursachenaussagen, die anderen in Ereignissen. Demgegenüber möchte ich eine dritte und in gewissem Sinne mittlere
Sorte von Entitäten, nämlich Sachverhalte, unterscheiden; denn meiner Meinung
nach sind es gerade diese, auf welche sich Ursachenaussagen beziehen. Deswegen
muß ich im folgenden nach zwei entgegengesetzten Seiten hin argumentieren. Ich
kündige das gleich vorweg so deutlich an, um damit die Verwirrung über meinen
Standpunkt bezüglich der Problematik (3) von Kapitel 1 hoffentlich möglichst
gering zu halten. Wenden wir uns in diesem Abschnitt zunächst der propositionalen Front zu.
Häufig, und früher häufiger als heute, wurden der Begriff der Proposition und
der des Sachverhalts austauschbar verwandt; aber die Meinung, daß sich hier ein
äußerst wichtiger Unterschied ziehen läßt, scheint immer mehr Anhänger zu finden, wenngleich nicht immer klaren und nicht völlig einheitlichen Ausdruck. Die
Grundidee ist die, daß Sachverhalte so etwas wie die referentiell transparenten
oder die de-re-Gegenstücke zu Propositionen sind. Ich will dies folgenderweise
präziser erläutern:
Propositionen, diese philosophischen Kunstgeschöpfe, sind im modernen
Sprachgebrauch2 so etwas wie die Bedeutungen oder Inhalte von Sätzen – genauer: von deskriptiven, weder elliptischen noch indexikalischen Sätzen oder, wie es
1
2
Bei älteren Philosophen habe ich da keine scharfen Standpunkte entdecken können.
Für eine Bedeutungsgeschichte dieses Wortes s. Church (1956).
123
auch heißt, von zeitlosen Sätzen.1 Nehmen wir die weit verbreitete philosophische
These, die wir jetzt nicht problematisieren wollen, hinzu, daß die Bedeutung eines
solchen Satzes in seinen Wahrheitsbedingungen besteht,2 und folgen wir dem rein
technischen, philosophisch gehaltlosen Kniff, Wahrheitsbedingungen formal
durch Mengen von möglichen Welten (im apokryphen oder im rigorosen Sinn) zu
repräsentieren. Dann lassen sich Propositionen als Mengen von möglichen Welten
darstellen. Darunter gibt es ausdrückbare und nicht ausdrückbare. Die von einem
Satz p ausgedrückte Proposition ist eben gerade die Menge aller möglichen Welten, in denen p wahr ist. Oder zum Zwecke späterer Gegenüberstellung etwas ausführlicher formuliert:
(4.1)
Die von dem Satz Fa ausgedrückte Proposition ist die Menge aller möglichen Welten w, für die gilt: das von a in der Welt w denotierte Individuum liegt in der Extension von F in der Welt w.
Sachverhalte will ich hier ebenfalls formal als Mengen von möglichen Welten
repräsentieren, und möglicherweise sind die ausdrückbaren Sachverhalte gerade
die ausdrückbaren Propositionen. Der intendierte Unterschied tritt erst zutage,
wenn wir betrachten, welche Sätze welche Sachverhalte ausdrücken. Dieses Verhältnis sei so definiert:
(4.2)
Der von dem Satz Fa ausgedrückte Sachverhalt ist die Menge aller möglichen Welten w, für die gilt: das von a tatsächlich (in unserer wirklichen
Welt) denotierte Individuum liegt in der Extension von F in der Welt w.
Danach sind Wendungen der Form „der von dem Satz Fa ausgedrückte
Sachverhalt“ oder, wie wir vielleicht in, genau genommen, unsinniger Verkürzung
sagen dürfen, Sachverhalte selbst referentiell transparent; denn wenn die Individuenterme a und b koreferentiell sind, d.h. tatsächlich dasselbe Individuum be
zeichnen, so drücken die Sätze Fa und Fb gemäß (4.2) denselben Sachverhalt
1
Vgl. etwa Quine (1960), § 40, oder (1969), S. 139ff. – Zwei solche Sätze drücken also genau
dann dieselbe Proposition aus, wenn sie bedeutungsgleich sind; und drum hat man mit dem Propositionsbegriff nicht weniger, aber auch nicht mehr Schwierigkeiten als die mit dem Begriff der
Bedeutungsgleichheit.
2
Vgl. etwa Carnap (1956), §§ 4–6, und Davidson (1967), um nur zwei prominente Quellen zu
nennen. Für eine ausführlichere Diskussion s. Platts (1979), Kap. II.
124
aus. Z.B. drücken also „Brandt stolperte über Guillaume“ und „der erste SPDBundeskanzler der BRD stolperte über den erfolgreichsten DDR-Spion“ denselben Sachverhalt aus; und darin scheint mir der durch (4.2) bestimmte Sachverhaltsbegriff mit dem umgangssprachlichen, intuitiven gut übereinzustimmen.
Hingegen drücken diese beiden Sätze nicht dieselbe Proposition aus; sie sind nicht
bedeutungsgleich. Das liegt eben daran, daß in anderen möglichen Welten Brandt
nicht der erste SPD-Bundeskanzler der BRD oder Guillaume nicht der erfolgreichste DDR-Spion zu sein braucht. Wir können die Angelegenheit daher auch so
wenden: Die von einem Satz ausgedrückte Proposition hängt davon ab, auf welche Weise sich der Satz auf die Dinge, über die er spricht, bezieht; insofern ist sie
de dicto. Hingegen kommt es für den von einem Satz ausgedrückten Sachverhalt
nur darauf an, über welche Dinge der Satz tatsächlich spricht, und nicht darauf,
auf welche Weise er sich auf sie bezieht, er ist de re. Sachverhalte stellen mithin
Zuschreibungsbedingungen dar, Bedingungen, unter denen bestimmten Objekten
bestimmte Eigenschaften oder Beziehungen zuzuschreiben sind.
Natürlich lassen sich die Regelungen (4.1) und (4.2) auf beliebige, logisch
komplexe Sätze ausdehnen: Wenn die Sätze p 1 und p2 die Propositionen bzw.
Sachverhalte V1 und V2 ausdrücken, so drückt der Satz p1 und p2 die Proposition
bzw. den Sachverhalt V1 ∩ V2 aus; und Entsprechendes gilt für die anderen aussagenlogischen Verknüpfungen. Von der Aussagenlogik her ergeben sich also keine
neuen Differenzen zwischen Propositionen und Sachverhalten. Bei den Quantoren
ist das anders; hier gilt einerseits:
(4.3)
Die von dem Satz ∨xFx ausgedrückte Proposition ist die Menge aller
möglichen Welten w, für die gilt: es gibt in der Welt w ein Individuum, das
in der Extension von F in der Welt w liegt.
Und andererseits:
(4.4)
Der von dem Satz ∨xFx ausgedrückte Sachverhalt ist die Menge aller
möglichen Welten w, für die gilt: es gibt tatsächlich (in unserer wirklichen
Welt) ein Individuum, das in der Extension von F in der Welt w liegt.
Entsprechende Formulierungen gelten für den Allquantor.
Diese Unterscheidung zwischen Propositionen und Sachhalten hängt natürlich
125
engstens mit der aktuellen Diskussion über de-dicto- und de-re-Modalitäten zusammen.1 So ist, was de dicto notwendig ist, immer eine Proposition und, was de
re notwendig ist, immer ein Sachverhalt – weil eben das formale Charakteristikum
von de-re-Notwendigkeitsaussagen gerade darin besteht, daß sie wie unsere Sachverhalte referentiell transparent sind. Ebenso wird einem Subjekt bei der Zuschreibung einer de-dicto-Überzeugung eine epistemische Beziehung zu einer
Proposition und bei der Zuschreibung einer de-re-Überzeugung eine epistemische
Beziehung zu einem Sachverhalt unterstellt – wiederum weil als formales Merk
mal dieser Unterscheidung gilt, daß der singuläre Term a in Sätzen der Form X
glaubt de dicto, daß a ein F ist referentiell opak und in Sätzen der Form X glaubt
de re von a, daß es ein F ist referentiell transparent vorkommt. Geklärt ist mit
dieser Beobachtung gar nicht viel, denn die Diskussion dreht sich ja – soweit sie
die de-dicto-Modalitäten nicht problematisiert – dauernd darum, worin denn die
Notwendigkeit eines Sachverhalts und eine epistemische Beziehung zu einem
Sachverhalt bestehen sollen. Unser Problem ist das freilich – glücklicherweise –
nicht2, diese Beobachtung ist für uns nur vergleichshalber von Interesse, insofern
als sie bedeutet, daß sowohl Propositionen wie auch Sachverhalte als Gegenstände
von Notwendigkeits- und Glaubensaussagen ernst genommen werden. Unser
Problem ist vielmehr, wie es sich in dieser Hinsicht mit Ursachenaussagen ver1
Deshalb ist sie im Umkreis dieser Diskussion, leicht variiert vielleicht, immer wieder aufgetaucht. Die Unterscheidung von Donnellan (1966) zwischen attributivem und referentiellem Gebrauch von Kennzeichnungen ist insofern verwandt, als man sagen könnte, daß man die von einem
Satz ausgedrückte Proposition oder den von ihm ausgedrückten Sachverhalt betrachtet, je nachdem, ob man die in ihm vorkommenden Kennzeichnungen als attributiv oder als referentiell gebraucht auffaßt. Dummett (1973), S. 126, macht mit den Begriffen „content of a statement“ (=
Sachverhalt) und „Fregean thought expressed by a statement“ (= Proposition) dieselbe Unterscheidung, und auch Evans (1979), Abschn. III, scheint mit den Begriffen „content“ und „proposition“
eine solche Unterscheidung im Sinn zu haben; beide führen sie ein, um damit den angeblich kontingenten Aussagen a priori von Kripke (1972) zu Rande zu kommen.
Noch klarer ist, daß das, was Kaplan (1978) eine „singular proposition“ nennt, gerade ein Sachverhalt in meinem Sinneist.(Den de-re-Charakter von Sachverhalten macht Kaplan ganz deutlich,
indem er den etwa von Fa ausgedrückten Sachverhalt durch das geordnete Paar, bestehend aus
dem von a denotierten Individuum selbst und der von F ausgedrückten Eigenschaft, repräsentiert.
Solche Paare entsprechend (4.2) wieder als Mengen von möglichen Welten darzustellen, macht
jedoch Sachverhalte und Propositionen vergleichbarer.)
Schließlich scheint mir ein Kerngedanke der von Barwise und Perry mit ihrer Situationssemantik geplanten Umwälzung der formalen Semantik gerade darin zu bestehen, daß sie die von
Sätzen oder Äußerungen ausgedrückten oder bezeichneten Sachverhalte ins Zentrum stellen, während sonst in der formalen Semantik immer nur die Wahrheitswerte von Sätzen und die von ihnen
ausgedrückten Propositionen von Interesse waren. Vgl. dazu etwa Barwise, Perry (1981a,b).
2
Klassische Referenzen für dieses Thema sind Quine (1953, 1955), Hintikka (1962), Abschn.
6.3–6.10, und Kaplan (1969). Siehe auch Sosa (1970), Burge (1977) und die Beiträge in French et
al. (1979a) und Woodfield (1982) – um nur einige Titel aus der überbordenden Literatur zu nennen.
126
hält.
Da müssen wir uns zunächst mit einem Argument auseinandersetzen, welches
Sachverhalte als Gegenstände von Ursachenaussagen angeblich von vorneherein
diskreditiert. Stellen wir uns dazu die Frage, ob logisch äquivalente Sätze denselben Sachverhalt ausdrücken. (Daß logisch äquivalente Sätze dieselbe Proposition
ausdrücken müssen, ist klar, wo Propositionen Wahrheitsbedingungen darstellen.)
Die Frage scheint ein Ja zu verlangen, doch das schafft Probleme – wie die folgende, berüchtigte Argumentation zeigt, in der p und q für zwei beliebige Sätze
mit de facto gleichem Wahrheitswert stehen mögen:
(4.5)
der von p ausgedrückte Sachverhalt
= der von {x | x = x und p} = {x | x = x} ausgedrückte Sachverhalt
= der von {x | x = x und q} = {x | x = x} ausgedrückte Sachverhalt
= der von q ausgedrückte Sachverhalt.
Wenn logisch äquivalente Sätze denselben Sachverhalt ausdrücken, so ist die
Gleichungskette korrekt. Denn von der ersten in die zweite bzw. von der vierten
in die dritte Zeile gelangen wir dadurch, daß wir p bzw. q durch etwas logisch
Äquivalentes ersetzen; und von der zweiten Zeile kommen wir in die dritte, indem
wir {x | x = x und p} durch die koreferentielle Individuenbezeichnung {x | x = x
und q} ersetzen – beide bezeichnen die Allklasse oder die leere Klasse, je nachdem, ob p und q beide wahr oder beide falsch sind –, und gemäß (4.2) ändert sich
der ausgedrückte Sachverhalt durch eine solche Ersetzung nicht. Die Konsequenz
von (4.5) ist gleichwohl absurd; denn danach drückten Sätze mit gleichem Wahrheitswert denselben Sachverhalt aus, d.h. es gäbe nur noch zwei Sachverhalte, den
Wahren und den Falschen – und die taugen fürwahr nicht als Kausalgegenstände.
Anders ausgedrückt ist mit (4.5) bewiesen, daß ein Kontext, der referentiell transparent und in dem Sinne intensional ist, daß man in ihm logisch äquivalente Teilausdrücke salva veritate füreinander ersetzen kann, wahrheitsfunktional sein muß.
Diese Schlußkette hat es – nicht nur – in der philosophischen Kausalitätsdiskussion zu Prominenz gebracht.1 Føllesdal (1965) bringt damit die Kausallogik
von Burks (1951) in Verlegenheit. Für Davidson, der wie selbstverständlich so1
Wegen seiner Einfachheit und Wirksamkeit haben Barwise, Petry (198lb) dieses Argument „the
slingshot“ – die Schleuder – getauft. Erstmals explizit formuliert hat es Church (1943); nahegelegt
ist es allerdings schon von Frege (1892). Zu seinen Verwendungsweisen s. Barwise, Perry (1981b)
und Føllesdal (1983).
127
wohl von der referentiellen Transparenz wie von der Intensionalität von Kausalaussagen ausgeht, ist es ein mehrfach, z.B. in (1967a,b) ausgeführter, wesentlicher
Grund dafür, etwas ganz anderes, nämlich Ereignisse, für die geeigneten Gegenstände von Kausalaussagen zu halten. Und Mackie (1974) plagt sich damit auf den
Seiten 250–254ff.
Für uns ist gleichwohl klar, was von der Gleichungskette (4.5) zu halten ist; sie
ist einfach ein schönes Beispiel dafür, daß logisch äquivalente Sätze nicht immer
denselben Sachverhalt ausdrücken. Denn gemäß (4.2)1 besteht der von {x | x = x
und p} = {x | x = x} ausgedrückte Sachverhalt entweder aus allen möglichen
Welten, falls p wahr ist – die Allklasse ist in allen möglichen Welten mit der
Allklasse identisch –, oder aus gar keiner möglichen Welt, falls p falsch ist. Der
Übergang von der ersten zur zweiten Zeile (wie der von der dritten zur vierten) ist
also im allgemeinen falsch. Das war eigentlich auch zu erwarten: Zwar können
Identitätssätze wie z.B. der in der zweiten Zeile von (4.5) de dicto kontingente
Propositionen ausdrücken, aber de re nur notwendige oder unmögliche Sachverhalte; mit sich selbst identisch zu sein, ist eine notwendige Eigenschaft jedes Gegenstandes, mit andern identisch zu sein, eine unmögliche.2
Entgegen verbreitetem Anschein hat sich unsere Problemsituation durch (4.5)
also nicht geändert. Es steht uns nach wie vor offen, Mengen möglicher Verläufe,
d.h. die Elemente der Algebra A eines Prozeßraumes, als (soweit ausdrückbar,
von Sätzen ausgedrückte) Propositionen aufzufassen; nur müssen wir dann akzeptieren, daß Ursachenaussagen intensional und referentiell opak sind. Ebenso
können wir Mengen möglicher Verläufe als Sachverhalte auffassen; Ursachenaussagen wären dann referentiell transparent, aber nicht (uneingeschränkt) intensional. Und nach wie vor steht die Frage im Raum, welche Alternative vorzuziehen
ist.
An nicht weiter reflektierten Einstellungen zu dieser Frage scheinen mir zwei
vorzuherrschen. Die erste empfindet diese Frage als überflüssige philosophische
Spitzfindigkeit, und sie wird vornehmlich von jenen Mathematikern und Wissenschaftlern dokumentiert, die mit dem mathematischen Apparat aus Abschnitt 4.1
arbeiten. Denn sie scheinen dabei dieser Frage keine Aufmerksamkeit zu schenken; ich kenne jedenfalls dort niemanden, der sich der festgestellten Zweideutig-
1
Bzw. seiner Ausdehnung auf mehrstellige Prädikate.
Damit entgehen wir „der Schleuder“ auf dieselbe Weise, wie es Barwise, Perry (1981b) getan
haben.
2
128
keit des mathematischen Apparates bewußt zeigt. Zweitens neigt das intuitive
Urteil, wenn es doch zu einer Entscheidung gezwungen wird, stark dazu, Kausalaussagen als referentiell transparent zu betrachten; in diese Richtung weisen jedenfalls meine introspektiven und (wissenschaftlich nicht abgesicherten) demoskopischen Erfahrungen. Für beide Einstellungen gibt es gute Gründe:
Die gleichgültige Einstellung findet ihre Begründung darin, daß bei bestimmten Annahmen über die zugrundeliegende Sprache und das sie interpretierende
Modell 〈W, (D W)w∈W, f〉 die Unterschiede zwischen Propositionen und Sachverhalten völlig verschwinden. Machen wir die Annahme:
(4.6)
Alle möglichen Welten haben denselben Gegenstandsbereich D; d.h. für
alle w ∈ W ist Dw = D.
Unter dieser Annahme besteht offenkundig keine Differenz mehr zwischen (4.3)
und (4.4). Und machen wir ferner die Annahme:
(4.7)
Jeder Individuenterm ist ein starrer Designator, d.h. er bezeichnet gemäß f
in jeder möglichen Welt w dasselbe Individuum.1
Dann verschwindet auch der Unterschied zwischen (4.1) und (4.2). Unter diesen
Annahmen ist also immer der von einem Satz ausgedrückte Sachverhalt mit der
von ihm ausgedrückten Proposition identisch. Sind diese Annahmen restriktiv?
Nicht sonderlich:
Mit (4.6) verbauen wir uns die Möglichkeit zu sagen, unter welchen Umständen ein Individuum nicht existiert hätte und was dann alles passiert wäre. Wir
können dann also nicht von den Ursachen und Wirkungen des Faktums der bloßen
Existenz eines Individuums reden. Kausalaussagen, in denen es um die bloße Existenz eines Individuums geht, zu analysieren, ist sicherlich nötig und interessant, aber doch ein Spezialproblem, welches erst einmal nicht zu behandeln bestimmt kein schwerwiegendes Versäumnis ist.
Die Annahme (4.7) ist ebenfalls harmlos, wenn wir der von Kripke (1972) sehr
plausibel gemachten These folgen, daß Eigennamen starre Designatoren sind.
1
Das „d.h.“ ist nur unter (4.6) berechtigt. Genaugenommen heißt ein Designator starr, wenn er in
jeder Welt, in der er überhaupt etwas bezeichnet, dasselbe Individuum bezeichnet, und strikt starr
(strongly rigid), wenn er außerdem in jeder Welt, also notwendig etwas bezeichnet. Vgl. Kripke
(1972), S. 269f. Unter (4.6) ist jedoch Starrheit immer strikt.
129
Kennzeichnungen sind dann die einzigen Individuenterme, die in verschiedenen
Welten verschiedene Gegenstände bezeichnen können; und der Annahme (4.7)
ließe sich einfach dadurch Genüge tun, daß man der zugrundeliegenden Sprache
die sprachlichen Mittel zur Bildung von Kennzeichnungen verweigert. Ich glaube
nicht, daß darin ein schwerwiegender Verlust für konkrete Anwendungen liegen
muß.
Wer will, kann also ohne größere Beeinträchtigung seinem Hantieren mit dem
mathematischen Apparat von Abschnitt 4.1 die Annahmen (4.6) und (4.7) unterlegen, um so allen Zweideutigkeiten, falls sie je relevant würden, aus dem Wege
zu gehen. Dies scheint mir auch die stillschweigende Strategie all derer zu sein,
die konkret mit diesem mathematischen Apparat arbeiten. Aber es wäre, wohlgemerkt, eine Strategie zur Vermeidung und nicht zur Lösung unseres gegenwärtigen Problems, welches auf diese Weise immerhin an Dringlichkeit verlöre.
Verzichten wir nun aber der Diskussion halber auf die Annahmen (4.6) und
(4.7). Der gleichgültigen Einstellung zu unserer Frage ist damit die Grundlage
entzogen, und die andere vorherrschende Einstellung, nämlich Kausalaussagen als
referentiell transparent zu betrachten, kommt zum Tragen. Ich hatte auch für sie
gute Gründe angekündigt, und die, wie mir scheint, natürlichste Begründung findet sie in dem folgenden, wahrlich einleuchtenden Gedanken: „Als ob nicht die
Ursachen gänzlich unabhängig vom Geiste wirkten und in ihrer Betätigung fortfahren würden, auch wenn ein Geist, der sie betrachtet oder über sie nachdenkt,
gar nicht existierte. Das Denken kann in seiner Tätigkeit wohl von den Ursachen
abhängen, aber nicht die Ursachen vom Denken.“1 Es sind also die Dinge selbst,
die in von unserem Denken unabhängige Kausalbeziehungen verwickelt sind, und
drum kann es keinen Unterschied für die Wahrheit von Kausalaussagen machen,
wie wir die Dinge in unseren Aussagen benennen oder kennzeichnen.2
Diese Grundidee ist bestrickend, und vermutlich läßt sie sich in einer Weise
präzisieren, die sie wahr macht. Trotzdem mag ich mich im Moment lieber nicht
auf sie stützen. Denn ihren ziemlich dunklen Gehalt geeignet zu präzisieren, ist
ein äußerst kniffliges Geschäft, insonderheit, was den Begriff „unabhängig von
1
So Hume (1739), 1. Buch, 3. Teil, 14. Abschnitt, S. 227. Hume beschreibt in dem Zitat einen
möglichen, naheliegenden Einwand gegen seine Auffassung von der Notwendigkeit kausaler Verknüpfungen. Auf S. 228 pflichtet er dem Inhalt des Einwandes bei, er bestreitet aber, daß darin
wirklich ein Einwand gegen seine Auffassung liegt.
2
Diesen Gedanken führen z.B. Rosenberg, Martin (1979) aus.
130
unserem Denken“ betrifft;1 erschwerend käme für mich dazu, daß ich – darin etwa
Hume folgend – Kausalbeziehungen in einem gewissen Sinne für nicht von unserem Denken unabhängig halte.2 Außerdem ist die Stoßrichtung dieser Grundidee
üblicherweise eine andere; sie soll zeigen, daß Ereignisse in der Welt die Gegenstände von Kausalbeziehungen sind und nicht Satzartiges wie Propositionen
oder Sachverhalte.3 Und auf diese Richtung mag ich mich, wie angekündigt, überhaupt nicht einlassen. Drum stütze ich mich lieber auf die folgende, enger zugeschnittene Argumentation, die mir schneller ans gewünschte Ziel zu führen
scheint:
Betrachten wir als Beispiel die Kausalaussage „daß Reagan jenes Papier (bekannten Inhalts) unterzeichnete, entfachte am nächsten Tage einen Sturm der Entrüstung im amerikanischen Blätterwald“, und fragen wir uns, ob sich darin „Reagan“ durch die Kennzeichnungen „der amtierende Präsident der Vereinigten
Staaten“ oder „der ehedem distinguierteste B-Movie-Hollywood-Schauspieler“
salva veritate ersetzen läßt. Für eine nicht bloß gefühlsmäßige Beantwortung dieser Frage müssen wir uns überlegen, welchen Unterschied es machen könnte, ob
man den Sachverhalt oder die Proposition betrachtet, den bzw. die die Ursachenbeschreibung „Reagan bzw. der so und so Gekennzeichnete hat jenes Papier unterzeichnet“ ausdrückt.
Dieser Unterschied wird durch die folgende Gedankenkette sichtbar: Unterstellen wir einmal die ungefähre Richtigkeit des kontrafaktischen Ansatzes.4
Dann ist die Beispielskausalaussage gleichbedeutend mit der kontrafaktischen
Aussage „wenn Reagan jenes Papier nicht unterzeichnet hätte, hätte es am nächsten Tag keinen Sturm der Entrüstung im amerikanischen Blätterwald gegeben“.
Akzeptieren wir ferner die übliche Kautschuk-Erklärung kontrafaktischer Aussagen, nach der „wenn A der Fall gewesen wäre, wäre auch B der Fall gewesen“
soviel heißt wie „wenn man aus der Menge der möglichen Welten, in denen A gilt,
all die auswählt, die von der wirklichen Welt am geringfügigsten abweichen, so
hat man lauter mögliche Welten, in denen B gilt“ oder – abgekürzt – „die wirk-
1
Rosenberg, Martin (1979) winden sich auf clevere Weise um solche Präzisierungen herum.
Dies wird in den Kapiteln 5 und 6 deutlich werden.
3
Vgl. etwa Rosenberg, Martin (1979). Zum gesamten Thema vgl. auch die ausführliche, m. E.
aber letztlich ziemlich unklare Diskussion von Mackie (1974), Kap. 10.
4
Was immer an ihm nicht ganz richtig ist, wirkt sich, soweit ich sehen kann, nicht auf die vorgelegte Argumentation aus.
2
131
lichkeitsnächsten aus der Menge der A-Welten sind alle B-Welten“.1 Der springende Punkt ist nun, daß wir jene Menge der A-Welten entweder mit der von A
ausgedrückten Proposition oder mit dem von A ausgedrückten Sachverhalt identifizieren können. Wenn Proposition und Sachverhalt verschieden sind, so können
auch die jeweils wirklichkeitsnächsten möglichen Welten daraus verschieden sein,
und auf diese Weise können sich mit den verschiedenen Identifikationen verschiedene Wahrheitsbedingungen für eine kontrafaktische Aussage ergeben.
Kehren wir, so gerüstet, zu Reagan und seinen Kennzeichnungen zurück, und
bezeichnen wir die drei Aussagen „Reagan hat jenes Papier nicht unterzeichnet“
bzw. „der amtierende Präsident hat jenes Papier nicht unterzeichnet“ bzw. „der
ehedem distinguierteste B-Movie-Hollywood-Schauspieler hat jenes Papier nicht
unterzeichnet“ kurz mit A1 bzw. A2 bzw. A 3. Identifiziert man nun die Menge der
Ak-Welten mit dem von Ak ausgedrückten Sachverhalt (k = 1, 2, 3), so hat man
dreimal denselben Sachverhalt und daher dieselben Wahrheitsbedingungen für die
Sätze „wenn A k der Fall gewesen wäre, dann ...“. In diesem Fall lassen sich also
die fraglichen Kennzeichnungen salva veritate substituieren, wie nicht anders zu
erwarten war. Identifizieren wir nun stattdessen die Menge der Ak-Welten mit der
von Ak ausgedrückten Proposition. Wir haben dann drei verschiedene Propositionen. Jedoch, die wirklichkeitsnächsten Welten aus diesen drei Propositionen sind,
in unserem Beispiel, jeweils dieselben – einfach weil die möglichen Welten, in
denen Reagan nicht jener Präsident bzw. jener Schauspieler ist, in einem zur Erfüllung des jeweiligen Ak überflüssig groben Maße von der wirklichen abweichen
– mit anderen Worten, weil, wenn jener Präsident bzw. Schauspieler nicht unterzeichnet hätte, immer noch Reagan jener Präsident bzw. Schauspieler gewesen
wäre. Dies bedeutet aber nichts anderes, als daß auch bei dieser zweiten Identifikation die fraglichen Kennzeichnungen salva veritate substituierbar sind.
Bezüglich unserer Hauptfrage – Sachverhalte versus Propositionen – leistet
dieses Beispiel also noch keine Diskrimination. Aber es lehrt uns zweierlei: Erstens zeigt es, daß selbst dann, wenn man Propositionen als Gegenstände von Kausalaussagen nähme, Individuenterme in Kausalaussagen in gewissem Umfange
1
Die Rede vom geringfügigsten Abweichen ist natürlich schrecklich unklar. Aber das braucht uns
im Moment nicht zu stören; es genügt völlig, wenn jeder sie so versteht, daß gerade die kontrafaktischen Aussagen wahr werden, die er für wahr hält. Der Witz meines Rekurses auf diese Kautschuk-Erläuterung liegt anderswo.
132
salva veritate ersetzbar sind.1 Und zweitens sagt es uns, wie ein Beispiel beschaffen sein müßte, um die gewünschte Diskrimination zu leisten. Das Beispiel müßte
eines sein, in dem die kontrafaktische Annahme, daß die Ursache nicht eintritt,
impliziert (oder zumindest offen macht), daß eine in der Ursachenbeschreibung
verwandte Kennzeichnung nicht mehr auf das durch sie de facto gekennzeichnete
Individuum zutrifft. Hier ist ein solches Beispiel:
Sir Hillary hatte ein schlimmes Kindheitserlebnis; er war bei ersten Kletterübungen abgestürzt und aber glücklicherweise in einen weichen Heuhaufen gefallen. Es gilt also die kontrafaktische Aussage „wenn Sir Hillary zu jenem Zeitpunkt nicht in einen weichen Heuhaufen gefallen wäre, so wäre er schon in jungen
Jahren zu Tode gekommen“ und auch die entsprechende Kausalaussage. Gilt dann
auch die Aussage „wenn der Erstbesteiger des Mount Everest nicht in einen weichen Heuhaufen gefallen wäre, so wäre er schon in jungen Jahren zu Tode gekommen“? Gehen wir an diese Frage wie im obigen Reagan-Beispiel heran. Dazu
seien die Antecedentia der beiden kontrafaktischen Aussagen mit A4 und A5 abgekürzt. Es gilt dann, die Menge der A4- bzw. der A5-Welten zu betrachten. Fassen
wir diese als den von A 4 bzw. A5 ausgedrückten Sachverhalt auf, so erhalten die
beiden kontrafaktischen Aussagen natürlich die gleichen Wahrheitsbedingungen.
Betrachten wir nun jedoch die von A 4 und A 5 ausgedrückten Propositionen. A 5
macht dann Schwierigkeiten. Denn wir müssen nun die Menge der Welten w betrachten, in denen die Person, die in w als erste den Mount Everest besteigt, nicht
in einen Heuhaufen fällt; und aus dieser Menge müssen wir die wirklichkeitsnächsten Welten betrachten. Welche könnten das sein? Keine, in denen Sir Hillary
nicht in einen Heuhaufen fällt; denn der hätte dann den Mount Everest nicht mehr
bestiegen. Aber auch keine, in denen jemand anders nicht in einen Heuhaufen
fällt; denn in ihnen ist Sir Hillary nicht verhindert, als erster auf den Mount Everest zu steigen. Man mag dies noch einige Male hin und her wenden; das Ergebnis
ist immer, daß die kontrafaktische Annahme, eine der wirklichkeitsnächsten
Welten aus der von A 5 ausgedrückten Proposition sei die wirkliche, keinen rechten Sinn macht. Die kontrafaktische Annahme A5 macht nur Sinn, wenn man sie
so versteht, daß es in ihr um Sir Hillary geht, auch wenn er darin in einer unter
dieser Annahme nicht mehr zutreffenden Weise gekennzeichnet ist. Dies heißt
1
Man könnte versuchen, diesen Umfang formal präzise zu beschreiben, und würde dann auf etwas
hinauskommen, was mit Føllesdal (1965) gut vergleichbar wäre. Denn Føllesdal arbeitet dort präzise Substitutionsbedingungen heraus, allerdings im Rahmen der dem kontrafaktischen Ansatz
nicht gerecht werdenden und letztlich unhaltbaren Kausallogik von Burks (1951).
133
aber, daß es in diesem Beispiel um den von der kontrafaktischen Annahme ausgedrückten Sachverhalt geht und nicht um die von ihr ausgedrückte Proposition; und
diese Schlußfolgerung dürfen wir wohl auf alle solche Beispiele ausdehnen, für
die es überhaupt einen Unterschied macht, ob man die jeweiligen Propositionen
oder Sachverhalte betrachtet.
So stützt diese Argumentation, daß es in der Tat der von der Ursachenbeschreibung ausgedrückte Sachverhalt ist, um den es in einer Kausalaussage geht.
Für die Beschreibung der Wirkung wäre das, genau genommen, gesondert zu begründen. Diesen Punkt will ich aber mit der Bemerkung kurzschließen, daß es
seltsam wäre, Kausalaussagen nur im Hinblick auf die Ursache, aber nicht im
Hinblick auf die Wirkung als referentiell transparent anzusehen.1
Auch ist festzuhalten, daß so weit nicht definitiv ausgeschlossen ist, daß es
pathologische Beispiele gibt, die sich der obigen Argumentation entziehen; diese
ist noch nicht niet- und nagelfest, auch wenn sie sich nicht allein auf unsere Intuitionen in den diskutierten Beispielen beruft, sondern schon so etwas wie ein systematisches Argument liefert. Dieses Argument nun zu zementieren, ist freilich
weniger wichtig als noch kurz zu erläutern, inwiefern der Gedanke, Kausalaussagen seien referentiell opak, doch nur den Anschein von Plausibilität hat.
Dieser Gedanke beruht auf zweierlei: Erstens liegt ihm eine falsche Alternative
zugrunde, die durch das auf S. 126ff. entkräftete Argument (4.5) aufgebaut wurde.
Denn danach sah es so aus, als müsse man als Gegenstände der Kausalrelation
entweder referentiell opake Propositionen oder referentiell transparente Ereignisse
nehmen; und wem letzteres nicht paßte, dem schien nur noch ersteres übrigzubleiben.2 Doch der Kernpunkt dieses Abschnitts ist ja gerade, auszuführen, daß diese
Alternative eine falsche ist.
Der zweite und wichtigere, weil intuitivere Grund für die Meinung, Kausalaussagen seien opak, liegt in solchen Beispielen wie unserem mit Reagan: Jenes Papier (bekannten Inhalts) ist ärgerlich, gewiß. Aber wieso regt sich die gesamte
Presse auf, wenn ein ehemaliger Schauspieler es unterzeichnet? Und für jemanden, der nicht weiß, welch gewichtiges Amt Reagan bekleidet, ist die Entrüstung
über die Unterschrift eines Herrn namens Reagan ebenfalls unverständlich. Erst
1
Von diesem Kurzschluß hält mich auch Vendler (1967) nicht ab, der eine umgangssprachliche
Asymmetrie in der Bezeichnung von Ursachen und Wirkungen feststellt.
2
So Anscombe (1969) auf S. 154 wörtlich: “I am inclined to accept the argument and not look for
a way out. Its conclusion”, nämlich daß die Kausalrelation, wenn sie nicht wahrheitsfunktional ist,
auch nicht transparent sein kann, “was not a surprise to me in respect of causal statements ...”
134
die Tatsache, daß Reagan als amtierender Präsident jenes Papier unterschreibt,
erklärt die Aufregung. Also, so neigt man weiter zu schließen, ist Reagan nur unter der Kennzeichnung „der amtierende Präsident der Vereinigten Staaten“ für die
Entrüstung der Presse ursächlich.
Doch dieser letzte Folgerungsschritt ist von vielen in übereinstimmender Weise
kritisiert worden.1 Er macht sich einer Verwechslung von epistemischer und realistischer Ebene schuldig. Daß A für jemanden eine Erklärung von B liefert, ist
nicht dasselbe wie, daß A eine Ursache von B ist, sondern nur das epistemische
Gegenstück davon. Drum ist allgemein ohne Bedenken akzeptiert, daß die Relation des Erklärens referentiell opak ist; für jemanden, der die einschlägigen Identitäten nicht kennt, aber auch nur für so jemanden, ist die Entrüstung der Presse nur
durch Berufung auf den amtierenden Präsidenten erklärlich.2 Aber das überträgt
sich nicht auf die Ursachenrelation. Um eine Parallele zu wählen: Jedermann wird
zugeben, daß es ist wahr, daß Fa bezüglich a referentiell transparent ist (sofern
Fa transparent ist), und jedermann wird es als absurd empfinden, deswegen an
zunehmen, daß jemand hält für wahr, daß Fa transparent sei. Ebenso kann man
zugeben, daß daß Fa, ist eine Ursache von ... bezüglich a transparent ist, ohne
daß man darum meinen müßte, daß Fa, hält jemand für eine Ursache von ... sei
transparent. Wir dürfen also resümieren, daß die Gründe, die dafür sprechen, daß
Kausalaussagen referentiell opak sind, keine guten sind und daß die Gründe dafür,
Kausalaussagen als referentiell transparent zu betrachten, weit überwiegen.
4.4 Sachverhalte und Ereignisse
Damit können wir uns der anderen Front der hier geführten Auseinandersetzung zuwenden. Wenn Kausalaussagen als referentiell transparent aufzufassen
sind, wieso soll man dann trotzdem noch Satzartiges wie Sachverhalte und nicht
gleich Ereignisse als Gegenstände der Kausalrelation nehmen? Bevor wir diese
Frage behandeln können, müssen wir uns klarmachen, was denn Ereignisse genau
1
Vgl. etwa Davidson (1967b), S. 702f., Mackie (1974), S. 265ff., und als noch klarere Belege
Rosenberg, Martin (1979) und Lombard (1979), wo überall zwischen „cause“, „producing cause“
etc. einerseits und „explains“, „causally explains“, „explanatory cause“ etc. andererseits unterschieden wird.
2
Solange er nicht annimmt, die Presse sei an ehemaligen Schauspielern mehr interessiert als an
amtierenden Präsidenten.
135
sein sollen.
Als erstes gibt es da eine fatale Konfusion auszuräumen, die darin liegt, daß es
einen mathematischen und einen philosophischen Gebrauch von „Ereignis“ gibt.
Im mathematischen Gebrauch sind Ereignisse Dinge, für die Wahrscheinlichkeiten erklärt sind, d.h. die Elemente einer Mengen-σ-Algebra, auf der ein Wahrscheinlichkeitsmaß definiert ist. Das Wort „Ereignis“ wird dort nur verwandt, um
eben einen Namen für Dinge zu haben, von denen angenommen wird, sie ließen
sich durch die Elemente einer σ-Algebra repräsentieren. Was die so repräsentierten und so benannten Dinge genau sein sollen, sagt der Mathematiker nicht mehr.
Das herauszubekommen, ist ja z.B. gerade das Ziel dieses Kapitels. Ereignisse im
mathematischen Sinn mit Ereignissen im philosophischen Sinn zu identifizieren,
ist daher voreilig und, wie wir uns anschicken zu begründen, sogar falsch; und das
macht diese Äquivokation so fatal.1
Uns interessieren also im weiteren nur Ereignisse im philosophischen Sinne.
Was sind diese? Beispiele dafür sind die erste bemannte Mondlandung, der Wiener Kongress im Jahre 1815, die Geburt und der Tod eines Menschen, das Gewitter gestern über München, etc. Bevorzugtes sprachliches Mittel zur Benennung
von Ereignissen ist die Nominalisierung von Verben. Solche Nominalisierungen
sind im Deutschen häufig nicht möglich; aber im Englischen scheinen sie sich mit
Hilfe der Gerund-Konstruktion praktisch unbeschränkt bilden zu lassen.2
Diese Beispiele und Beobachtungen sagen uns aber nicht, was für eine Sorte
Gegenstand Ereignisse sein sollen. Klarer wird das, wenn wir an unsere Charakterisierung möglicher Welten im rigorosen Sinne (S. 118ff.) zurückdenken. Denn
mit diesen haben Ereignisse das Merkmal gemein, typischerweise unerschöpflich
zu sein. An jenem Gewitter gestern über München gibt es unendlich viel zu beschreiben: wann es aufzog und sich wieder verzog, wie oft es blitzte, welcher Regentropfen auf welcher Bahn niederging, daß es einen Baum entwurzelte und 57
1
Martin und Suppes manifestieren auf schöne Weise diese Konfusion. Martin (1981) kritisiert
Suppes (1970) wegen seines angeblich unbedachten Hantierens mit Ereignissen, fest von der stillschweigenden Unterstellung ausgehend, Suppes (1970) fasse Ereignisse im philosophischen Sinne
auf. In seiner Entgegnung entgeht Suppes (1981) diese Unterstellung; stattdessen insistiert er einfach auf dem mathematischen Gebrauch und perpetuiert so das Aneinandervorbeireden.
2
Z.B. ist Davidsons Beispiel „Flora’s drying of herself with a coarse towel on the beach at noon“
(diese Formulierung findet sich in Mackie (1974), S. 256) im Deutschen nicht nachvollziehbar.
Hier haben wir, glaube ich, ein schönes Beispiel für den Einfluß der Muttersprache aufs Philosophieren. Denn daß Ereignisse im philosophischen Sinne derzeit eine so prominente Rolle spielen,
liegt, wie mir scheint, zu einem gut Teil einfach daran, daß im Englischen eine gängige grammatische Konstruktion existiert, die typischerweise zur Benennung von Ereignissen verwandt werden
kann. (Und natürlich liegt es auch an Davidson.)
136
Keller füllte, und so weiter. Durch nichts ist garantiert, daß eine fest gegebene
Sprache ausreicht, um alles, was es an dem Gewitter zu beschreiben gibt, zu beschreiben – „alles“ in dem offenen Sinne von S. 119 genommen. Die bösen
Schwierigkeiten, die man mit den möglichen Welten im rigorosen Sinne wegen
ihrer bloßen Möglichkeit hat, hat man freilich mit Ereignissen nicht; Ereignisse
sind nie bloß mögliche, sondern immer wirkliche Ereignisse, die nicht von uns
erfunden zu werden brauchen. Ereignisse sind kleine unerschöpfliche Ausschnitte
aus unserer einen großen unerschöpflichen wirklichen Welt.
Dafür rutschen wir in eine andere Schwierigkeit. Zu unserer einen wirklichen
Welt gehören alle Wahrheiten überhaupt. Aber was alles gehört zu einem Ereignis
und was nicht? Dies ist die Frage nach den Identitätsbedingungen von Ereignissen, und die Antwort darauf ist notorisch unklar. Das Gewitter gestern über München ist gewiß identisch mit dem Gewitter gestern über der bayerischen Landeshauptstadt; die referentielle Transparenz von Ereignisbezeichnungen steht außer
Frage und ist hier nicht das Problem. Aber ist das Gewitter gestern über München
dasselbe wie der heftige Regenfall gestern über München? Vermutlich nicht; denn
man würde sagen, daß die Sturmböen, mit denen das Gewitter anfing, dem Regenfall vorausgingen. Ist dann die erste schwarze Wolke über München Vorbote oder
Beginn des Gewitters und der Großeinsatz der Feuerwehr Teil oder Folge? Es ist
klar, daß man hier zusehends weniger entscheidbare Fragen stellen kann.
Dies soll keine Klage über die arg vage Individuierung von Ereignissen sein.
Solche Vagheit haftet nicht nur Ereignissen an; Unklarheiten mit der Individuierung gibt es bei fast allen Gegenständen. Vielmehr sollte die Art der Schwierigkeit verdeutlichen, wie man Ereignisse idealiter individuieren könnte. Für mich
ergibt sich daraus, daß die klarste und einfachste Idealisierung hier darin besteht,
ein Ereignis mit einem bestimmten Raum-Zeit-Gebiet bzw. mit all dem, was innerhalb dieses Raum-Zeit-Gebietes passiert, zu identifizieren. Natürlich legt eine
Ereignisbezeichnung normalerweise die Grenzen des zugehörigen Raum-ZeitGebietes nur sehr vage fest; aber das ist kein Einwand, wo sich unsere Identifizierung als Idealisierung bekennt.
Nach Davidson (1969) ist diese Weise der Individuierung von Ereignissen –
immerhin, bloß? – die zweitbeste. Er zieht es am Ende vor zu sagen, daß zwei
Ereignisse gerade dann identisch sind, wenn sie genau dieselben Ursachen und
Wirkungen haben. Abgesehen davon, daß dies, wie Davidson selbst zugibt, nicht
137
sehr hilfreich ist,1 scheint mir diese Identitätsbedingung doch auch fragwürdig zu
sein. Z.B. ist es danach ausgeschlossen, daß es zwei verschiedene Ereignisse gibt,
die weder Ursache noch Wirkung haben. Gewiß nehmen wir an, daß es nicht einmal ein solches Ereignis gibt, weil wir eben so fest am Kausalprinzip hängen.
Aber wenn es ein solches Ereignis gibt, was ist dann an der Vorstellung, es gäbe
noch ein zweites, so unmöglich?
Wie dem auch sei – für uns kommt es im Moment nicht darauf an, uns der alleradäquatesten Individuierung von Ereignissen zu versichern. Fürs folgende ist es
allein wichtig, über eine klar verständliche und ziemlich adäquate Individuierung
zu verfügen; und das tun wir, wenn wir ein Ereignis mit all dem (unbeschreiblich
Vielen), was innerhalb eines bestimmten Raum-Zeit-Gebietes passiert, identifizieren. Was immer an dieser Individuierung zu verbessern ist, dürfte keinen Einfluß
auf unsere weitere Argumentation haben.
Warum sollte man Ereignisse in diesem philosophischen Sinn als Gegenstände
von Kausalaussagen nehmen? Ich konnte nur wenig Gründe dafür finden. Was
einen überhaupt auf diese Idee bringt, ist natürlich, daß in sehr vielen umgangssprachlichen Kausalaussagen offenbar von Ereignissen die Rede ist – etwa
wenn wir sagen, das Gewitter habe den Großeinsatz der Feuerwehr ausgelöst. Aber es ist klar, daß mit dieser Beobachtung ohne weitere systematische Argumente
noch nicht viel anzufangen ist. Dann ist da die auf S. 129 geschilderte intuitive
Begründung für die referentielle Transparenz von Kausalaussagen. Und vor allem
gibt es das auf S. 126 dargestellte Argument (4.5), welches die Anhänger satzartiger Gegenstände von Kausalaussagen in Verlegenheit bringen soll. Beide Argumente ziehen aber nur, wenn die Alternative „Propositionen oder Ereignisse“ hieße. Unsere Alternative heißt jedoch „Sachverhalte oder Ereignisse“, und bezüglich dieser ist die genannte intuitive Begründung zu undifferenziert und jenes Argument (4.5) schlichtweg irrelevant. Gewichtigere Gründe pro Ereignisse sind
meines Wissens nicht aufgetaucht.
Bei so schwacher Gegenwehr hat es die folgende Argumentation contra Ereignisse nicht schwer: Da springt zunächst ins Auge, daß es ganz unmöglich ist, daß
die Elemente der Algebra A eines Prozeßraumes 〈I, Ω, A〉 – um deren Interpretation es ja nach wie vor geht - Ereignisse im philosophischen Sinn repräsentieren.
Denn diese Elemente unterliegen logischen Operationen wie Negation und Konjunktion, repräsentiert durch die entsprechenden mengenalgebraischen Operatio1
“It is one thing for a criterion to be correct, another for it to be useful.” (1969), S. 233.
138
nen. Auf Ereignisse sind logische Operationen nicht anwendbar. Aus der Konjunktion zweier Ereignisse könnte man zur Not noch Sinn machen; man könnte
sie als die Vereinigung der beiden Raum-Zeit-Gebiete auffassen. Aber was man
unter der Adjunktion zweier Ereignisse verstehen soll, ist schon rätselhaft; und so
etwas wie die Negation eines Ereignisses ergibt endgültig keinen Sinn mehr. Ereignisse sind eben keine satzartigen Entitäten.1
So weit ist das natürlich noch kein Argument gegen Ereignisse als Gegenstände von Kausalaussagen. Man könnte daraus ebensogut folgern, daß der mathematische Apparat aus Abschnitt 4.1 von vorneherein für eine Kausalitätstheorie untauglich ist. Nachdenklich stimmt dabei nur, daß die Einzelwissenschaften anscheinend erfolgreich mit diesem Apparat arbeiten. Und in der Tat ergibt sich
meines Erachtens aus dem nicht satzartigen Charakter von Ereignissen im philosophischen Sinne nicht nur, daß sie mit dem mathematischen Apparat nicht zusammenpassen, sondern auch, daß man mit ihnen überhaupt keine vernünftige
Kausalitätstheorie machen kann. Denn an all den Arbeiten, die darauf insistieren,
daß die Anwendung der Ursachenrelation auf zwei Ereignisse die eigentliche logische Form von Kausalaussagen darstelle, hat mich dies am meisten verwundert:
daß sie kaum etwas darüber zu sagen vermögen, worin die Ursachenrelation zwischen zwei Ereignissen besteht, was sie bedeutet oder wie sie zu analysieren oder
theoretisch zu erfassen ist.2 Stattdessen ist zu beobachten, daß eigentlich alle mehr
oder weniger erfolgreichen Ansätze zu einer Analyse der Kausalrelation auf Satzartiges wie Propositionen oder Sachverhalte Bezug nehmen.3 Jedenfalls gilt das
für alle im Kapitel 2 geschilderten Ansätze; es sind Sachverhalte oder Propositionen und nicht Ereignisse, die Wahrscheinlichkeiten bekommen, die in subjunkti-
1
Dies haben z.B. Kim (1971) und Martin (1981) zu Recht deutlich hervorgehoben. Die damit
verbundene Kritik an Mackie (1965) bzw. Suppes (1970) ist freilich weniger berechtigt, da diese
gerade nicht Ereignisse im philosophischen Sinn meinen, wenn sie von Ereignissen reden.
2
Es gibt scheinbare Ausnahmen davon. Z.B. Kim (1971), der im Abschnitt IV Mackies INUSBedingungen in Ereignisterminologie reformuliert; aber was er in diesem Abschnitt Ereignisse
nennt, scheinen mir doch eher so etwas wie unsere Sachverhalte und nicht Ereignisse im oben
erläuterten Sinn zu sein. Oder Lewis (1973), obwohl das ein ziemlich undurchsichtiger Fall ist. So
schreibt er auf S. 562, daß unter einer gewissen harmlosen Bedingung eine eineindeutige Entsprechung zwischen Propositionen und Ereignissen besteht. Man mag dies so deuten, daß Ereignisse
bei ihm propositionsartig sind, oder so, daß Propositionen bei ihm ereignisartig sind; und daß beides nicht so falsch wäre, liegt letztlich daran, dass Lewis derjenige ist, der es mit den möglichen
Welten am allerbitterernstesten meint. Ich will das jetzt nicht weiter kommentieren; man lese sich
seine S. 562 und insbesondere seine Fußnote 9 gründlich durch. Schließlich sind Ereignisse, wie
Mehlberg (1980), vol. 2, S. 77ff. sie erläutert und als Gegenstände von Ursachenaussagen betrachtet, gerade (spezielle physikalische) Sachverhalte im hier erklärten Sinn.
3
Dies räumt z.B. Davidson (1967b), Abschnitt IV, ausdrücklich ein.
139
ven Beziehungen zueinander stehen, und die in Naturgesetzen miteinander verknüpft werden.1
Beharrt man nun auf Ereignissen als alleinigen Gegenständen der Kausalrelation, so bleibt völlig unklar, was die so verstandene Kausalrelation mit all diesen
Analysen zu tun haben soll. Auch ist dann der immer betonte enge Zusammenhang zwischen Verursachung und Erklärung ganz unverständlich. Oder man akzeptiert daneben noch eine weitere Kausalrelation mit satzartigen Gegenständen.2
Dann scheinen aber alle interessanten Aussagen diese zweite Kausalrelation zu
betreffen, und die Ereignis-Kausalrelation wird zum überflüssigen und immer
noch unklar verknüpften Anhängsel degradiert. Mir scheint hier das Insistieren
auf einer bestimmten logischen Form von Kausalaussagen keinen rechten Sinn zu
haben. Ich halte es für eindeutig, daß wir am besten das als Gegenstände von Kausalaussagen nehmen, womit wir die beste Kausalitätstheorie machen können.
Daß sich mit Ereignissen keine angemessene Kausalitätstheorie formulieren
läßt, ist mit diesen Bemerkungen natürlich nicht bewiesen, sondern nur nahegelegt. Insofern vervollständigt sich dieses Argument eigentlich erst mit dem Rest
dieser Arbeit, in der wir eine mit Sachverhalten arbeitende und, wie ich meine,
befriedigende Kausalitätstheorie entwickeln werden, die sich aber unmöglich in
eine mit Ereignissen arbeitende Theorie umformulieren lässt.
Am Ende stehen sich Sachverhalte und Ereignisse aber vielleicht doch nicht so
unverträglich gegenüber, wie wir es bis jetzt dargestellt haben. Denn es gibt eine
reelle Möglichkeit, Ereignisse wieder näher an Sachverhalte heranzurücken. Zwei
Gedanken sind dazu einzuführen:
Nennen wir einen Sachverhalt physikalisch maximal spezifisch, wenn es ein
Raum-Zeit-Gebiet gibt, so daß der Sachverhalt alle grundlegenden physikalischen
Eigenschaften aller in diesem Gebiet liegenden Teilchen oder Felder – oder aus
was die physikalische Ontologie letztlich bestehen mag – angibt. Wenn z.B. die
Newtonsche Gravitationstheorie die grundlegende physikalische Theorie wäre
und wenn unser Sonnensystem nur aus der Sonne, ihren Planeten und deren Monden – alle zu Massepunkten idealisiert – bestünde, so würde eine Beschreibung,
die die Massen dieser Körper, deren Bahnen und das im Sonnensystem herrschen1
Dabei darf man sich nicht davon verwirren lassen, daß Sachverhalte Sachverhalte über Ereignisse
sein können. Natürlich kann man einem Ereignis wie jedem anderen Gegenstand auch eine Eigenschaft zuschreiben und dem so ausgedrückten Sachverhalt etwa eine Wahrscheinlichkeit geben.
Aber dann hat der Sachverhalt und nicht das Ereignis die Wahrscheinlichkeit.
2
Wie es z.B. Davidson (1967b), Abschnitt IV, tut.
140
de Gravitationsfeld während eines bestimmten Zeitraums angibt, einen physikalisch maximal spezifischen Sachverhalt ausdrücken. Besonders einfache, physikalisch maximal spezifische Sachverhalte sind solche, die sich nur auf einen einzigen Raum-Zeit-Punkt beziehen. Entscheidend ist dabei, daß sich solche Sachverhalte im Prinzip wirklich sprachlich, eben in der Sprache der grundlegenden
Physik ausdrücken lassen.
Stellen wir uns nun auf einen moderaten materialistischen oder physikalistischen Standpunkt, der besagt: Wenn zwei Dinge (z.B. Raum-Zeit-Gebiete) sich
hinsichtlich ihrer grundlegenden physikalischen Eigenschaften nicht unterscheiden, so können sie sich auch nicht hinsichtlich irgendwelcher anderer Eigenschaften unterscheiden. Diesem Standpunkt zufolge ist z.B. Descartes’ Lehre von
den zwei Substanzen ausgeschlossen. Aber ansonsten ist er moderat; er behauptet
nicht, daß nicht-physikalische Eigenschaften die gleiche Bedeutung hätten wie
geeignete logische Konstruktionen aus grundlegenden physikalischen Eigenschaften, durch solche definierbar oder sonstwie auf solche reduzierbar oder auch
nur mit solchen koextensiv wären. Deshalb gibt es auch kaum jemanden, der diesen Standpunkt ablehnt.1
Wie dieser Standpunkt hier zur Wirkung kommen soll, ist klar. Denn wenn dieser Physikalismus richtig ist, so dürfen wir Ereignisse mit wahren, physikalisch
maximal spezifischen Sachverhalten identifizieren. Zwar mag in dem für ein Ereignis charakteristischen Raum-Zeit-Gebiet unbeschreiblich viel passiert sein;
aber all das unbeschreiblich Viele, was dann zu diesem Ereignis gehört, ist durch
die grundlegende physikalische Beschreibung schon eindeutig bestimmt.
Auf diese Weise bekämen Ereignisse doch noch satzartigen Charakter, und
man könnte sie als Gegenstände von Kausalaussagen zulassen. Vielleicht besänftigt das die, die für Ereignisse als Gegenstände von Kausalaussagen plädiert hatten. Gleichwohl ist festzuhalten, daß es nach wie vor Sachverhalte sind, die für
eine Kausalitätstheorie grundlegend sind. Wenn man speziell Kausalbeziehungen
in der Physik untersucht, so sind vielleicht am Ende nur physikalisch maximal
spezifische Sachverhalte interessant. Aber schon das ist ungewiß. Und natürlich
muß eine Kausalitätstheorie Kausalbeziehungen in allen empirischen Gebieten
behandeln – sei es Psychologie, Ökonomie, Geologie etc. –, und dort haben wir es
1
Drum seien auch nicht die zahllosen Stellen angeführt, wo dieser Standpunkt vertreten wurde. Im
Englischen wird seine These häufig so ausgedrückt, daß alle Eigenschaften „supervenient upon“
den grundlegenden physikalischen Eigenschaften seien. Für eine präzise Formulierung dieser
These und des Begriffs der „supervenience“ siehe Kim (1978) und (1979).
141
bestimmt nicht mehr mit physikalisch maximal spezifischen Sachverhalten zu tun.
So weit unsere reichlich lange Begründung dafür, warum wir die Elemente der
Algebra A eines Prozeßraumes 〈I, Ω, A〉 Sachverhalte und nicht anders nennen.
Im Rahmen dieser Arbeit war dies freilich eher eine Abschweifung. Denn so
wichtig es ist, sich über die Gegenstände von Kausalaussagen und über die Interpretation des Apparats von Abschnitt 4.1 Klarheit zu verschaffen, so wenig konkret werden die Auswirkungen der in den Abschnitten 4.2–4.4 angestellten Überlegungen für das Weitere sein.
KAPITEL 5
PROZESSGESETZE: ZUR THEORIE DES KONDITIONALS
Mit der formalen Definition von Prozeßräumen und der Klärung und der Interpretation der in ihnen enthaltenen Entitäten haben wir unsere erste Aufgabe erledigt: wir haben uns das Material zur Beschreibung von Wirklichkeitsausschnitten
beschafft, an denen wir die in ihnen herrschenden Kausalverhältnisse untersuchen
wollen. Damit steht die zweite Aufgabe vor uns: diejenigen Beschreibungselemente in formaler Allgemeinheit zu erfassen, die sagen, nach welchen Regeln die
uns interessierenden Wirklichkeitsausschnitte funktionieren oder uns zu funktionieren scheinen – um es absichtlich vage auszudrücken. Diese Funktionsregeln –
seien es tatsächliche oder bloß geglaubte – sind das, was ich hier als Prozeßgesetze bezeichnen werde, und auf ihrer Grundlage wollen wir später die kausale Begrifflichkeit explizieren.
Hier an dieser Stelle wird sich unsere Theorie der Kausalität zweiteilen, wie es
von der Problematik (7) im Kap. 1 und von den in Kap. 2 geschilderten Explikationen dauernd nahe gelegt wurde. Wir werden deterministische und probabilistische Prozeßgesetze zu unterscheiden haben. Ein zentrales Anliegen wird mir dabei sein, unsere Kausalitätstheorie damit nicht einfach in zwei Teile zerfallen zu
lassen, sondern beständig die enge Parallelität zwischen deterministischer und
probabilistischer Behandlungsweise aufzuzeigen.
Obschon der probabilistische Fall die kompliziertere mathematische Struktur
ins Spiel bringt, wollen wir uns ihm zuerst zuwenden. Der Grund dafür ist, daß
wir uns bei diesem Fall noch ganz an die gewohnte mathematische Orthodoxie
halten können. Die mathematische Standardbehandlung des deterministischen
Falls ist hingegen für unsere Zwecke unbrauchbar. Hier werden wir also an einer
grundlegenden Stelle von der mathematischen Orthodoxie abweichen müssen und
eine formal nicht komplizierte, aber vom Verständnis her ungewohnte Neuerung
einführen, die drum sorgfältiger Erläuterung bedarf. Und eben diese Erläuterung
144
fällt leichter, wenn wir den probabilistischen Fall schon dargestellt haben.
Aus demselben Grunde, zur besseren Erläuterung dieser Neuerung, müssen wir
außerdem einen sicherlich abwegig anmutenden Schritt vollziehen. Dieser besteht
darin, die zu definierenden Prozeßgesetze zunächst nur an ihrer epistemischen
Interpretation zu erläutern und ihre realistische Interpretation vorläufig zu vernachlässigen. Das heißt, daß diese Prozeßgesetze so erläutert werden, daß sie
nicht beschreiben, wie es im betrachteten Wirklichkeitsausschnitt tatsächlich zugeht (das wäre die realistische Interpretation), sondern beschreiben, was ein bestimmtes epistemisches Subjekt X über diesen Wirklichkeitsausschnitt glaubt (das
ist die epistemische Interpretation). Abwegig erscheint dies fürwahr. Expliziert
man kausale Begriffe mit solcherweise epistemisch interpretierten Prozeßgesetzen, so können dabei bestenfalls die kausalen Vorstellungen jenes Subjektes X
expliziert werden. Wiewohl das nicht geringzuachten wäre, so ist natürlich zuzugeben, daß nur realistisch interpretierte Prozeßgesetze uns sagen können, wie
die Kausalverhältnisse im betrachteten Wirklichkeitsausschnitt tatsächlich sind.
Prozeßgesetze realistisch zu interpretieren, ist jedoch ein großes Problem, und alle
schnellen Lösungsvorschläge dafür versacken meines Erachtens in Unverständlichkeit. Eine epistemische Interpretation von Prozeßgesetzen hat demgegenüber
den großen Vorteil klarer Verständlichkeit. Und deswegen werden wir uns zunächst auf sie konzentrieren und das drängende Bewußtsein dessen, daß es eigentlich auf eine realistische Interpretation ankommt, zurückhalten. Im Abschnitt
6.5 werde ich darauf zurückkommen.
5.1
Wahrscheinlichkeitsmaße und ihre Konditionalisierungen
Hier können und wollen wir uns, wie gesagt, noch ganz an das mathematisch
Übliche halten. Entsprechend schnell sind die Formalien erledigt:
Definition 5.1: Sei 〈I, Ω, A〉 ein P-Prozeßraum. Dann heißt P ein probabilistisches Prozeßgesetz für 〈I, Ω, A〉 genau dann, wenn P ein Wahrscheinlichkeitsmaß1 auf A ist. 〈I, Ω, A, P〉 nennen wir dann einen probabilistisehen Prozeß. Statt
von probabilistischen Prozessen und Prozeßgesetzen reden wir auch von PMaße sind hier, wie üblich, immer σ-additiv. Die Frage, ob und inwieweit sich unsere Ausführungen auf endlich additive Inhalte erweitern lassen, werden wir nicht verfolgen.
1
145
Prozessen und P-Prozeßgesetzen. Schließlich nennen wir P auch das Gesetz des
P-Prozesses 〈I, Ω, A, P〉.
Mithin ist, wie schon auf S. 114 erwähnt, ein probabilistischer Prozeß im wesentlichen das, was in der Mathematik unter einem stochastischen Prozeß verstanden wird. Voll in die mathematische Theorie der stochastischen Prozesse einzusteigen, werden wir dennoch vermeiden können, da wir unsere Kausalitätstheorie auf endliche Prozeßräume einschränken werden. Dies ist einerseits ein Entgegenkommen an den Leser; denn für endliche Prozeßräume wird die involvierte
Wahrscheinlichkeitstheorie wesentlich einfacher und leichter verständlich. Vor
allem aber hat diese Beschränkung systematische Gründe; denn die Formulierung
unserer Kausalitätstheorie in mathematisch üblicher Allgemeinheit bringt eine
Reihe von technischen Problemen mit sich, die man von den inhaltlichen Problemen streng getrennt halten sollte; und mit dieser Beschränkung können wir uns
eben ganz auf die inhaltlichen Probleme konzentrieren.
Was für diesen Abschnitt zu tun bleibt, ist, uns einigermaßen unseres Verständnisses der neu eingeführten Entität, des Wahrscheinlichkeitsmaßes P auf A,
zu versichern. Wir können das W-Maß P im wesentlichen auf zwei vertraute Weisen auffassen. Zum einen können wir für jeden Sachverhalt A ∈ A die Zahl P(A)
als die objektive oder statistische Wahrscheinlichkeit dafür verstehen, daß der
Sachverhalt A vorliegt. Man mag diese als die relative Häufigkeit (oder deren
Grenzwert) verstehen, mit der in den Wiederholungen oder Replikaten des durch
〈I, Ω, A〉 erfaßten Wirklichkeitsausschnitts die Replikate von A vorliegen; oder
man mag sie mit der Propensity identifizieren, mit der die im Sachverhalt A involvierten Dinge die ihnen in A zugeschriebenen Eigenschaften oder Beziehungen
aufweisen. Jedenfalls haben wir ein krudes Verständnis von dieser, wie ich es
nenne, realistischen Interpretation von W-Maßen. Bei diesem müssen wir’s hier
freilich belassen. Denn diese realistische Interpretation präzise auszubuchstabieren, hat sich als außerordentlich schwieriges und bis heute nicht befriedigend bewältigtes Geschäft erwiesen, über das zudem wenig Einigkeit herrscht,1 und darin
mischen wir uns jetzt besser nicht ein. Es ist lediglich vor dem Irrtum zu warnen,
unser vertrauter Umgang mit statistischen Wahrscheinlichkeiten verschaffe uns
schon ein präzises Verständnis von ihnen.
1
Vgl. etwa Stegmüller (1973), Teil III, Salmon (1966), Kap. V, Mackie (1973), Kap. 5, und die
dort angegebene Literatur.
146
Zum andern können wir die subjektivistische, personalistische oder, wie ich es
nenne, epistemische Interpretation anlegen, wir können die Zahl P(A) als den
Grad interpretieren, in dem ein bestimmtes epistemisches Subjekt X an das Vorliegen des Sachverhalts A glaubt. Das W-Maß P beschreibt dann den gesamten
epistemischen Zustand von X bezüglich des durch 〈I, Ω, A〉 gegebenen Wirklichkeitsausschnitts. Wie mehrfach demonstriert wurde,1 ist es für X rational, daß sein
epistemischer Zustand den Axiomen mathematischer Wahrscheinlichkeit genügt.
Wir wollen unser Subjekt X daher so weit idealisieren, daß es in diesem Sinne
rational ist. Diese epistemische Interpretation2 halte ich gegenüber der realistischen für die entschieden klarere und greifbarere, auch wenn sie bei vielen Anwendungen die unerwünschtere oder unpassendere zu sein scheint.
Ausführlicher sei nun gar nicht auf die Interpretation des Wahrscheinlichkeitsbegriffs eingegangen. Eine vorläufige Diagnose ist jedoch gleich festzuhalten:
nämlich daß das Verständnis eines so oder so interpretierten Wahrscheinlichkeitsbegriffs in keiner offenkundigen Weise das Verständnis kausaler Dinge voraussetzt. Wenn uns auf der Grundlage von P-Prozessen eine adäquate Explikation
kausaler Begriffe gelingt, so dürfen wir also hoffen, daß diese Explikation eine
echte, d.h. auch von allen intuitiven Zirkeln freie ist.
Einen wichtigen Aspekt der epistemischen Interpretation müssen wir freilich
noch vertiefen – zwecks späterem Vergleich mit dem deterministischen Fall. In
obiger Schilderung war die epistemische Interpretation rein statisch. Damit ist
gemeint, daß mit dem W-Maß P nicht mehr als ein bestimmter epistemischer Zustand unserer Person X bezüglich der Sachverhaltsmenge A beschrieben wurde –
das heißt: der epistemische Zustand, in dem X sich zu einem ungenannt gebliebenen Zeitpunkt befindet. Eine dynamische Beschreibung des Zusammenhangs zwischen X’s epistemischen Zuständen zu verschiedenen Zeitpunkten ist damit nicht
geliefert. Diese wird jedoch aus dem folgenden Grunde für uns wichtig werden:
Wenn wir das W-Maß P als den epistemischen Zustand von X zum Zeitpunkt t
interpretieren, so können wir relativ dazu auch nur X’s Kausalvorstellungen über
A zum Zeitpunkt t explizieren. Wenn es nun ferner eine plausible oder gar allgemein akzeptierte Beschreibung dessen gibt, wie sich X’s epistemischer Zustand
unter gewissen Einflüssen im Laufe der Zeit ändert, so induziert diese über die zu
1
Vgl. etwa de Finetti (1937), ch. I, Stegmüller (1973), Teil II.6, oder Richter (1972).
Welche in Stegmüller (1973), Teil II.1, Salmon (1966), Kap. V, Mackie (1973), Kap. 5, und der
dort angegebenen Literatur ausführlicher geschildert ist.
2
147
liefernde Explikation kausaler Begriffe eine Beschreibung dessen, wie sich X’s
Kausalvorstellungen unter diesen Einflüssen ändern; und es stellt sich dann die
Frage, ob diese zweite Beschreibung in intuitiv erwünschter Weise ausfällt. Diese
Frage lässt sich sogar in einen Adäquatheitstest für unsere Explikation kausaler
Begriffe ummünzen, da es eine solche allgemein akzeptierte Beschreibung von
Änderungen epistemischer Zustände gibt; und deshalb müssen wir diese Beschreibung kurz darstellen:
De facto kann sich X’s epistemischer Zustand auf vielerlei Weise ändern. X
kann Erfahrungen oder Informationen sammeln, X kann etwas vergessen, X kann
unter den Einfluß von Rauschmitteln geraten oder einen schizophrenen Schub
bekommen, und so weiter. In der Regel kann man über solche Änderungen nichts
Allgemeines sagen. Aber im Falle des Sammelns von Erfahrungen gibt es eine
Form von rationaler Änderung epistemischer Zustände, die allgemeiner Beschreibung zugänglich ist. Definieren wir dazu:
Definition 5.2: Sei P ein W-Maß auf A und A ∈ A mit P(A) > 0. Dann sei P A
dasjenige W-Maß auf A, für das für alle B ∈ A PA(B) = P(B | A) ist.1 PA heißt die
Konditionalisierung von P bezüglich A.
Die Beschreibung rationaler Änderungen epistemischer Zustände sagt dann:
Wenn P X’s epistemischer Zustand zum Zeitpunkt t ist und wenn der Sachverhalt
A die Konjunktion aller Erfahrungen darstellt, die X zwischen t und t' > t sammelt,
so ist die Konditionalisierung P A von P bzgl. A X’s epistemischer Zustand zum
Zeitpunkt t' – sofern P(A) > 0, X rational ist und sein epistemischer Zustand keinen anderen Einflüssen unterliegt. Mit anderen Worten: X’s subjektive Wahrscheinlichkeiten zu t ändern sich bis t' in die durch die zwischenzeitlichen Beobachtungen oder Informationen bedingten Wahrscheinlichkeiten. Man sagt dann
auch, daß sich diese Änderung gemäß der Regel der einfachen Konditionalisierung vollzieht.
Eine triviale Folgerung wird später relevant.
Korollar 5.3: Wenn A, B ∈ A mit P(A ∩ B) ≠ 0, so gilt (PA)B = (PB)A = PA∩B.
Auf rationale Änderungen epistemischer Zustände angewandt, heißt das, daß es
1
Die durch A bedingte Wahrscheinlichkeit von B ist dabei definiert als P(B | A) = P(A ∩ B) / P(A).
148
für ein rationales Subjekt X keinen Unterschied macht, in welcher Reihenfolge es
die Informationen A und B bekommt; und das ist sicherlich erwünscht.
Die Voraussetzung der Konditionalisierung bzgl. A, daß P(A) > 0, markiert eine Lücke der obigen Beschreibung von Änderungen epistemischer Zustände;
wenn die nach t eingehende Information A für X zu t Wahrscheinlichkeit 0 hat, so
können wir keine durch A bedingten Wahrscheinlichkeiten definieren und daher
auch die durch A hervorgerufene Änderung auf diese Weise nicht beschreiben.
Diese Lücke wird sich später noch schmerzhaft bemerkbar machen.
Die Regel der einfachen Konditionalisierung ist freilich zu speziell. Dies zeigt
sich insbesondere am sogenannten Problem unscharfer Beobachtungen. Nehmen
wir an, X prüfe, ob A oder A vorliegt, unter ungünstigen Beobachtungsbedingungen, so daß er nicht klar entscheiden kann, ob A oder A vorliegt1; oder nehmen
wir an, daß X vage oder bruchstückhafte Informationen über A erhält oder
sonstwie wie für A relevante Informationen, die aber nicht in der σ-Algebra A
repräsentiert sind. In beiden Fällen wird sich X’s Wahrscheinlichkeit für A ändern,
ohne gleich 1 oder 0 zu werden. Durch diese eine Änderung wird sich im allgemeinen der gesamte epistemische Zustand von X ändern, was aber offenkundig
durch die Regel der einfachen Konditionalisierung nicht mehr beschrieben werden
kann. Bewältigt wird dieses Problem durch die folgende Regel der verallgemeinerten Konditionalisierung. Zu deren Erläuterung ist darauf hinzuweisen, daß die
unscharfe Information sich nicht auf den Sachverhalt A oder, wie wir auch sagen
können, auf die Sub-σ-Algebra {∅, A, A , Ω} von A zu beschränken braucht; sie
kann und wird im allgemeinen mehrere Sachverhalte gleichzeitig bzw. eine größere oder kleinere Sub-σ-Algebra B von A betreffen. Es gilt dann zu sagen, wie sich
die Änderung der Wahrscheinlichkeiten für die Sachverhalte in B auf alle anderen
Wahrscheinlichkeiten auswirkt. Definieren wir dazu:
Definition 5.4: Sei P ein W-Maß auf A, sei B eine endliche Sub-σ-Algebra von
A mit den Atomen B1, ..., B n,2 und sei Q ein P-stetiges W-Maß auf B.3 Dann sei
n
PQ das W-Maß auf A, für das für alle A ∈ A P Q(A) =
∑ P(A | Bk ) ⋅ Q(Bk ) . P Q
k =1
A bezeichnet dabei das relative Komplement von A, d.h. den Sachverhalt Ω \ A.
B i heißt dabei Atom von B gdw. Bi ≠ ∅ und es kein C ∈ B mit ∅ ⊂ C ⊂ Bi gibt. B i, ..., Bn sind
mithin gerade die schärfsten Sachverhalte ≠ ∅ in B.
3
Q heißt dabei P-stetig gdw. für alle B ∈ B gilt: wenn P(B) = 0, so auch Q(B) = 0.
1
2
149
heiße dann die Konditionalisierung von P bezüglich Q.1
Die Änderung epistemischer Zustände gemäß der Regel der verallgemeinerten
Konditionalisierung sieht dann so aus: Wenn P X’s epistemischer Zustand zu t
bezüglich A ist und wenn das W-Maß Q auf der Sub-σ-Algebra B durch die (unscharfen) Erfahrungen und Informationen, die X zwischen t und t' sammelt, zu
seinem epistemischen Zustand zu t' bezüglich B wird, so ist die Konditionalisierung PQ von P bezüglich Q X’s epistemischer Zustand zu t' bezüglich A – sofern
Q P-stetig ist, X rational ist und sein epistemischer Zustand keinen anderen Einflüssen unterliegt.
Es ist klar, inwiefern die Regel der einfachen Konditionalisierung ein Spezialfall der Regel der verallgemeinerten Konditionalisierung ist. Wieder gibt es eine
später relevante Beobachtung:
Korollar 5.5: Seien P und Q wie in Definition 5.4, und sei auch die Einschränkung P' von P auf B Q-stetig. Dann gilt (PQ)P' = P.
Dies besagt, daß Änderungen epistemischer Zustände gemäß der verallgemeinerten Konditionalisierung unter den in Korollar 5.5 beschriebenen Voraussetzungen reversibel sind, was wiederum willkommen ist. Änderungen gemäß der
einfachen Konditionalisierung sind hingegen nicht reversibel; sie erfüllen auch
nicht die Voraussetzungen von Korollar 5.5.
Die Regel der verallgemeinerten Konditionalisierung weist eine der oben erwähnten Lücke analoge Lücke auf, die in der Voraussetzung, daß Q P-stetig sein
muß, zum Ausdruck kommt; sie wird uns auch den analogen Kummer bereiten.
Tiefer brauchen wir hier nicht in die Beschreibung der Änderung epistemischer
Zustände und in all die beweisbaren formalen Tatsachen hierüber einzudringen.
Insbesondere will ich hier all die Begründungen dessen, warum die so beschriebenen Änderungen epistemischer Zustände die Auszeichnung „rational“ verdienen,
einfach übernehmen.2 Auf einen wichtigen Sachverhalt, der erst mit dem Über1
Die Annahme, daß B endlich ist, ist unnötig. Die allgemeine Definition lautet so: Sei P ein WMaß auf A und Q ein P-stetiges W-Maß auf einer (beliebigen) Sub-σ-Algebra B von A. Dann sei
PQ das W-Maß auf A, für das für alle A ∈ A P Q(A) = ∫ PB(A) dQ - wobei P B(A) die durch B bedingte Wahrscheinlichkeit von A ist. (Zu diesem verallgemeinerten Begriff der durch eine σAlgebra bedingten Wahrscheinlichkeit siehe etwa Bauer (1968), § 54.)
2
Erfunden oder entdeckt wurde die verallgemeinerte Konditionalisierung von Jeffrey (1965), Kap.
11. Darin und in Teller (1976) finden sich ausführliche Erläuterungen und Rechtfertigungen der
150
gang von der einfachen zur verallgemeinerten Konditionalisierung richtig ins
Licht rückt, ist freilich noch hinzuweisen:
Die Regel der einfachen Konditionalisierung erweckte noch den Anschein, als
sei der äußere, d.h. nicht im epistemischen Subjekt X liegende Sachverhalt, bezüglich dessen konditionalisiert wird, für die Änderung von X’s epistemischen
Zustand verantwortlich. Diese Auffassung muß nicht falsch sein; auf die Regel
der verallgemeinerten Konditionalisierung ist sie jedoch offenkundig nicht übertragbar – einfach weil dort nicht bezüglich eines Sachverhalts konditionalisiert
wird. Dies ist auch gut so. Denn selbst wenn der Sachverhalt selbst für die entsprechende epistemische Änderung verantwortlich ist, so ist er es auf allenfalls
ganz grob aufgeklärte Weise. Er müßte z.B. von X beobachtet worden sein oder
von anderen, die dann X davon berichten; wie aber auf solchen mehr oder weniger
direkten, am Ende über X’s Sinnesorgane laufenden Wegen schließlich eine propositionale Einstellung von X bezüglich dieses Sachverhalts herauskommt, ist eine
bis heute ziemlich rätselhafte Angelegenheit. Die verallgemeinerte Konditionalisierung ist da ehrlicher; sie versucht erst gar nicht zu sagen, wo das veränderte WMaß Q auf der Sub-σ-Algebra B herrührt. Die Konditionalisierungsregeln sind
also am besten so zu verstehen: Aufgrund nicht näher beschriebener äußerer Umstände ändert sich ein Teil des epistemischen Zustandes von X, und die Regeln
sagen dann, wie sich infolgedessen die anderen Teile von X’s epistemischen Zustand ändern. Danach wird von diesen Regeln lediglich ein Vorgang beschrieben,
der ganz innerhalb von X’s epistemischen Apparat liegt. Diese Auffassung ist somit bescheidener und präziser zugleich, und sie ermöglicht erst die hier beschriebene Verallgemeinerung der Konditionalisierung.
Diese Feststellung, wie alle anderen Bemerkungen über die Dynamik epistemischer Zustände, werden wir im folgenden, wenn es um deterministische Prozesse
geht, unmittelbar verwerten können.1
verallgemeinerten Konditionalisierung. Eine interessante Variante formulierte Field (1978). Nicht
bloß formale Untersuchungen über Konditionalisierungsverfahren liefern Domotor (1980), Domotor, Zanotti, Graves (1980), van Fraassen (1980), Harper (1976) und May, Harper (1976).
1
Es steckt auch eine allgemeine Lehre hinter dieser Feststellung. Sie wiederholt sich z.B. beim
Strategiebegriff. Dem (in der Entscheidungstheorie) üblichen Strategiebegriff zufolge stellt sich
eine Person mit einer Strategie darauf ein, auf unterschiedliche äußere Umstände unterschiedlich
zu reagieren. Das kann sie natürlich nur insoweit, als diese äußeren Umstände von ihr beobachtet
werden oder sonstwie Eingang in ihren epistemischen Zustand finden. Und so ergibt sich auch hier
ein präziseres und wesentlich allgemeineres Strategieverständnis, wenn man sagt, mit einer Strategie stelle sich eine Person zunächst nur auf ihre so oder so veränderten, zukünftigen inneren Zustände ein. Diesen Punkt habe ich in Spohn (1978), Kap. 4, ausführlich dargetan.
151
5.2
Zur Standardtheorie des Konditionals
Wo und unter welchen Bezeichnungen immer deterministische Prozesse untersucht werden, es geht stets darum, die Naturgesetze zu erfassen, die in dem jeweils interessierenden Wirklichkeitsausschnitt oder dem Modell, das man sich
von ihm macht, herrschen. Dafür haben sich bevorzugte Formen entwickelt. Beschreibt man den betrachteten Wirklichkeitsausschnitt als zeitlich kontinuierlich,
so gießt man die darin geltenden Gesetze in der Regel in die Form von Differentialgleichungen, die die zeitlich infinitesimalen Änderungen in diesem Ausschnitt
feststellen. Seit der Entdeckung der Infinitesimalrechnung und der Newtonschen
Mechanik war die Entwicklung der Mathematik wesentlich davon angetrieben, die
mathematischen Eigenschaften solcher Gleichungen zu erforschen. Eine besonders interessante und heute größtenteils beantwortete Frage ist etwa, unter welchen Bedingungen solche Gleichungen lösbar sind und sogar eine eindeutige Lösung besitzen, sofern man den Anfangszustand des betrachteten Prozesses und die
von außen auf den Prozeß einwirkenden Randbedingungen vorgibt. Diese eindeutige Lösbarkeit gewährte ja gerade die prognostische Verwertbarkeit. Wird hingegen bloß eine diskrete Zeitstruktur zugrunde gelegt, so greift man zur Erfassung
der Gesetze in der Regel auf Differenzengleichungen zurück, die gleichfalls zeitlich minimale Änderungen beschreiben. Auch hier wurden zwar beschwerlichere,
aber nicht minder erfolgreiche Methoden zur mathematischen Behandlung solcher
Gleichungen entwickelt.
Doch brauchen wir hier nicht auf den großen Reichtum dieser Entwicklungen
und auf die vielen erfolgreichen Anwendungen in allen Zweigen der Physik, in
der Chemie und Biologie, sogar in Modellen für Bevölkerungsentwicklung oder
Straßenverkehrsfluß und vieles andere mehr näher einzugehen. Beschreiben wir
lieber, was da geschieht, noch etwas abstrakter. Dazu können wir annehmen, daß
wir den interessierenden Wirklichkeitsausschnitt schon mit dem D-Prozeßraum 〈I,
Ω, A〉 erfaßt haben. Die darin geltenden Naturgesetze zu beschreiben, heißt dann,
zu sagen, welche Verläufe aus Ω diesen Gesetzen gehorchen und welche nicht.
Das heißt, es gilt, eine Menge L ∈ A auszuzeichnen, die genau alle gesetzesmäßigen Verläufe aus Ω enthält. L stellt so gerade den allgemeinen Sachverhalt dar,
daß die fraglichen Gesetze erfüllt sind. Ein deterministisches Prozeßgesetz könnten wir auf dieser abstrakten Ebene mithin schlicht als einen Sachverhalt L aus A
152
und einen deterministischen Prozess schlicht als ein Quadrupel 〈I, Ω, A, L〉 repräsentieren. Mehr steckt da im Prinzip nicht dahinter – wenn wir von der so reichhaltigen, darüber aufgebauten mathematischen Theorie absehen.
Unglücklicherweise sind so gefaßte deterministische Prozesse als Grundlage
einer adäquaten Kausalitätstheorie grundsätzlich ungeeignet. Denn auf dieser
Grundlage zu arbeiten, hieße, sich ganz auf den Boden eines regularitätstheoretischen Ansatzes zur Kausalanalyse zu stellen; und daß dies verfehlt ist, haben wir
im Kapitel 2 schon ausführlich begründet. Rufen wir uns aber den Kern dieser
Begründung noch einmal ins Gedächtnis. Er bestand nicht darin, daß eine Analyse
kontrafaktischer und damit auch kausaler Aussagen auf regularitätstheoretischer
Grundlage durchweg unmöglich wäre. Eine solche Analyse ist ja teilweise durchführbar; relativ zum obigen Prozeßgesetz L läßt sich sehr wohl sagen, was es
heißt, daß das und das passiert wäre, wenn etwa die Anfangsbedingungen oder die
Randbedingungen des Prozesses so und so gewesen wären. Das für regularitätstheoretische Ansätze unüberwindliche Problem wird vielmehr erst durch
kontrafaktische Aussagen aufgeworfen, die sogar kontranomologisch sind; was
passiert wäre, wenn das Gesetz L in der und der Weise verletzt worden wäre, lässt
sich eben nicht mit Bezugnahme auf L sagen. Ein Problem für die Kausalanalyse
wird dies deswegen, weil Kausalaussagen kontranomologische Aussagen enthalten können, wie unser etwas banales Frühlingsanfang-Schneeschmelze-Hochwasser-Kirschblüte-Beispiel aus dem Abschnitt 2.2 zeigte; und dieses Problem
beiseite zu schieben, verbietet sich, weil Kausalaussagen sogar in aller Regel
kontranomologische Aussagen enthalten.
Es bleibt uns also nichts anderes übrig, als uns von der in den Wissenschaften
üblichen Darstellung deterministischer Prozesse zu lösen und uns ernsthafter, als
es damit möglich wäre, auf Kontrafaktisches einzulassen. Dies zeichnete sich ja
bereits im Kapitel 2 ab. Dieser Verzicht aufs Bewährt-Gewohnte ist freilich nur
zumutbar, wenn dafür möglichst überzeugender Ersatz geschaffen wird. Ein solcher hat sich im Abschnitt 2.3 unter den prominenten Formen der Analyse kontrafaktischer Aussagen noch nicht gezeigt. Hauptsächlich drei Arten der Analyse
hatten wir dort erwähnt: die metasprachliche Theorie, die Ähnlichkeitssemantik
und die epistemischen Interpretationen für kontrafaktische Aussagen. Auf die
ersten zwei waren wir näher eingegangen, und sie hatten sich dabei als offen oder
versteckt zirkulär herausgestellt, so daß es nicht aussichtsreich erscheint, jetzt an
sie anzuknüpfen. Alle meine Hoffnungen liegen auf der dritten Form der Analyse,
153
wie ich damals schon erwähnte, und mit ihr wollen wir uns nun beschäftigen. Ihre
Darstellungen durch Adams (1965, 1975), Ellis (1978, 1979), Gärdenfors (1979,
1981) oder Kutschera (1975) befriedigen mich jedoch nicht völlig, so daß ich die
folgenden Erläuterungen zunächst nicht auf diese Darstellungen stützen möchte.
Unser Ergebnis werden wir aber hinterher mit ihnen und der Ähnlichkeitssemantik vergleichen, damit klar wird, daß wir hier auf ähnlichen Pfaden wandeln. In
einem dritten Schritt wird sich jedoch noch eine formal unscheinbare, aber entscheidende Neuerung als notwendig erweisen. Diese kommt erst im nächsten Abschnitt zur Sprache, so daß dieser Abschnitt bloß vorläufigen und hinführenden
Charakter hat.
Als erstes müssen wir uns auf eine völlig veränderte Fragestellung einlassen.
Es dreht sich im folgenden so mittelbar um deterministische Prozeßgesetze, daß
wir uns besser nicht fragen, wie die obige Konzeption eines Prozeßgesetzes als
einem Sachverhalt L zu verbessern wäre; mit dieser Frage wären wir noch zu sehr
dieser untauglichen Konzeption verhaftet. Insonderheit gilt es, die in dieser Konzeption sich ausdrückende Neigung zu überwinden, Prozeßgesetze gleich realistisch zu interpretieren. Es geht erst einmal überhaupt nicht um wahre Gesetze oder
sonstige objektive Tatbestände im betrachteten Wirklichkeitsausschnitt, sondern
lediglich um die Annahmen irgendeines Subjektes über diesen Wirklichkeitsausschnitt. Entgegen dem Anschein sind wir auch allenfalls mittelbar an einer Logik
subjunktiver und kontrafaktischer Aussagen interessiert, wenn man darunter so
etwas wie ein formales, möglichst stimmiges Gegenstück zu unserem umgangssprachlichen subjunktiven und kontrafaktischen Reden versteht, welches
z.B. die Aufgabe hätte, unsere intuitiven Schlüsse formal nachzuvollziehen. Wie
wir auf den S. 161ff. noch erläutern werden, liefern wir hier nur Vorarbeiten für
eine solche Logik.
Die Frage, um die es nun geht, ist vielmehr diese: Wie können wir am besten
die Annahmen und Überzeugungen eines bestimmten epistemischen Subjektes X
über einen gegebenen Wirklichkeitsausschnitt beschreiben, den wir mit einem
Prozeßraum 〈I, Ω, A〉 erfassen können? Es bieten sich da im wesentlichen zwei
Wege an.1 Wir können zu einer qualitativen oder zu einer quantitativen Beschreibungsweise greifen. Bei einer quantitativen Beschreibungsweise geben wir immer
1
Das „im wesentlichen“ bezieht sich hier auf die Wege, die in der Philosophie beschritten werden.
In der Psychologie, welche sich wesentlich enger an die Empirie halten muß, findet sich natürlich
ein sehr viel reicheres und unklareres Arsenal zur Beschreibung epistemischer Einstellungen.
154
numerische Werte dafür an, wie stark das Subjekt X von etwas überzeugt ist.
Wenn wir nun, wie in der Philosophie üblich, X zu einem epistemisch rationalen
Wesen hochstilisieren, dann können wir X’s epistemischen Zustand bezüglich 〈I,
Ω, A〉 gerade durch ein W-Maß auf A darstellen. Genau darum ging es ja im vorhergehenden Abschnitt bei der epistemischen Interpretation von W-Maßen. Bei
einer qualitativen Beschreibungsweise hingegen kann unser Subjekt X gegenüber
einem Sachverhalt A ∈ A nur drei Einstellungen haben: X kann glauben, daß A
vorliegt; X kann glauben, daß A vorliegt; und X kann gegenüber A neutral sein,
d.h. weder A noch A glauben. Diese qualitative Beschreibungsweise ist natürlich
gröber als die quantitative und bei vielen Gelegenheiten sicherlich unzulässig
grob; aber sie ist eindeutig die im Alltag und auch beim Theoretisieren vorherrschende, und daher müssen wir sie ernst nehmen. Sie auszuarbeiten, das ist gerade
unser Ziel in diesem und im nächsten Abschnitt.
Dieses Ziel muß hier freilich der Beschränkung unterliegen, daß diese Ausarbeitung verwandte und ähnlich gravierende Idealisierungen vornimmt, wie sie
auch in die quantitative Beschreibungsweise eingebaut sind. Eine grundlegende
Idealisierung, die beiden Beschreibungsweisen gemein ist, hatten wir dabei im
letzten Abschnitt noch gar nicht erwähnt: ich meine die Annahme, daß die epistemischen Einstellungen unseres Subjektes X, seien sie nun quantitativ oder
qualitativ beschrieben, gerade Sachverhalte in dem in Abschnitt 4.3 ausgeführten
Sinne zum Gegenstand haben.
Das Problematische an dieser Annahme liegt nicht darin, daß epistemische
Einstellungen statt auf Sachverhalte eher auf Propositionen im am selben Ort erläuterten Sinne zu beziehen wären. Wenn wir nämlich die Unterscheidung zwischen Überzeugungen de dicto und Überzeugungen de re akzeptieren, so sind, wie
auf S. 125ff. ausgeführt, Propositionen und Sachverhalte gleichermaßen geeignete
(oder ungeeignete) Gegenstände epistemischer Einstellungen. Es gibt vielmehr
eine grundsätzlichere Kritik an unserer idealisierenden Annahme, die die Geeignetheit von Propositionen als epistemischen Gegenständen ebenso in Zweifel
zieht wie die von Sachverhalten. Sie zielt im wesentlichen in drei Richtungen:
Da gibt es erstens die wohlbekannte radikale Kritik Quines, daß man aus unserer gesamten intensionalen Begrifflichkeit – die da von Bedeutungen, Intensionen,
Eigenschaften, Propositionen, analytischen Wahrheiten und dergleichen mehr
redet – ohnehin keinen rechten wissenschaftlichen Sinn machen könne. Quine hat
155
diese Kritik in vielen Varianten mit großer Wortgewalt vorgetragen,1 und obgleich
ihr wenige konsequent anzuhängen scheinen, ist sie bis heute nicht schlagend widerlegt. Trotzdem – oder vielleicht gerade deswegen – können wir uns mit dieser
Kritik nicht weiter auseinandersetzen. Denn wenn wir dieser Kritik stattgeben, so
müßten wir nicht nur Propositionen und Sachverhalte als Gegenstände epistemischer Einstellungen aufgeben; wir müßten auch gleich unser ganzes Projekt einer
Kausalitätstheorie abschreiben, da die Ursachenrelation als eine Relation zwischen Sachverhalten ebenso zu dieser intensionalen Begrifflichkeit gehört. Das
will ich natürlich nicht tun, und drum negiere ich implizite diese Kritik; aber es
überfordert mich bei weitem, dies gegenüber Quine zu rechtfertigen. Hier ist also
ein wunder Punkt, den wir aber offenhalten können; es wäre offenkundig unsinnig, so lange innehalten zu wollen, bis er geschlossen ist.
Eine zweite Kritik ist konkreter. Sie sagt, daß Propositionen und Sachverhalte
deswegen nicht die alleinigen Gegenstände epistemischer Einstellungen sein können, weil sie zu zeitlos sind, weil ihnen indexikalische und kontextuelle Elemente
zu vollständig ausgetrieben sind.2 Diese Kritik ist zweifelsohne berechtigt. Auch
hat Lewis (1979b) einen Vorschlag gemacht, wie man dieser Kritik Rechnung
tragen und die Menge der Gegenstände epistemischer Einstellungen über Propositionen hinaus ausdehnen kann, ohne den formalen, technischen Rahmen in irgendeiner dramatischen Weise zu ändern. Doch mag ich diese Komplikation hier
außer acht lassen, da ich nicht glaube, daß sie wesentliche Rückwirkungen auf
unsere Kausalitätstheorie hat.
Die letzte Kritik ist ebenso konkret und insofern einschneidender, als sie derzeit unabsehbare Änderungen der klassischen Auffassung von epistemischen Einstellungen als propositionalen Einstellungen verlangt. Sie besagt, daß Propositionen und Sachverhalte zu grob individuiert sind, um als Gegenstände epistemischer
Einstellungen dienen zu können. Denn wenn wir durch den Satz „X glaubt de
dicto, daß p“ X eine Relation zu der durch p ausgedrückten Proposition zuschreiben, so kommt es nicht darauf an, wie diese Proposition ausgedrückt wird; wir
können sie statt durch p ebensogut durch jede noch so wilde, logisch äquivalente
Formulierung ausdrücken. Daß dies absurd ist, wird an logischen Wahrheiten be1
Siehe vor allem Quine (1951), (1960), insbes. Kap. II und VI, und (1969), insbes. Kap. 1, 2 und
6, sowie viele andere Arbeiten, in denen er diese Kritik immer wieder thematisiert.
2
Im kleinen, aber umso schlagender ist dieser Punkt z.B. bei Lewis (1979b) und Perry (1979)
ausgeführt. Eine etwas vagere, aber grundsätzlichere Version davon hat Putnam (1975) ins Zentrum seiner Sprachphilosophie gestellt.
156
sonders deutlich. Mit Propositionen als Gegenständen epistemischer Einstellungen
gäbe es für unser Subjekt X an logischen Wahrheiten nur die eine logisch wahre
Proposition zu glauben. Demgegenüber erscheint es möglich und gar nicht ungewöhnlich, daß X einen logisch wahren Satz glaubt, an einem zweiten zweifelt und
einen dritten sogar abstreitet. Natürlich ließe sich das an jeder anderen Proposition
als der logisch wahren genauso demonstrieren. Drum sind Propositionen zu grobe
Gegenstände epistemischer Einstellungen; wie sie ausgedrückt sind, ist auch noch
relevant. Der prinzipielle Punkt dahinter ist dieser: Propositionen sind uns nur
über ihre sprachliche Repräsentation zugänglich; welcher Satz einer Sprache welche Proposition repräsentiert oder ausdrückt, ist dabei durch die Semantik dieser
Sprache festgelegt. Nun ist es aber jedenfalls de facto und womöglich prinzipiell
so, daß diese Semantik für unser Subjekt X gewissermaßen epistemisch zu anspruchsvoll ist; semantisches Wissen wird wie jedes andere Wissen unvollständig
sein. Will man dieser dritten Kritik begegnen, so muß man also berücksichtigen,
inwieweit die Semantik einer Sprache in X epistemisch verankert ist. Darüber, wie
sich das berücksichtigen ließe, gibt es meines Wissens freilich nur uneinheitliche,
unzulängliche und formal kaum auswertbare Vorstellungen.1 Diese dritte Kritik
schickt uns also in so undurchsichtiges Gelände, daß es bei unserer Zielsetzung
auch ihr gegenüber am vernünftigsten ist, weiter an Propositionen und Sachverhalten als epistemischen Gegenständen festzuhalten. Das bedeutet, daß wir unser
epistemisches Subjekt X zum perfekten Semantiker hochstilisieren, das somit ungehemmten Zugang zu Propositionen hat. Diese Idealisierung von X läßt sich gewiß nicht als Rationalitätsanforderung an X ausgeben, und zufriedengeben kann
man sich mit ihr auch nicht; aber ohne sie könnten wir jetzt nicht fortfahren.
So habe ich diese dreifache Kritik nur erwähnt, um die Mängel der Idealisierung, die wir uns zur Grundlage machen, wieder in die hinteren Ecken des Bewußtseins abzuschieben. Was wir uns auf dieser unsere Arbeit erleichternden
Grundlage überlegen, ist natürlich trotzdem lehrreich, weil von jeder Verbesserung in Rechnung zu stellen.
Wenden wir uns nach dieser Vorrede konkret der qualitativen Beschreibung
der epistemischen Einstellungen unseres Subjektes X zu, die wir unserer Idealisierung zufolge als eine Beziehung zwischen X und Sachverhalten betrachten. Zwei
1
Vgl. dazu Dennett (1982), der ausführlich begründet, daß epistemische Einstellungen weder
„propositional“ noch „sentential“, sondern „notional“ sind und sich also weder auf Propositionen
noch auf Sätze, sondern auf etwas Subjektives, Dazwischenliegendes beziehen, was er als „notional worlds“, Vorstellungswelten bezeichnet.
157
Eigenschaften von X’s epistemischem Zustand ergeben sich ganz zwanglos:
Erstens dürfen wir annehmen, daß die Menge der von X zu einem bestimmten
Zeitpunkt geglaubten Sachverhalte gegenüber logischer Folgerung abgeschlossen
ist. In unserer Terminologie bedeutet das: Wenn X jeden Sachverhalt aus einer
Menge B ⊆ A von Sachverhalten glaubt und für A ∈ A B ⊆ A gilt, so glaubt X
auch A. Dies ergibt sich aus unserer Annahme, daß X die Semantik der Sprache,
die die Sachverhalte aus A ausdrückt, perfekt beherrscht. Denn wann immer wir
geneigt wären zu sagen, daß X gewisse Sachverhalte, aber nicht eine logische Folgerung davon glaubt, könnten wir das nur damit erklären, daß X (unter anderem)
diese logische Folgerungsbeziehung nicht erkannt hat, daß er also nicht der perfekte Semantiker ist, dem man epistemische Beziehungen direkt zu Sachverhalten
unterstellen darf. Es ist zu betonen, daß die Kardinalität der Menge B hierbei keine Rolle spielt. Der perfekte Semantiker überblickt nicht nur die Folgerungen von
endlich vielen Prämissen, er erkennt für beliebig große Mengen B, welche Sachverhalte der Fall sein müssen, wenn alle Sachverhalte aus B der Fall sind.1
Zweitens dürfen wir annehmen, daß die Menge der von X zu einem bestimmten
Zeitpunkt geglaubten Sachverhalte konsistent ist. In unserer Terminologie bedeutet das: Wenn L ⊆ A die Menge der von X geglaubten Sachverhalte ist, so ist B
≠ ∅. Dies folgt wiederum aus unserer Idealisierung von epistemischen Einstellungen zu Beziehungen gegenüber Sachverhalten. Denn wann immer X uns Anlaß
gibt, ihm logisch widersprüchliche Überzeugungen zu unterstellen, haben wir
gleichzeitig Grund, an seinem semantischen Erkenntnisvermögen zu zweifeln.
Diese zwei Eigenschaften von X’s epistemischem Zustand lassen sich in einer
dritten zusammenfassen: nämlich daß es genau einen Sachverhalt C ∈ A mit C ≠
∅ gibt, so daß X genau dann A ∈ A glaubt, wenn C ⊆ A. Denn wenn B die Menge
der von X geglaubten Sachverhalte ist, so ist B offenkundig gerade dieses C.
Nennen wir dann B das Total von X’s epistemischem Zustand. Anstatt X’s epistemischen Zustand durch die Menge B zu erfassen, können wir ihn also genausogut durch einen einzigen Sachverhalt, nämlich sein Total B, charakterisieren.
Damit haben wir beliebige momentane epistemische Zustände von X qualitativ
charakterisiert. Und auf der allgemeinen Ebene, auf der wir uns hier bewegen, läßt
sich auch gar nichts Schärferes sagen; nur spezielle Annahmen über den jeweils
gegebenen Einzelfall ermöglichten uns hier Detaillierung. Aber wir können in
einer anderen Richtung weiterbohren. Denn so weit war unsere Beschreibung
1
Dies zeigt natürlich, wie idealisierte Subjekte perfekte Semantiker sind.
158
wiederum rein statisch, und wie im probabilistischen Fall müssen wir prüfen, ob
sich unsere Beschreibung dynamisieren läßt, d.h. was wir über den Zusammenhang von X’s epistemischen Zuständen zu verschiedenen Zeitpunkten sagen können. Natürlich kann die zeitliche Entwicklung von X’s epistemischem Zustand aus
den verschiedensten Ursachen heraus die seltsamsten Kapriolen schlagen, und so
ist wiederum klar, daß es uns hier nur um rationale Änderungen epistemischer
Zustände aufgrund von Beobachtungen, Informationen und dergleichen gehen
kann:
Sei also X’s epistemischer Zustand bezüglich A zum Zeitpunkt t durch sein
Total C ∈ A charakterisiert, und sei A ∈ A die gesamte Information, die X zwischen t und t' erwirbt. Was läßt sich dann über X’s epistemischen Zustand zu t'
sagen, sofern nicht-rationale Einflüsse auf oder in X keine Rolle spielen? Machen
wir dazu erst einmal die einschränkende Annahme, daß C ∩ A ≠ ∅, daß also die
neue Information mit dem bisher Geglaubten verträglich ist. Dann erscheinen folgende Aussagen über das Total C' des späteren epistemischen Zustandes zu t' vernünftig: Einerseits sollte gelten, daß C' ⊆ C ∩ A. Denn die neue Information A
nötigt wegen ihrer Verträglichkeit mit C X nicht, irgendeine der alten Überzeugungen aufzugeben; d.h. X sollte zu t' sowohl das alte C wie das neue A glauben.
Andererseits sollte gelten, daß C ∩ A ⊆ C'. Denn wenn das nicht gälte, so würde
X zu t' einen Sachverhalt B glauben, der nicht von seinen alten Überzeugungen
und der neuen Information impliziert wird. Doch wo A die gesamte neue Information enthalten soll, wäre die Überzeugung, daß B, nur als vorwitzig und unbegründet anzusehen. Beides zusammen bedeutet, daß C' = C ∩ A sein sollte. Und
das heißt wiederum nichts anderes, als daß wir den durch rationale Änderung entstehenden, neuen epistemischen Zustand von X relativ zu seinem alten epistemischen Zustand und der neuen Information eindeutig bestimmen können – immer
noch vorausgesetzt, daß C ∩ A ≠ ∅. Dies ist ein schönes Ergebnis – und so überzeugend, daß ich es noch nirgends bezweifelt gesehen habe; doch ist darauf hinzuweisen, daß die Begründung dafür nicht ganz so stringent war wie etwa die für
die statischen Eigenschaften epistemischer Zustände.
So weit haben wir das direkte deterministische Analogon zu der probabilistischen Regel der einfachen Konditionalisierung formuliert. Die Analogie setzt sich
fort: Im probabilistischen Fall hatte diese Regel eine Lücke; bezüglich Sachverhalten, die Wahrscheinlichkeit 0 haben, ließ sich nicht konditionalisieren. Die
analoge Lücke liegt hier darin, daß wir den Fall, daß C ∩ A = ∅, noch nicht be-
159
handelt haben. Und hier ist die Lücke viel spürbarer; daß die neue Information
den bisherigen Erwartungen zuwiderläuft, ist eine viel gewöhnlichere Begebenheit, als daß die neue Information Wahrscheinlichkeit 0 hat. Deshalb ist es dringlicher − und für die Behandlung kontrafaktischer Aussagen sogar unerläßlich −,
hier diese Lücke zu schließen. Das Verfahren dazu ist simpel und nirgends auf
Widerspruch gestoßen. Doch es enthält etwas Umstürzlerisches, was meines Erachtens nicht richtig ausgelotet wurde und worauf wir erst im nächsten Abschnitt
zurückkommen können. Jetzt fragen wir uns erst einmal:
Wie ließe sich diese Lücke schließen? Das heißt: Was läßt sich über das Total
C' von X’s neuem epistemischen Zustand aussagen, der aus dem alten Zustand mit
dem Total C durch die C widersprechende Information A entsteht? Offenkundig
dürfen wir jetzt nicht mehr C'= C ∩ A annehmen. Denn das hieße, daß C' = ∅,
d.h. daß X durch die seinen Erwartungen widersprechende Information einen völligen epistemischen Kollaps erlitte und alle Sachverhalte zugleich zu glauben anfinge. Und so dramatisch geht’s nie zu.1 Demnach müssen wir annehmen, daß X
einige seiner alten Überzeugungen aufgibt. Welche? Darauf eine allgemeine Antwort zu finden, scheint unmöglich zu sein. Für uns ist es daher am gescheitesten,
auf eine Antwort darauf ganz zu verzichten und lediglich die nötigen Minimalannahmen zu machen: nämlich daß X irgendwelche alte Überzeugungen aufgibt derart, daß er dann die neue Information zu seinen Überzeugungen hinzufügen kann,
ohne inkonsistent zu werden. Damit nehmen wir an, daß C' ≠ ∅ und C' ⊆ A, daß
also der neue epistemische Zustand die Überzeugung, daß A, enthält und ansonsten wie jeder epistemische Zustand die Eigenschaften der Konsistenz und der Abgeschlossenheit gegenüber logischer Folgerung hat. Schärferes über den neuen
Zustand auszusagen, versuchen wir erst gar nicht.
Doch es ist sinnvoll, das bisher Gesagte zusammenzufassen – in einer einzigen
mathematischen Entität, die auf einmal alle möglichen rationalen Änderungen der
durch ihre Totale charakterisierten epistemischen Zustände durch alle möglichen
Informationen erfaßt. Definieren wir dazu:
Definition 5.6: g ist eine einfache Konditionalfunktion (EKF) genau dann,
wenn g eine Funktion von A in A ist derart, daß für alle A, B ∈ A gilt:
1
Es ist auch schon begrifflicher Unsinn, jemandem zu unterstellen, er glaube alle Sachverhalte.
Denn das hieße ja wohl, daß wir gar keine Ahnung mehr haben, welche Überzeugungen er haben
mag, daß es uns gänzlich mißlingt, ihn noch als ein epistemisches Subjekt zu behandeln.
160
(a)
(b)
(c)
g(A) ⊆ A,
wenn A ≠ ∅, so g(A) ≠ ∅,
wenn g(A) ∩ B ≠ ∅, so g(A ∩ B) = g(A) ∩ B.
Inwiefern Definition 5.6 unsere bisherigen Überlegungen kondensiert, ist klar.
Denn eine EKF g läßt sich so auffassen, daß g(Ω) das Total von X’s epistemischem Zustand zu einem Zeitpunkt t angibt und g(A) das Total des epistemischen
Zustandes von X, in dem er sich nach Aufnahme der Information A befände. Daß
alle diese epistemischen Zustände gegenüber logischer Folgerung abgeschlossen
sind, ist in ihrer Charakterisierung durch ihre Totale enthalten. Daß sie konsistent
sind, sagt gerade Bedingung (b).1 Daß X in ihnen die jeweilige Information glaubt,
ist Inhalt der Bedingung (a). Bedingung (c) schließlich verallgemeinert unser deterministisches Analogon zur einfachen probabilistischen Konditionalisierung.
Selbiges lautete: wenn g(Ω) ∩ B ≠ ∅, so g(B) = g(Ω) ∩ B. Und daraus erhalten
wir die Bedingung (c), wenn wir in den vorstehenden Überlegungen nicht X’s
durch g(Ω) charakterisierten Zustand zu t, sondern allgemein X’s durch A informierten und mithin durch g(A) charakterisierten Zustand zum Ausgangspunkt
nehmen.
Ein letzter Gedankengang rundet unsere Überlegungen ab. Es liegt zweifelsohne nahe, alle diese möglichen Änderungen von X’s Zustand zu t bereits in seinem
Zustand zu t angelegt zu sehen. Damit geben wir freilich die bisher aufrechterhaltene Gleichung auf, daß ein epistemischer Zustand etwas durch einen Sachverhalt als seinem Total Charakterisiertes ist. Vielmehr fassen wir nun einen epistemischen Zustand als etwas Komplexeres auf, was durch eine ganze EKF charakterisiert ist. Wir verschaffen uns damit die Möglichkeit, die Regel der einfachen
deterministischen Konditionalisierung in voller Allgemeinheit funktional zu formulieren; nun lautet sie nämlich: Wenn X’s epistemischer Zustand zu t durch die
EKF g gegeben ist und wenn A die gesamte Information ist, die X zwischen t und
t' sammelt, so glaubt X B zu t' genau dann, wenn g(A) ⊆ B (sofern X rational ist
und sein epistemischer Zustand keinen anderen Einflüssen unterliegt). Und diese
Regel ist lückenlos; sie gilt für alle Sachverhalte A ∈ A.
Nunmehr sind wir in der Lage, den Anschluß an die bekannten Theorien des
Die inkonsistente Information ∅, die man freilich nie aufnimmt, erzeugt natürlich keinen konsistenten epistemischen Zustand. Nur weil es mir technisch etwas einfacher zu sein scheint, habe ich
sie überhaupt in den Definitionsbereich von g aufgenommen.
1
161
kontrafaktischen oder des subjunktiven Konditionals herzustellen, in denen in
aller Regel etwas zu unseren EKFs formal Verwandtes auftaucht. Dieser Vergleich steht freilich erst dann im rechten Licht, wenn wir uns klarmachen, inwiefern hier und dort von formal verwandten Begriffen unterschiedlicher Gebrauch
gemacht wird. Dort, in den bekannten Versionen der Konditionallogik, geht es
immer um ein formales Gegenstück zu unseren umgangssprachlichen WennDann-Konstruktionen oder gar, teils linguistisch motiviert, um eine formale Repräsentation davon. Hier war dieses Interesse nicht erkennbar, und es besteht, wie
erwähnt, allenfalls mittelbar. Zur Erläuterung dessen muß ich einiges an Kritischem über die üblichen Theorien sagen:
Die in diesen Theorien wie auch in allen anderen philosophischen Logiken
meist verfolgte Strategie besteht darin, Wahrheitsbedingungen für die formal zu
erfassenden Konstruktionen und Sätze zu formulieren. Mit einer solchen Wahrheitssemantik lassen sich dann die Begriffe der Wahrheit in einem Modell, der
logischen Wahrheit und der logischen Folgerung, wie gewünscht, einwandfrei
definieren. Damit verknüpft ist der Anspruch, daß das so formal Erfaßte in einer,
vage ausgedrückt, Verwandtschaftsbeziehung zu umgangssprachlichen Konstruktionen und Sätzen steht, die als Übersetzung, Explikation, logische Rekonstruktion und Ähnliches mehr beschrieben wird und deren Charakter aber immer mehr
oder weniger im Dunkeln bleibt. Voraussetzung dieser wahrheitssemantischen
Strategie ist natürlich, daß man es mit wahrheitswertfähigen Sätzen zu tun hat.
Doch muß man nicht viel Phantasie aufbringen, um diese Voraussetzung verletzt
zu finden. Schon bei den grammatisch gleichartigen Sätzen „dieses Bild ist
schön“, „dieses Bild ist im wesentlichen gelungen“ und „dieses Bild ist viereckig“, „dieses Bild ist vorwiegend blau“ ist es so, daß die ersten zwei von zweifelhafterer Wahrheitswertfähigkeit sind als die letzten zwei. Indem ich das sage,
habe ich keine ausgetüftelte Wahrheitstheorie im Hinterkopf, sondern allenfalls
eine ganz naive Korrespondenzvorstellung: daß ein Satz genau dann wahr ist,
wenn die Welt so beschaffen ist, wie er es sagt. Und bei den ersten zwei Sätzen
hat man eben viel eher als bei den letzten zwei den Eindruck, daß sie nicht bloß –
zutreffend oder unzutreffend – jenes Bild beschreiben, sondern auch etwas über
die Beziehung desjenigen, der sie äußert, zu jenem Bild ausdrücken. Um ein gravierenderes Problem zu nennen: die ganze Dimension der illokutionären Rolle
von sprachlichen Äußerungen und auch Sätzen wird von der wahrheitssemanti-
162
schen Strategie prinzipiell ausgeblendet.1 Auch mit der Wahrheitswertfähigkeit
subjunktiver und insbesondere kontrafaktischer Aussagen tut man sich sehr
schwer. Selbst bei kontrafaktischen Aussagen wie etwa „wenn ich gerade nicht
das Pedal getreten hätte, hätte mein Auto nicht gebremst“, die sich allgemeiner
Zustimmung erfreuen, ist es durchaus dunkel, welche Tatsachen ihnen im Sinne
obiger naiver Korrespondenzvorstellung entsprechen sollen. Und gegenüber der
Frage, wie die Welt wohl aussehen würde, wenn Kennedy nicht erschossen worden wäre, ist man nicht bloß deswegen hilflos, weil es so diffizil wäre, das herauszufinden, sondern deswegen, weil man gar nicht mehr richtig weiß, wann
mögliche Antworten als wahr oder falsch gelten sollen. Einige wenige haben sich
deshalb hier von der wahrheitssemantischen Strategie abgewandt.2 Angesichts der
so offensichtlichen Beschränktheit dieser Strategie kann man sich jedoch nur
wundern, mit welcher Obstinatheit sie insgesamt immer noch verfolgt wird.
Diejenigen, die das ähnlich sehen, neigen dann dazu, statt nach den Wahrheitsbedingungen nach den Bedingungen rationaler Akzeptierbarkeit oder begründeter
Behauptbarkeit von Sätzen zu fragen.3 So ausgedrückt, scheint mir dieses Programm aber nur ein halbherziger Schritt in die richtige Richtung zu sein; sein
Kontrast zur wahrheitssemantischen Strategie ist nicht sehr deutlich. Denn Akzeptieren bzw. Behaupten heißt typischerweise Als-wahr-Akzeptieren bzw. Alswahr-Behaupten; und so entspricht der intuitiven Meinung, daß etwa „dieses Bild
ist viereckig“ und „dieses Bild ist schön“ von unterschiedlicher Wahrheitswertfähigkeit sind – welche die wahrheitssemantische Strategie schlecht nachvollziehen
kann –, die intuitive Meinung, daß die Akzeptation von „dieses Bild ist viereckig“
ein andersartiger psychischer Vorgang oder Zustand ist als die Akzeptation von
„dieses Bild ist schön“ – welche in diesem neuen Programm schlecht Berücksichtigung finden kann. In paralleler Weise eingeschränkt sind die Anwendungsmöglichkeiten dieses Programms; Fragen, Bitten, explizit performative Äußerungen
etc. sind genausowenig akzeptierbar oder behauptbar, wie sie wahrheitsfähig sind.
Es weist dennoch den richtigen Weg, da es sich gerade hinsichtlich Konditionalaussagen von der wahrheitssemantischen Strategie deutlich absetzt und dort einen
1
Natürlich gibt es Versuche, illokutionäre Rollen in das Prokrustesbett einer Wahrheitssemantik
zu zwängen, wie etwa Lewis (1972). Diese sind aber, gelinde gesagt, seltsam.
2
Am ausdrücklichsten hat dies Ellis (1979) getan. Seiner viel ausführlicheren und detaillierteren
Kritik an der Wahrheitssemantik kann ich hier nur beipflichten.
3
So etwa Ellis (1979), Abschn. II.2, Gärdenfors (1979, 1981) und Putnam (1983), S. 62. Damit
verwandt ist auch Mackie (1973), Kap. 3, § 9.
163
Charakter annimmt, der in der folgenden Strategie besser zum Ausdruck kommt.
Es gibt nämlich noch eine dritte Strategie, die meines Erachtens ganz allgemein
anwendbar und jedenfalls nicht so beschränkt ist. Diese besteht darin, nicht nach
den Wahrheits- und auch nicht nach den Behauptbarkeits- oder Akzeptabilitätsbedingungen von Sätzen zu fragen, sondern danach, was, d.h. welchen inneren Zustand jemand, der eine Äußerung tut, damit ausdrückt. So formuliert, ist diese
Strategie zunächst nur auf die Semantik von Äußerungen gerichtet; doch kann
man von da aus zur Semantik von Sätzen fortschreiten, insoweit die verschiedenen Äußerungen eines Satzes in der Regel das gleiche ausdrücken.1 Die Chancen
dieser ausdruckssemantischen Strategie, wie ich sie hier nennen will, allgemein zu
erörtern und ihre Überlegenheit zu begründen, würde uns nun viel zu weit in die
Sprachphilosophie wegführen.2 Mir kommt es im Moment nur auf den folgenden
Punkt an:
Wenn man dieser Strategie folgen will, so muß man sagen, welche inneren Zustände es sind, die Ausdruck finden können. Das sind sehr häufig epistemische
Zustände. Wenn etwa jemand etwas behauptet oder über etwas informiert, so
drückt er damit aus, daß er glaubt, was er sagt. Ich vermute nun, daß es gerade die
komplexeren konditionalen, durch unsere EKFs beschriebenen epistemischen Zustände sind, die in Wenn-Dann-Aussagen zum Ausdruck kommen. Ich vermute
des weiteren, daß unsere EKFs auch hinreichen, um die in Wenn-Dann-Aussagen
zum Ausdruck kommenden epistemischen Zustände zu beschreiben. Diese Behauptung ist freilich nicht so stark, wie sie scheinen mag. Sie läßt ja noch ganz
offen, welche epistemischen Einstellungen in Wenn-Dann-Aussagen zum Ausdruck kommen; sie sagt nur, daß diese mit EKFs beschreibbar sind. Es wäre zum
Beispiel ganz voreilig, die folgende These zu vertreten: Wenn X „wenn A der Fall
wäre, wäre auch B der Fall“ äußert und wenn die EKF g X’s epistemischen Zustand zum Zeitpunkt der Äußerung repräsentiert, so drückt X damit aus, daß g(A)
⊆ B. Diese These trifft nur auf manche wenige Konditionalaussagen zu. Ein Beispiel von Adams (1970) macht das klarer. Ich wage hier die folgenden zwei Behauptungen:
1
Das ist nur eine ganz grobe Aussage. Das Verhältnis von Äußerungen und Sätzen ist viel zu
kompliziert und für uns zu nebensächlich, als daß es sich lohnte, darauf näher einzugehen.
2
Diese Strategie ist als Gricesches Programm wohlbekannt; und ihre sorgfältigsten Ausarbeitungen dürfte sie in Schiffer (1972), Bennett (1976) und Loar (1982) erfahren haben.
164
„Wenn Oswald nicht auf Kennedy geschossen hat, dann war es jemand anders.“
„Wenn Oswald nicht auf Kennedy geschossen hätte, dann wäre Kennedy damals nicht gestorben.“
Diese beiden Äußerungen sind sehr wohl miteinander verträglich. Der ersten wird
die eben formulierte These sogar gerecht. Denn wenn ich glaubwürdig darüber
informiert würde, daß Oswald doch nicht, wie ich bisher angenommen habe, auf
Kennedy geschossen hat, so würde ich trotzdem keinen Zweifel daran hegen, daß
Kennedy erschossen worden ist; ich würde glauben, daß jemand anders es getan
hat. Dies bedeutet gleichzeitig, daß diese These auf die zweite Äußerung nicht
zutreffen kann. Ich habe nicht nachgeprüft, ob diese These für alle indikativistischen Konditionalaussagen gilt. Aber ich nehme an, daß sie für alle kausalen
Wenn-Dann-Aussagen nicht gilt; dies wird jedenfalls das Ergebnis unserer Kausalitätstheorie sein.
Ich will mich nun nicht weiter in die sehr komplizierte Beziehung zwischen
Äußerungen und inneren Zuständen vertiefen.1 Doch dürfte mittlerweile klar geworden sein, inwiefern in der wahrheits- und in der ausdruckssemantischen Strategie formale Begriffe wie EKFs und Ähnliches unterschiedlich angewandt werden. Im Rahmen der wahrheitssemantischen Strategie werden sie verwandt, um
damit direkt die Wahrheitsbedingungen von (bestimmten Typen von) Konditionalaussagen zu formulieren. Ich hingegen sehe mit den EKFs nur den psychologischen Teil der ausdruckssemantischen Strategie als erledigt, der die relevanten
inneren Zustände beschreibt; deren Beziehung zu Äußerungen und Sätzen ist dann
noch ein reiches, offenes und recht kompliziertes Arbeitsfeld für den Konditionallogiker.2
Nachdem dieser Unterschied klargestellt ist, können wir uns nun auf einen etwas genaueren Vergleich zwischen EKFs und anderen, in der Konditionallogik
benutzten formalen Be-griffen einlassen, die natürlich trotzdem verwandt sind. So
1
Bezüglich kausaler Wenn-Dann-Aussagen tun wir’s ja noch ausführlich; zumindest läßt sich das
Spätere so betrachten. Siehe S. 221f.
2
Meine Vermutung, dass die EKFs den psychologischen Teil erschöpfen, ließe sich natürlich nur
durch gründliche Untersuchung dieses Arbeitsfeldes als richtig erweisen. Außerdem kann sie nur
unter den in diesem Abschnitt geschilderten idealisierenden Annahmen richtig sein. Wenn sie aber
richtig ist, so bringt die ausdruckssemantische viel eher als die wahrheitssemantische Strategie die
verschiedenen Konditionalformen und die diffusen Begleitphänomene, wie ich sie auf S. 47ff.
etwas geschildert habe, unter einen Hut.
165
ist unschwer zu erkennen, daß unsere EKFs eine Spezialisierung von Nutes „class
selection functions“ sind1 und daß sie zum Beispiel fast dasselbe sind wie Lewis’
„selection functions“2 oder die Funktion g, die in den konditionallogischen und
den bedingt-epistemologischen Interpretationen von Kutscheras auftaucht.3 Besonders augenfällig ist mein Bezug zu und meine Gleichgesinntheit mit Gärdenfors (1979). Unsere EKFs stimmen bestens mit seiner Funktion F aus seinen „belief models“ überein,4 und insbesondere hat Gärdenfors mit seinen Arbeiten
(1979) und (1981) meines Erachtens am klarsten und ausdrücklichsten eine Theorie der Änderungen epistemischer Zustände zur Grundlage der Konditionallogik
gemacht.5
Nicht so bloß verweisend möchte ich zuletzt auf die Ähnlichkeitssemantik von
Lewis (1973a) eingehen, deren Prominenz ziemlich jeden Autor zu einem Vergleich genötigt hat. Dazu werden wir ein kleines Äquivalenztheorem formulieren,
wie es anderswo schon gründlicher dargelegt wurde.6 Daran will ich aber vor allem demonstrieren, daß die kleinen formalen Abweichungen der Ähnlichkeitssemantik von unseren EKFs -– es sind im wesentlichen drei – von dem hier erläuterten Verständnis her nicht nachvollziehbar sind.
Für diesen Vergleich (und auch für den nächsten Abschnitt) ist es nützlich, unseren EKFs ein etwas anderes formales Gewand zu geben:
Definition 5.7: Die Folge (E α)α<ζ ist eine wohlgeordnete Zerlegung7 genau
dann, wenn für alle α, β < ζ gilt: Eα ∈ A; Eα ≠ ∅; Eα ∩ Eβ = ∅, sofern α ≠ β;
1
Vgl. Nute (1980), S. 20f. und S. 57f.
Vgl. Lewis (1973a), S. 58.
3
Vgl. Kutschera (1976), S. 56 und S. 101.
4
Vgl. Gärdenfors (1979), S. 389. Diese Übereinstimmung wird dann offenbar, wenn man seine
Bedingungen (C6), S. 390, und (C10a) und (C10b), S. 393, betrachtet und beachtet, dass seine
Bedingungen (C7)–(C9), S. 390–392, von (C6), (C10a) und (C10b) impliziert werden.
5
Ich unterscheide mich nur darin von ihm, daß er von der psychologischen Theorie der Überzeugungsänderungen direkt zur Semantik von Konditionalaussagen fortschreitet, während ich mich
über diesen Schritt oben nur sehr vorsichtig ausgelassen habe. Dieser Unterschied rührt sicherlich
auch daher, daß Gärdenfors seiner Suche nach Akzeptabilitätsbedingungen von Konditionalaussagen nicht explizit unsere ausdruckssemantische Strategie zugrunde legt.
6
Vgl. etwa Lewis (1973a), S. 58f., Kutschera (1976), Abschnitt 3.4, und Gärdenfors (1979), S.
393–395.
7
α, β, γ, ζ etc. verwende ich im weiteren als Variablen für Ordinalzahlen. Wer mit den Ordinalzahlen nicht vertraut ist, darf auch so tun, als ging es um natürliche Zahlen statt um Ordinalzahlen,
und kann daher α, β, etc. auch als Variablen für natürliche Zahlen (einschließlich der Null) lesen;
das Verständnis des Weiteren wird dadurch nicht entscheidend beeinträchtigt.
2
166
und Eα = Ω.
α <ζ
Definition 5.8: Die wohlgeordnete Zerlegung (Eα)α<ζ erzeugt die EKF g genau
dann, wenn für alle A ∈ A mit A ≠ ∅ gilt: g(A) = Eβ ∩ A, wobei β = min{a | Eα ∩
A ≠ ∅}.
Satz 5.9: Jede EKF wird von genau einer wohlgeordneten Zerlegung erzeugt,
und jede wohlgeordnete Zerlegung erzeugt genau eine EKF.
Beweis: Sei erstens g eine EKF. Sei dann für alle Ordinalzahlen β durch transfinite Rekursion definiert: Eβ = g(Ω \ Eα). Sei ζ das kleinste α, für das Eα = ∅.
α<β
Daß dann (Eα)α<ζ eine wohlgeordnete Zerlegung ist, ist trivial. Sie erzeugt auch g:
Denn sei für A ∈ A mit A ≠ ∅ β = min{α | E α ∩ A ≠ ∅}. Dann ist g(A) = g((Ω \
Eα) ∩ A) = g(Ω \ Eα) ∩ A = E β ∩ A unter Zuhilfenahme von Eigenschaft
α<β
α<β
(c) von Definition 5.6. Wo (Eα)α<ζ durch g definiert war, ist es schließlich trivial,
daß (Eα)α<ζ die einzige wohlgeordnete Zerlegung ist, die g erzeugt.
Sei zweitens (Eα)α<ζ eine wohlgeordnete Zerlegung und die Funktion g von A
in A dadurch definiert, daß g(∅) = ∅ und für alle A ∈ A mit A ≠ ∅ g(A) wie in
Definition 5.8. Offenkundig erfüllt dann g die Bedingungen (a) und (b) von Definition 5.6. Gelte ferner für A, B ∈ A g(A) ∩ B ≠ ∅. Das heißt, daß Eβ ∩ A ∩ B ≠
∅, wobei β = min{α | Eα ∩ A ≠ ∅}. Also gilt auch β = min{α | Eα ∩ A ∩ B ≠ ∅}.
Daraus folgt g(A ∩ B) = g(A) ∩ B. Mithin erfüllt g auch die Bedingung (c) von
Definition 5.6. Trivial ist schließlich die Tatsache, daß g die einzige von (E α)α<ζ
erzeugte EKF ist. Q.e.d.
Wohlgeordnete Zerlegungen und EKFs stehen also in eineindeutiger Entsprechung zueinander; statt von den einen können wir ebenso von den andern reden.
Wohlgeordnete Zerlegungen sind wie die EKFs intuitiv leicht zugänglich. Daß
eine solche Zerlegung (Eα)α<ζ den epistemischen Zustand von X bezüglich A
charakterisiert, läßt sich so lesen, daß E 0 die für X plausibelsten möglichen Verläufe aus Ω enthält, E1 die für X zweitplausibelsten, E2 die für X drittplausibelsten,
und so weiter; und über den Sachverhalt A informiert, glaubt X dann gerade, daß
einer der plausibelsten Verläufe aus A vorliegt; d.h. er glaubt dann B genau dann,
wenn Eβ ∩ A ⊆ B, worin wieder β = min{α | Eα ∩ A ≠ ∅}.
Wohlgeordnete Zerlegungen lassen sich nun direkt mit Lewis’ Ähnlichkeits-
167
semantik vergleichen, welche von der folgenden Struktur ausgeht:
Definition 5.10: S = (Sω)ω∈Ω ist eine Ähnlichkeitsstruktur genau dann, wenn für
jedes ω ∈ Ω Sω eine nicht-leere Teilmenge von A ist, so daß gilt:
(a) Sω ist bezüglich ⊆ total geordnet, d.h. für alle A, B ∈ Sω ist A ⊆ B oder B ⊆ A,
(b) S ω ≠ ∅
(c) wenn ∅ ≠ C ⊆ Sω, so C ∈S ω und C ∈ Sω.
S heißt schwach zentriert genau dann, wenn für alle ω ∈ Ω ω ∈ S ω ;
S heißt zentriert genau dann, wenn für alle ω ∈ Ω {ω} ∈ Sω;
S heißt universell genau dann, wenn für alle ω ∈ Ω S ω = Ω; und S heißt wohlgeordnet genau dann, wenn für alle ω ∈ Ω Sω bezüglich ⊆ sogar wohlgeordnet
ist.
Lewis verwendet seine Ähnlichkeitsstrukturen zur Formulierung von Wahrheitsbedingungen für Konditionalaussagen: Für A, B ∈ A heißt der Satz „wenn A
der Fall wäre, wäre B der Fall“ wahr im Verlauf ω ∈ Ω nach Maßgabe der Ähnlichkeitsstruktur S genau dann, wenn A ∩ Sω = ∅ oder wenn es ein C ∈ Sω gibt,
so daß ∅ ≠ C ∩ A ⊂ B.1 Ist die Ähnlichkeitsstruktur S dabei universell und wohlgeordnet, so reduziert sich das darauf, daß dieser Satz genau dann in ω wahr ist,
wenn A = ∅ oder C ∩ A ⊆ B, worin C die kleinste Menge D aus Sω ist, für die D
∩ A ≠ ∅. Die entsprechende Formulierung hatten wir vorhin verwandt, um zu
sagen, wann ein durch eine bestimmte wohlgeordnete Zerlegung charakterisiertes
epistemisches Subjekt mit der Information A auch B glaubt.
Lewis’ „offizielle“ Konditionallogik basiert allerdings auf zentrierten (und damit a fortiori schwach zentrierten) Ähnlichkeitsstrukturen. Die Bedingung der
Universalität schätzt er nicht, auch wenn er sie nicht verwirft; die Bedingung der
Wohlgeordnetheit hingegen, die (fast) dasselbe besagt wie seine „Limit Assumption“, lehnt er explizit ab.2 Doch benötigen wir gerade diese zwei Bedingungen
zum Vergleich mit wohlgeordneten Zerlegungen:
1
Bei Lewis bezieht sich die Wahrheitsbedingung, genaugenommen, auf Sätze einer zu interpretierenden formalen Sprache. Wir haben diese formale Sprache einfachheitshalber aus dem Spiel
gelassen; und davon abgesehen, ist dies eine getreue Übersetzung der Wahrheitsbedingung von
Lewis (1973a), S. 16.
2
Vgl. Lewis (1973a), Abschn. 1.4 und 1.5.
168
Satz 5.11: S = (Sω)ω∈Ω ist genau dann eine universelle, wohlgeordnete Ähnlichkeitsstruktur, wenn es für jedes ω∈Ω eine wohlgeordnete Zerlegung (Eα)α<ζ gibt,
so daß Sω = { Eα | 0 < β ≤ ζ}.
α<β
Beide Richtungen des Satzes sind zu offenkundig, um im Beweise vorgeführt
werden zu müssen. Er zeigt genau drei Punkte, in denen Ähnlichkeitsstrukturen
von wohlgeordneten Zerlegungen abweichen. Eine Ähnlichkeitsstruktur (Sω)ω∈Ω
muss gerade zwei spezielle Bedingungen, nämlich die der Wohlgeordnetheit und
die der Universalität, erfüllen, damit dann drittens für jedes ω ∈ Ω S ω in eineindeutiger Weise einer wohlgeordneten Zerlegung entspricht. Von unserer epistemischen Interpretation her können wir jedoch, wie zum Abschluß dieses Abschnitts
ausgeführt sei, diese Abweichungen nicht mitmachen. Für jedes ω ∈ Ω eine
wohlgeordnete Zerlegung anzunehmen, ist für uns des Guten zuviel; dafür können
wir auf die Bedingung der Wohlgeordnetheit und die der Universalität nicht verzichten:
Die Bedingung der Wohlgeordnetheit aufzugeben, hieße – wie anderswo dargelegt1 –, das sogenannte „Generalized Consequence Principle“ zu verwerfen,
welches epistemisch interpretiert folgendes besagt: Wenn unser X jedes B ∈ B
unter der Bedingung A glauben würde – wobei B eine endliche oder unendliche
Teilmenge von A ist – und wenn C aus B logisch folgt, so würde X auch C unter
der Bedingung A glauben. Aber genau dieses Prinzip hatten wir auf S. 156f. akzeptiert – als eine Konsequenz der für uns unumgänglichen Idealisierung, epistemische Einstellungen als Einstellungen direkt zu Sachverhalten aufzufassen.
Ebenso können wir die Bedingung der Universalität schlecht fallen lassen. Lewis verzichtet auf sie, um in seiner Konditionallogik auch gleich eine Modallogik
unterbringen zu können, die nicht darauf festgelegt ist, nur die logischen Modalitäten zu behandeln. Unser Interesse ist das nicht. Wir würden mit dem Verzicht
auf diese Bedingung – also darauf, daß für eine wohlgeordnete Zerlegung (Eα)α<ζ
immer Eα = Ω zu gelten hat – zulassen, daß unser X auch aufgrund nicht loα<ζ
gisch unmöglicher Informationen den auf S. 159 geschilderten, totalen epistemischen Kollaps erlitte und alles zu glauben anfinge; und das halte ich nicht für
wünschenswert.
1
Etwa in Gärdenfors (1981), S. 208, Lewis (1981), S. 228ff., und Pollock (1981), S. 252ff.
169
Schließlich hat es für uns gar keinen Sinn, für jeden Verlauf ω ∈ Ω eine gesonderte wohlgeordnete Zerlegung anzunehmen. Bei Lewis wie bei allen anderen
dient das dazu, auch geschachtelte oder iterierte Konditionalaussagen semantisch
zu erfassen.1 Und mit iterierten Konditionalaussagen hat man es automatisch zu
tun, wenn man in der Syntax das Konditional als eine Satzverknüpfung zwischen
beliebigen (eventuell schon mit dem Konditional gebildeten) Sätzen behandelt.
Mir scheint, daß hier einfach der syntaktische Gaul mit dem semantischen Reiter
durchgeht – wie übrigens auch bei Iterationen in anderen philosophischen Logiken wie etwa der deontischen oder der epistemischen. Ich meine damit nicht, daß
solche Iterationen prinzipiell sinnlos wären; aber ich denke, daß die Aufgabe, ihnen Sinn zu verleihen, viel schwieriger und viel sorgfältiger zu bedenken ist, als
daß sie so einfach übers Knie gebrochen werden könnte. Jedenfalls taucht im
Rahmen unserer psychologischen Interpretation die Notwendigkeit zu solchen
Iterationen nicht auf, und es ist vorderhand überhaupt nicht zu sehen, welchen
Sinn sie da haben könnten. Daher werden mir in diesem Punkt auch die zitierten
Arbeiten von Ellis und Gärdenfors unverständlich, die in ihrem direkten und, wie
ich meine, vorschnellen Übergang vom Psychologischen zum Semantischen diese
Iteriererei mitmachen und damit ihren epistemischen Ansatz gleich wieder verraten. –
Weiter will ich hier den Vergleich unserer EKFs mit der konditionallogischen
Szene nicht treiben. Trotz der eben geführten Dispute – und ihre Geringfügigkeit
zeigt es gerade – dürfte klar geworden sein, daß die EKFs in dieser Szene ganz zu
Hause sind. Der einzige wesentliche Unterschied liegt in unserer bloß psychologischen und nicht gleich semantischen Verwendung der EKFs. Und gerade dieser
Unterschied zwingt uns nun, auch diese Szene zu verlassen – nachdem wir die in
den Wissenschaften übliche Konzeption deterministischer Prozesse gleich zu Beginn hinter uns gelassen haben. Im nächsten Abschnitt müssen wir nämlich die
EKFs in einem kleinen, aber wesentlichen Punkt korrigieren, der für eine direkte
semantische Verwendung von EKFs gar keinen Unterschied macht und daher nur
bei einer psychologischen Betrachtungsweise erkennbar werden kann.
1
Denn es ermöglicht zu sagen, daß auch der Satz „wenn A der Fall wäre, wäre B der Fall“ einen
Sachverhalt ausdrückt, nämlich den Sachverhalt, der aus all den Verläufen besteht, in denen dieser
Satz wahr ist.
170
5.3 Eine verbesserte Grundlage für die Theorie des Konditionals
In unserer Behandlung des Falls, in dem die neue Information den alten Überzeugungen unseres Subjektes X zuwiderläuft (S. 159), sei, so sagte ich, etwas Umstürzlerisches geschehen. In der Tat: Damit auch in diesem Fall die neuen Überzeugungen durch den alten epistemischen Zustand und die gegebene Information
gemäß der Regel der einfachen deterministischen Konditionalisierung eindeutig
bestimmt sind, sahen wir uns genötigt, den Begriff des epistemischen Zustands zu
komplizieren. Vorher reichte es völlig hin, einen epistemischen Zustand durch
sein Total zu charakterisieren; danach müßten wir einen epistemischen Zustand
durch eine ganze EKF repräsentieren. Damit jedoch konterkarierten wir unversehens unsere gesamte dynamische Fragestellung. Diese lautete auf S. 158: Was
können wir über rationale Änderungen epistemischer Zustände aufgrund von Beobachtungen, Informationen und dergleichen aussagen? Darin verstanden wir epistemische Zustände noch im einfachen Sinn als Totale. Wenn wir sie nun aber
in einem komplizierteren Sinne als EKFs verstehen, dann dürfen wir nicht mehr,
wie wir es bisher getan haben, X’s ursprünglichen epistemischen Zustand im
komplizierten Sinn und X’s durch Informationen veränderten epistemischen Zustand immer noch im einfachen Sinn auffassen. Vielmehr müssen wir sagen, welche EKF g' den epistemischen Zustand von X zum Zeitpunkt t' repräsentiert, wenn
er zum Zeitpunkt t durch die EKF g charakterisiert ist und zwischenzeitlich die
Information A erhält. Genau darum wollen wir uns im folgenden bemühen.
Plausible Antworten auf diese Frage findet man eher, wenn man von EKFs zu
wohlgeordneten Zerlegungen übergeht. Dann lautet unsere Frage: Sei X zu t durch
die wohlgeordnete Zerlegung (Eα)α<ζ charakterisiert, und sei A ∈ A die gesamte
Information, die X zwischen t und t' sammelt; was läßt sich dann über die wohlgeordnete Zerlegung ( Eα′ )α<ζ', sagen, die X zu t' charakterisiert?
Eine erste Antwort wird durch die folgende Überlegung nahegelegt: Wenn X
die Information A erhält und auch akzeptiert – was wir ja immer vorausgesetzt
haben –, so scheint es für X vernünftig zu sein, daß er daraufhin die möglichen
Verläufe ω, in denen A gilt, d.h. für die ω ∈ A, für plausibler hält als die Verläufe,
in denen A gilt. Ferner scheint es für X vernünftig zu sein, daß er ansonsten
nichts an seiner durch (E α)α<ζ gegebenen Plausibilitätsordnung ändert, daß also
gilt: wenn die Verläufe ω und ω' beide aus A oder beide aus A und wenn ω ge-
171
mäß (Eα ) α<ζ', für X plausibler ist als ω', so ist ω auch gemäß ( Eα′ ) α<ζ, für X plausibler als ω'. Dies erscheint vernünftig, weil die Information A nichts Neues über
das Verhältnis zwischen ω und ω' enthält. Diese Gedanken führen zu einem präzisen Vorschlag, zu dessen Formulierung wir eine Hilfsdefinition benötigen:
Definition 5.12: Sei (Cα)α<ζ eine Folge irgendwelcher Mengen. Sei die Funktion ρ dadurch rekursiv definiert, daß ρ(γ) = min{α | C α ≠ ∅ und für alle β < γ ist
α > ρ(β)}. Sei {β | β < η} der Definitionsbereich von ρ. Dann heiße die Folge
(Cρ(β))β<η die ∅-Bereinigung von (Cα)α<ζ.
Die ∅-Bereinigung von (Cα)α<ζ entsteht aus (Cα)α<ζ also einfach dadurch, daß
man aus (Cα)α<ζ alle leeren Glieder herausstreicht und die Numerierung der verbleibenden Glieder entsprechend ändert. Unser erster Vorschlag bezüglich der
Beschaffenheit von ( Eα′ )α<ζ' ist dann so zu präzisieren:
(5.1)
Sei für α < ζ Fα = Eα ∩ A und Fζ+α = Eα \ A. Dann ist ( Eα′ )α<ζ+ζ' die ∅Bereinigung der Folge (Fα)α<ζ+ζ.
Gemäß ( Eα′ )α<ζ' sind dann gerade, wie gewünscht, alle ω ∈ A plausibler als alle
ω' ∈ A , während innerhalb A bzw. A die durch (Eα)α<ζ gegebene Plausibilitätsordnung unangetastet bleibt. Natürlich ist ( Eα′ )α<ζ' wieder eine wohlgeordnete
Zerlegung. Und es ist klar, daß die Folge (Fα)α<ζ+ζ im allgemeinen keine wohlgeordnete Zerlegung ist und daher ∅-bereinigt werden muß.
So anziehend dieser Vorschlag auf den ersten Blick ist, so zweifelhaft ist er bei
näherem Hinsehen. Drei Gründe sprechen gegen ihn, die genau zu verstehen für
das Weitere wesentlich ist. Die ersten zwei laufen darauf hinaus, daß gemäß (5.1)
keine deterministische Entsprechung zu den probabilistischen Korollaren 5.3 und
5.5 zu finden ist:1
So ist erstens zu konstatieren, daß epistemische Änderungen gemäß (5.1) nicht
reversibel sind. Das bedeutet, daß gemäß (5.1) keine Möglichkeit besteht, die Information A für null und nichtig zu erklären oder sie als bloßen Irrtum oder reines
Mißverständnis hinzustellen; und das ist unschön. Der formale Grund dafür ist,
daß es im allgemeinen unmöglich ist, aus ( Eα′ )α<ζ' das ursprüngliche (Eα)α<ζ irgendwie wieder zu rekonstruieren. Dies liegt wiederum daran, daß aus dem ∅1
S. S. 147 und S. 149.
172
bereinigten ( Eα′ )α<ζ' die nicht bereinigte Folge (Fα)α<ζ+ζ nicht rückerschlossen
werden kann. Insbesondere ist es also nicht möglich, ( Eα′ )α<ζ' durch eine Änderung von der Form (5.1) wieder in (Eα)α<ζ zurückzuverwandeln.1
Der zweite Grund wiegt schon schwerer. Gemäß (5.1) sind epistemische Änderungen davon abhängig, in welcher Reihenfolge Informationen aufgenommen
werden. Wenn X seinen epistemischen Zustand (Eα)α<ζ durch die Information A
gemäß (5.1) ändert und den daraus resultierenden Zustand durch die Information
B, so entsteht eine Plausibilitätsordnung, in der alle ω1 ∈ A ∩ B vor allen ω2 ∈ A
∩ B, diese wiederum vor allen ω3 ∈ A ∩ B und diese schließlich vor allen ω4 ∈
A ∩ B rangieren. Ändert X hingegen seinen Zustand erst durch die Information
B und dann durch die Information A, so resultiert gemäß (5.1) eine Plausibilitätsordnung, in der alle ω1 ∈ A ∩ B vor allen ω3 ∈ A ∩ B , diese vor allen ω2 ∈ A
∩ B und diese vor allen ω4 ∈ A ∩ B stehen. Ändert X schließlich seinen Zustand
auf einen Schlag durch die Information A ∩ B, so rangieren in der neuen Ordnung
alle ω1 ∈ A ∩ B vor allen ω ∈ A ∪ B , welche in ihrer alten Ordnung belassen
werden. Mithin erzeugt unser Vorschlag (5.1) hier für die drei verschiedenen Reihenfolgen der Informationen A und B drei verschiedene epistemische Änderungen.
Das ist nicht total unerwünscht. Denn die Unabhängigkeit epistemischer Änderungen von der Reihenfolge der Informationen ist sicherlich nicht in jedem Fall zu
erwarten. Wenn etwa die Information B die Information A in einem intuitiven
Sinne korrigiert (was auch dann der Fall sein kann, wenn B dem A nicht logisch
widerspricht), so ist eine solche Unabhängigkeit nicht plausibel. Akzeptiert man B
nach A, so wird man an A nicht mehr unbedingt festhalten; akzeptiert man umgekehrt A nach B, so wird das spätere A das frühere B in Zweifel ziehen. Für diesen
Fall ist also die Reihenfolge der Information wesentlich.2 Der üblichere Fall wird
freilich der sein, daß die erhaltenen Informationen sich schlicht akkumulieren,
1
Dieses Argument kann man nicht mit dem Hinweis darauf abtun, daß die Reversibilität epistemischer Änderungen im probabilistischen Fall erst bei der Regel der verallgemeinerten Konditionalisierung gegeben war. Denn daß Änderungen gemäß der einfachen Konditionalisierung dort nicht
reversibel waren, lag daran, daß die einfache Konditionalisierung den technischen Beschränkungen von Korollar 5.2 nicht genügte. Im jetzigen deterministischen Fall bestehen aufgrund des
Überganges von Totalen zu EKFs die entsprechenden technischen Beschränkungen nicht mehr, so
daß nun auch im Fall der einfachen Konditionalisierung die Forderung nach der Reversibilität
epistemischer Änderungen nicht unbillig ist.
2
Natürlich kann es in diesem Fall auch so sein, daß die spätere Information aufgrund der früheren
gar nicht richtig akzeptiert wird. Doch ist diese Möglichkeit im Moment irrelevant, da wir ja annehmen, daß Informationen zum Zeitpunkt ihres Eintreffens akzeptiert werden; andernfalls gelten
sie gar nicht als Informationen.
173
ohne sich gegenseitig zu erschüttern. Und in diesem Fall sollte man annehmen,
daß die Reihenfolge der Akkumulation keine Rolle spielt. (5.1) zufolge spielt jedoch die Reihenfolge der Information immer eine Rolle, auch im Falle sich bloß
akkumulierender Informationen; und darin liegt die zweite kritikwürdige Eigenschaft von (5.1).1
(5.1) ist noch in einer dritten, eher intuitiven Hinsicht inadäquat: (5.1) hat zwar
die unanfechtbare Eigenschaft, daß nach Akzeptation der Information A die für X
plausibelsten Verläufe alle aus A sind – genauer: daß E0′ = E β ∩ A, wobei β =
min{α | Eα ∩ A ≠ ∅}. Doch geht (5.1) weit darüber hinaus. Denn (5.1) schreibt ja
vor, daß alle Verläufe aus A, sogar die ursprünglich unplausibelsten, allen Verläufen aus A , selbst den ursprünglich plausibelsten, vorgeordnet werden. Und das
scheint viel zu viel verlangt; allenfalls die allersicherste, unbezweifelbarste Information könnte den epistemischen Zustand von X in dieser Weise ändern.2
Diese letzte Überlegung legt einen anderen Versuch nahe. Vielleicht sollte die
Information A auf (Eα)α<ζ nur den Effekt haben, daß die plausibelsten und nicht
alle Verläufe aus A den übrigen vorgeordnet werden, während ansonsten die Plausibilitätsordnung unverändert bleibt. Präzise gefaßt, lautet dieser zweite Vorschlag
also:
(5.2)
Sei F0 = E β ∩ A, wobei β = min{α | E α ∩ A ≠ ∅}, F1+β = E β \ A und für
alle α < ζ mit α ≠ β F 1+α = E α. Dann ist ( Eα′ ) α<ζ' die ∅-Bereinigung der
Folge (Fα)α<1+ζ.
Doch es ist augenfällig, daß (5.2) auch nicht mehr taugt als (5.1). So ist leicht
zu sehen, daß epistemische Änderungen gemäß (5.2) im allgemeinen nicht reversibel sind und immer von der Reihenfolge der aufgenommenen Informationen
abhängen, also auch dann, wenn sich diese Informationen in einem intuitiven Sinne bloß akkumulieren. Und was die dritte Inadäquatheit betrifft, so sind wir nun
1
Man mag einwenden, daß einem folgendes ab und an passiert: Man erhält zunächst die Information A, die einem gar nicht viel sagt; hätte man zuvor die Information B erhalten, so hätte A diverse
Assoziationen ausgelöst und diverse Zusammenhänge klargemacht; tatsächlich trifft B aber nach A
ein, und so vergißt man, A im neuen Licht von B zu betrachten, und wird auch mit B nicht viel
schlauer. Dies könnte man als einen Fall sich akkumulierender Informationen ansehen, in dem die
Reihenfolge der Information relevant ist. Doch liegen solche denkpsychologischen Phänomene
weit jenseits dessen, was in unserem recht grob idealisierenden Rahmen behandelt werden kann.
(5.1) mit solchen Phänomenen verteidigen zu wollen, wäre daher ganz unsinnig.
2
Es liegt die Vermutung nahe, daß die zweite Inadäquatheit in dieser dritten Inadäquatheit ihre
Erklärung findet. Wir werden gleich sehen, daß dem nicht so ist.
174
einfach ins andere Extrem gefallen. Denn gemäß (5.2) hat jede Information nur
noch minimale Verläßlichkeit; (5.2) tut die Information A schon dann wieder als
unglaubwürdig ab, wenn sich auch nur eine Konsequenz des mit A Geglaubten,
also von Eβ ∩ A, als falsch herausstellt. Mit (5.2) ist also im allgemeinen zu geringes Vertrauen in die jeweilige Information festgeschrieben.
Aus diesem Versagen von (5.1) und (5.2) ist immerhin eine klare Lehre zu ziehen: Die gesuchte Regel der Änderung epistemischer Zustände darf der Sicherheit
der verschiedenen Informationen nicht ein und denselben starren Grad zudiktieren; sie muß in dieser Hinsicht flexibel sein. Um diese Flexibilität explizit zu machen, müssen wir jeder Information einen Parameter beiordnen, der ihren Sicherheitsgrad anzeigt. Das könnte zum Beispiel auf die folgende Weise geschehen:
Der Information A sei eine Ordinalzahl γ als Sicherheitsparameter zugeordnet,
für die min{α | Eα ∩ A ≠ ∅} < γ ≤ ζ gelten muß und die ausdrücken soll, wie lange X an seiner neu erworbenen Überzeugung, daß A, festhält: solange die späteren
Informationen mit Eα ∩ A verträglich sind, bleibt er bei dieser Überzeugung;
α<γ
wenn aber die späteren Informationen Eα ∩ A widersprechen, so gibt er sie
α<γ
auf. Formal besagt dieser dritte Vorschlag demnach:
(5.3)
Sei für alle α < γ Fα = Eα ∩ A und Fγ+α = Eα \ A und für alle α mit γ ≤ α ≤
ζ Fγ+α = Eα. Dann ist ( Eα′ )α<ζ ' die ∅-Bereinigung der Folge (Fα)α<γ+ζ.
Man könnte dann sagen, daß ( Eα′ )α<ζ ' die Änderung (Eα )α<ζ aufgrund der Information A mit der Sicherheit γ oder aufgrund der Information A, solange
Eα ∩ A , ist. Davon, daß diese Änderung dem Sachverhalt A simpliciter zuzuα<γ
schreiben ist, ist nun also nicht mehr die Rede. Auch ist klar, daß dieser Vorschlag
die ersten zwei verallgemeinert: Setzen wir in (5.3) γ = ζ, so ergibt sich (5.1); setzen wir γ = min{α | Eα ∩ A ≠ ∅} + 1, so erhalten wir (5.2).
(5.3) ist mithin eine wesentliche Verbesserung gegenüber (5.1) und (5.2). Doch
auch (5.3) gewährleistet leider weder die Reversibilität epistemischer Änderungen
noch ihre Unabhängigkeit von der Reihenfolge sich akkumulierender Informationen.
Wir haben demnach immer noch nichts Akzeptables in der Hand. Der Zweck
dieser erfolglosen Versuche war auch lediglich, den Blick für die Probleme zu
schärfen, die in unserer Frage nach der Dynamik von EKFs oder wohlgeordneten
175
Zerlegungen verborgen liegen, und so den Boden für den letzten Vorschlag zu
bereiten, der allerdings den von den EKFs gezogenen Rahmen verläßt. Daß diese
Probleme innerhalb dieses Rahmens unlösbar sind, kann ich zwar nicht beweisen;
aber ich bin davon fest überzeugt. Natürlich kann ich auch nicht beweisen, daß
diese Probleme nur auf die zu erläuternde Weise zu lösen sind; doch ist mir an der
folgenden Lösung noch kein Mangel aufgefallen.
Die nun rudimentär entwickelte Theorie der Konditionalfunktionen ist dabei
für alles Weitere von zentraler Bedeutung; wir werden sie später dauernd wie
selbstverständlich verwenden. Führen wir zunächst den entscheidenden neuen
Begriff ein:
Definition 5.13: Sei A eine vollständige Algebra über Ω. Dann heißt κ eine Ameßbare, ordinale Konditionalfunktion (A-OKF) genau dann, wenn κ eine Funktion von Ω in die Klasse der Ordinalzahlen ist derart, daß κ-1(0) ≠ ∅ und für alle
Atome1 A von A und alle ω, ω' ∈ A κ(ω) = κ(ω'). κ ist eine A-meßbare, natürliche Konditionalfunktion (A-NKF) genau dann, wenn κ eine A-OKF ist, die nur
natürliche Zahlen als Werte nimmt. Für jede A-OKF κ und für jedes A ∈ A mit A
≠ ∅ sei ferner κ(A) = min{κ(ω) | ω ∈ A}; wir setzen außerdem fest, daß κ(∅) =
ν.2 Schließlich sei für jede A-OKF κ κ diejenige Funktion von A in A, für die für
alle A ∈A κ (A) = {ω ∈ A | κ(ω) ≤ κ(ω') für alle ω' ∈ A}.
Daß A-OKFs allgemeiner sind als EKFs und wohlgeordnete Zerlegungen, ist
offensichtlich:
Satz 5.14: Für jede A-OKF κ ist κ eine EKF; und (κ-1(α))α<ζ ist genau dann
eine wohlgeordnete Zerlegung, wenn {α | α < ζ} der Wertebereich von κ ist.
In allem Folgenden wollen wir nun die epistemischen Zustände unseres Subjektes X statt durch EKFs durch A-meßbare OKFs charakterisieren. Im durch die
OKF κ repräsentierten Zustand glaubt X einen Sachverhalt A genau dann, wenn
1
Bekanntlich ist eine vollständige Mengenalgebra immer atomar. Vgl. Sikorski (1969), § 25.
ν sei dabei irgendein von allen Ordinalzahlen verschiedenes Ding, auf welches die Ordinalzahlordnung und die Ordinalzahladdition so erweitert sei, daß für alle Ordinalzahlen α gilt: α < ν und
α + ν = ν + α = ν + ν = ν.
κ(∅) überhaupt zu definieren, bringt den Vorteil, daß wir uns später bei Ausdrücken der Form
κ(A) nicht immer zu vergewissern brauchen, daß A nicht leer ist. Und mit dieser etwas seltsamen
Festsetzung lassen sich spätere Aussagen über nicht-leere Mengen am besten auf die leere Menge
ausdehnen. Mehr steckt da nicht dahinter.
2
176
κ–1(0) = κ (Ω) ⊆ A, d.h. wenn κ( A ) > 0; und mit der Information A würde er B
genau dann glauben, wenn κ (A) ⊆ B, d.h. wenn κ(A ∩ B ) > κ(A). So weit bringen die OKFs gegenüber den EKFs nichts Neues.
Der entscheidende Fortschritt ist vielmehr, daß wir mit OKFs die Dynamik epistemischer Zustände befriedigend behandeln können. Der technische Grund
dafür ist simpel: Daß gemäß (5.1)–(5.3) epistemische Änderungen irreversibel
und immer abhängig von der Reihenfolge der Informationen waren, ließ sich auf
die in (5.1)–(5.3) vorgeschriebenen ∅-Bereinigungen zurückführen – die dort
freilich nötig waren, um im Bereich der wohlgeordneten Zerlegungen zu bleiben.
Wie Satz 5.14 zeigt, verallgemeinern OKFs wohlgeordnete Zerlegungen gerade in
dieser Hinsicht; für eine OKF κ darf κ -1(α) im allgemeinen leer sein. ∅Bereinigungen werden nun also nicht mehr nötig sein, und dies eröffnet uns die
Aussicht auf vernünftige dynamische Aussagen.
Definition 5.15: Sei κ eine A-OKF und A ∈ A mit A ≠ ∅. Dann sei für alle ω
∈ Ω κ(ω |A) = –κ(A) + κ({ω}∩ A)1 und für alle B ∈ A κ(B|A) = min{κ(ω|A) |ω ∈
A ∩ B} = –κ(A) + κ(A ∩ B).
Definition 5.16: Sei κ eine A-OKF, A ∈ A mit ∅ ≠ A ≠ Ω und α eine Ordinalzahl. Dann sei κA,α diejenige A-OKF, für die gilt:
⎧κ(ω | A) für ω ∈A
κA,α(ω ) = ⎨
. κ A,α heiße die Konditionalisierung von κ
α
+
κ(ω
|
A)
für
ω
∈A
⎩
durch A mit (der Sicherheit) α.
In der Konditionalisierung von κ durch A mit α werden also die Plausibilitätsgrade der Verläufe aus A gegenüber denen der Verläufe aus A so verschoben, daß
A gerade um α Grade plausibler ist als A ; es gilt ja immer κ A,α(A) = 0 und
κA,α( A ) = α. Innerhalb von A bzw. A bleibt dabei in κA,α gegenüber κ nicht nur
die Plausibilitätsordnung der Verläufe, sondern sogar ihre Plausibilitätsstufung
erhalten. Das soll folgendes heißen: Im Gegensatz zu wohlgeordneten Zerlegungen sagt eine OKF κ nicht nur, daß ein Verlauf ω plausibler ist als ein anderer
Verlauf ω', sondern auch, um wieviel ω plausibler ist als ω' – was sich in der Dif1
Die hier benutzte, eher unübliche Ordinalzahldifferenz sei dabei die linksseitige Differenz, die so
definiert ist: für zwei Ordinalzahlen α und β mit α ≤ β sei –α + β diejenige, eindeutig bestimmte
Ordinalzahl ξ, für die α + ξ = β. Vgl. Klaua (1969), S. 173. Natürlich gilt für ω ∈ A immer κ(A) ≤
κ({ω} ∩ A).
177
ferenz –κ(ω) + κ(ω') niederschlägt. Und eben diese Differenzen werden bei der
Konditionalisierung durch A nicht verändert, sofern ω und ω' beide aus A oder
beide aus A sind. Auf zwei Besonderheiten ist noch hinzuweisen: Es kann erstens
sehr wohl sein, daß κ(A) = 0 und κ( A ) = β, wobei β > α. In diesem Fall wird
durch die Änderung zu κA,α A unsicherer und A plausibler, auch wenn in κA,α A
nicht geglaubt wird. Es ist vielleicht etwas irreführend, in diesem Fall von einer
Konditionalisierung durch A mit der Sicherheit α zu reden. Aber es ist sicherlich
wünschenswert, diese bisher nicht bedachte Form der epistemischen Änderung
beschreiben zu können. Zweitens gibt es auch eine Konditionalisierung durch A
mit der Sicherheit 0, die am passendsten als Neutralisierung von A und A zu bezeichnen wäre; denn in κA,0 = κ A,0 wird sowohl A wie A für möglich gehalten
und weder A noch A geglaubt.
Nun lassen sich die Probleme lösen, an denen (5.1)–(5.3) scheiterten. Denn
Konditionalisierungen gemäß Definition 5.16 sind trivialerweise reversibel:
Korollar 5.17: Sei κ eine A-OKF, A ∈ A mit ∅ ≠ A ≠ Ω, κ(A) = 0 und κ( A ) =
β. Dann ist (κA,α)A,β = (κ A ,α)A,β = κ.
Der nächste Satz besagt, daß bei sich akkumulierenden Informationen die Reihenfolge der Konditionalisierungen unerheblich ist. Die im Satz genannten Bedingungen, unter denen die Reihenfolge vertauschbar ist, lassen sich dabei als
Präzisierung der bisher vage gebliebenen Wendung auffassen, daß Informationen
sich akkumulieren. (Daß zwei Ordinalzahlen α und β kommutieren, soll heißen,
daß α + β = β + α. Die nachstehenden Voraussetzungen über die Kommutierbarkeit von Ordinalzahlen sind aus rein technischen Gründen erforderlich und wären
z.B. dann überflüssig, wenn man sich von vorneherein auf NKFs beschränkte.)
Satz 5.18: Sei κ eine A-OKF und A, B ∈ A mit ∅ ≠ A, B ≠ Ω. Dann gilt
(κA,α)B,β = (κ B,β)A,α, wenn κ(A ∩ B) = 0, κ( A ∩ B), (A ∩ B ) ≤ κ( A ∩ B ) und
wenn
(a) κ (A) ≤ κ (B) , κ (A) ≤ α, β und –κ (A) + α sowohl mit –κ (A) + β wie mit
–κ (A) + κ (B) kommutiert, oder
(b) κ (B) ≤ κ (A) , κ (B) ≤ α, β und –κ (B) + α sowohl mit –κ (B) + α wie mit
–κ (B) + κ (A) kommutiert, oder
178
(c)
κ (A) + κ (B) ≤ κ( A ∩ B ) und κ (A) mit κ (B) , α mit β, κ (A) mit β und
κ (B) mit α kommutieren.
Beweis: Sei C1 = A ∩ B, C2 = A ∩ B , C3 = A ∩ B und C4 = A ∩ B . Sei für r
= 1, 2, 3, 4 κ(Cr) = ar, κA,α (Cr) = br, (κA,α) B,β (Cr) = cr, κB,β (Cr) = dr und (κB,β)
A,α(Cr)= er. Es genügt dann zu zeigen, daß für r = 1, 2, 3, 4 cr = er. Laut Voraussetzung gilt zunächst, daß a1 = 0 und a2, a3 ≤ a4. Damit ergibt sich gemäß Definition 5.16:
b1 = 0, b2 = a2, b3 = α, b4 = α + (–a3 + a4) und
d1 = 0, d2 = β, d3 = a3, d4 = β + (–a2 + a4).
In allen drei Fällen (a), (b) und (c) folgt daraus b2 ≤ b4 und d3 ≤ d4. Also ergibt
sich weiter:
c1 = 0, c2 = β, c3 = α, b4 = c4 = β + (–α2 + α + (–a3 + a4)) und
e1 = 0, e2 = β, e3 = α, e4 = α + (–a3 + β + (–a2 + a4)).
Es bleibt zu zeigen, daß c4 = e4. Betrachten wir den Fall (a). Hier gilt a3 ≤ a 2,
α, β. Sei x = –a3 + a2, y = –a 3 + α, z = –a 3 + β und w = –a2 + a 4. Die weiteren
Annahmen sind demnach, daß x + y = y + x und y + z = z + y. Es ist dann c4 = a3 +
z + (– (a3 + x) + a3 + y + x+ w) = a3 + z + (– (a3 + x) + a3 + x + y + w) = a3 + z + y
+ w und e4= a3 + y + (–a3 + a3 + z + w) = a3 + y + z + w = c4.
Der Fall (b) läuft analog zum Fall (a). Gelte zuletzt der Fall (c). Hier ist vorausgesetzt, daß a2 + a3 = a3 + a2, α + β = β + α, a2 + α = α + a2 und a3 + β = β +
a3. Sei w = –(a2 + a3) + a4 = –(a3 + a2) + a4. Dann ist c4 = β + (–a2 + α + (–a3 + a3
+ a2 + w)) = β + α + w und e4 = α + (–a3 + β + (–a2 + a2 + a3 + w)) = α + β + w =
c4. Q.e.d.
Die Voraussetzungen von Satz 5.18 sind also insbesondere dann erfüllt, wenn
κ bezüglich A und B neutral ist, d. h. wenn κ(A ∩ B) = κ(A ∩ B ) = κ( A ∩ B) = 0
und wenn α und β kommutieren – und das ist fraglos der wichtigste und häufigste
Fall.
Diese Definitionen und Sätze zeigen, daß sich mit OKFs in sinnvoller Weise
ein deterministisches Analogon zur einfachen probabilistischen Konditionalisie-
179
rung formulieren läßt. Diese Parallele können wir nun noch weiter ausdehnen,
nämlich auf die verallgemeinerte Konditionalisierung. Die an sich naheliegende
Frage, ob es wohl auch im deterministischen Fall so etwas wie eine verallgemeinerte Konditionalisierung gibt, habe ich bisher dauernd hintangestellt, weil gar
keine Chance auf eine vernünftige Antwort bestanden hat. Unsere OKFs verhelfen
uns jedoch zu einer einfachen und eleganten positiven Lösung:
Definition 5.19: Sei B eine vollständige Subalgebra von A, κ eine A-meßbare
und λ eine B-meßbare OKF. Die A-OKF κλ sei dann dadurch definiert, daß für
alle Atome B von B und alle ω ∈ B κλ(ω) = λ(B) + κ(ω | B). κλ heiße die Konditionalisierung von κ durch λ.
Damit läßt sich auch hier eine Regel der verallgemeinerten Konditionalisierung formulieren: Wenn die A-OKF κ X 's epistemischen Zustand bezüglich A
zum Zeitpunkt t repräsentiert und wenn die zwischen t und t' gemachten Erfahrungen ihn zu t' bezüglich B in den epistemischen Zustand λ versetzen, so ist die
Konditionalisierung κλ von κ durch λ X's epistemischer Zustand bezüglich A zu t'
– sofern sein epistemischer Zustand keinen anderen Einflüssen unterliegt.
Definition 5.16 entpuppt sich nun als ein Spezialfall von Definition 5.19:
Korollar 5.20: Sei κ eine A-OKF, A ∈ A mit ∅ ≠ A ≠ Ω und λ diejenige
{∅,A, A ,Ω}-meßbare OKF, für die
⎧0 für ω ∈A,
λ(ω) = ⎨
. Dann ist κλ = κA,α.
⎩α für ω ∈A
Natürlich ist auch die verallgemeinerte Konditionalisierung reversibel:
Korollar 5.21: Sei B eine vollständige Subalgebra von A, κ eine A-meßbare
und λ eine B-meßbare OKF. Sei κ' die B-meßbare Vergröberung von κ, d.h. für
alle Atome B von B und alle ω ∈ B sei κ'(ω) = κ(B). Dann gilt (κλ) κ' = κ.
Schließlich läßt sich eine mit Satz 5.18 noch offengebliebene Frage beantworten. Dieser zeigte, daß unter bestimmten Voraussetzungen die Konditionalisierungen bzgl. A und bzgl. B vertauschbar sind. Doch er sagte nicht, ob sich der Effekt
dieser zwei Konditionalisierungen auch mittels einer einzigen Konditionalisierung
180
herstellen läßt. Mit einer einzigen einfachen Konditionalisierung, etwa bzgl. A ∩
B, läßt er sich in der Tat im allgemeinen nicht erzielen. Aber mit einer verallgemeinerten Konditionalisierung bezüglich der von A und B erzeugten Algebra ist
das natürlich keine Schwierigkeit.
Damit ist unsere deterministische Parallele zum Abschnitt 5.1 komplett. Auch
scheint mir hinreichend demonstriert, daß sich die Dynamik epistemischer Zustände in befriedigender Weise behandeln läßt, wenn man sie durch OKFs repräsentiert. Die Wichtigkeit der Bemerkung in den letzten zwei Absätzen von Abschnitt 5.1 hat sich dabei untergründig dauernd bestätigt. Der Gedanke, daß auch
hier niemals direkt bezüglich äußeren Sachverhalten konditionalisiert wird, sondern daß immer epistemische Zustände bezüglich umfassenderen Sachverhaltsmengen durch beschränktere epistemische Zustände konditionalisiert werden, hat
sich in (5.3) mit der Einführung eines Sicherheitsparameters angedeutet und ist
mit den Definitionen 5.16 und 5.19 klar hervorgetreten. Ohne diesen Gedanken
ließen sich die Definitionen 5.16 und 5.19 nicht verstehen und vermutlich überhaupt keine sinnvollen Konditionalisierungsaussagen formulieren.
Doch ist damit die Parallele zwischen OKFs und Wahrscheinlichkeitsmaßen
mitnichten erschöpft. In der Tat scheint mir die Theorie der OKFs ein echtes qualitatives Gegenstück zur Wahrscheinlichkeitstheorie zu bilden.1 Dies zeigt sich
insbesondere an einem Punkt, der auch später für uns wichtig sein wird und drum
an dieser Stelle noch dargelegt sei. Ich meine die Tatsache, daß sich relativ zu
OKFs ein interessanter und nützlicher Unabhängigkeitsbegriff definieren läßt, der
ganz ähnliche Eigenschaften hat wie der Begriff der stochastischen oder probabilistischen Unabhängigkeit:
Definition 5.22: Sei κ eine A-OKF, und seien B und C vollständige Subalgebren von A. Dann heiße C von B unabhängig (bzgl. κ) genau dann, wenn für
alle Atome B von B und alle Atome C von C κ(B ∩ C) = κ(B) + κ(C) gilt. B
und C heißen unabhängig (bzgl. κ) genau dann, wenn C von B und B von C unabhängig ist. Für A, B ∈ A \ {∅, Ω} heiße A von B unabhängig (bzgl. κ) gdw.
1
Im Gegensatz zu dem, was sonst gemeinhin „qualitative Wahrscheinlichkeit“ genannt wird. Denn
da geht es immer um einen komparativen Wahrscheinlichkeitsbegriff, also um Aussagen der Form
„A ist mindestens so wahrscheinlich wie B“, und dann vor allem um die Frage, ob sich der komparative Wahrscheinlichkeitsbegriff metrisieren läßt. Vgl. Krantz et al. (1971), ch. 5, und Stegmüller
(1973), Anhang III.
181
{∅, A, A , Ω} von {∅, B, B , Ω} unabhängig ist; und A und B heißen unabhängig
(bzgl. κ) gdw. A von B und B von A unabhängig ist.
Man beachte, daß die so definierte Unabhängigkeit im allgemeinen nicht symmetrisch ist. Dies liegt einfach daran, daß die Addition von Ordinalzahlen in der
Regel nicht kommutativ ist. Relativ zu NKFs ist die Unabhängigkeit also immer
symmetrisch.
Korollar 5.23: Wenn C von B bzgl. κ unabhängig ist, so gilt für alle B ∈ B
und C ∈ C: κ(B ∩ C) = κ(B) + κ(C).
Beweis: Sei B0 ∈ B und C0 ∈ C. Sei die Menge B 0 von Atomen von B und die
Menge C 0 von Atomen von C so gewählt, daß B0 = B 0 und C0 = C 0. Dann
gilt einerseits κ(B0) = min{κ(B) | B ∈ B 0} und κ(C0) = min{κ(C) | C ∈ C0}. Andererseits gilt:
κ(B0 ∩ C0) = min{κ(B ∩ C) | B ∈ B 0, C ∈ C 0}
= min{κ(B) + κ(C) | B ∈ B 0, C ∈ C 0}
= min{κ(B) | B ∈ B 0} + min{κ(C) | C ∈ C0,}. Q.e.d.
Die Umkehrung dieses Korollars gilt trivialerweise. Mit Hilfe von Definition 5.15
folgt dann sehr leicht:
Korollar 5.24: C ist von B genau dann bzgl. κ unabhängig, wenn für alle B ∈
B \ {∅} und C ∈ C gilt: κ(C | B) = κ(C).
Daraus ergibt sich wiederum unmittelbar:
Korollar 5.25: C ist von B genau dann bzgl. κ unabhängig, wenn für alle BOKF γ und alle C ∈ C gilt: κγ (C) = κ(C).
Die Korollare 5.24 und 5.25 zeigen am besten, daß mit Definition 5.22 genau
das intuitiv Erwünschte erfaßt ist. Denn ihnen zufolge ist C gerade dann von C
unabhängig, wenn sich die epistemische Einstellung bzgl. B in beliebiger Weise
ändern kann, ohne die epistemische Einstellung bzgl. C irgendwie zu berühren.
182
Es ist darauf hinzuweisen, daß die OKFs auch in diesem Punkt den EKFs überlegen sind. Denn relativ zu EKFs wäre die Unabhängigkeit von Sachverhalten
am besten so zu definieren: A ist von B relativ zur EKF g unabhängig genau dann,
wenn gilt: g(B) ⊆ A gdw. g( B ) ⊆ A und g(B) ⊆ A gdw. g( B ) ⊆ A . Doch ergibt
sich daraus zum Beispiel, daß jedes A, das im Zustand g geglaubt wird, für das
also g(Ω) ⊆ A, von jedem B, bezüglich dessen g unentschieden ist, für das also
g(Ω) ∩ B ≠ ∅ ≠ g(Ω) ∩ B , unabhängig ist. Und das ist sicherlich viel zu viel an
Unabhängigkeit. Die OKFs liefern uns demgegenüber einen schärferen und darum
angemesseneren Unabhängigkeitsbegriff.
Daß die Unabhängigkeit bezüglich einer OKF ähnliche Eigenschaften hat wie
die Unabhängigkeit gemäß einem Wahrscheinlichkeitsmaß, zeigen die folgenden
Definitionen und Sätze. Zunächst können wir den Unabhängigkeitsbegriff auf
Familien von Subalgebren ausdehnen:
Definition 5.26: Sei (B α)α<β eine Familie von vollständigen Subalgebren von
A und κ eine A-OKF. Dann heiße (B α)α<β unabhängig (bzgl. κ ) genau dann,
wenn für alle Atome Bα von Bα (α<β) κ( Bα ) = ∑ κ(Bα ).
α<β
α<β
Dies hängt mit Definition 5.22 so zusammen:
Satz 5.27: (Bα)α<β ist genau dann bzgl. κ unabhängig, wenn für alle γ < β gilt:
die von
Bα erzeugte vollständige Algebra ist von der von Bα erzeugten
γ ≤α<β
α<γ
vollständigen Algebra unabhängig bzgl. κ.
Beweis: Sei Cγ die von Bα und D γ die von
α<γ
Bα erzeugte vollständige
γ ≤α<β
Algebra. Gelte nun zuerst für alle Atome Bα von Bα (α<β) κ( Bα ) = ∑ κ(Bα ).
α<β
α<β
Daraus folgt für alle Atome Bα von Bα (α<γ), daß κ( Bα ) = ∑ κ(Bα ), und für
α<γ
α<γ
alle Atome B α von B α (γ ≤α<β), daß κ( Bα ) = ∑ κ(Bα ). Also gilt
γ ≤α<β
γ ≤α<β
κ( Bα ) = κ( Bα ) + κ( Bα ). Und das heißt, daß Dγ von C γ unabhängig
α<β
α<γ
γ ≤α<β
183
ist, da alle Atome von Cγ die Form Bα und alle Atome von D γ die Form
α<β
Bα haben.
γ ≤α<β
Sei umgekehrt für alle γ < β D γ von Cγ unabhängig. Für γ = 1 heißt das, daß
für alle Atome B α von Bα (α < β) κ( Bα ) = κ(B0) + κ( Bα ). Daraus folgt
α<β
1≤α<β
insbesondere, daß für alle Atome B α von Bα (α = 0, 1) κ(B 0 ∩ B 1) = κ(B0) +
κ(B1). Für γ = 2 ergibt sich demnach, daß für alle Atome B α von B α (α <β)
κ( Bα ) = κ(B0 ∩ B 1) + κ( Bα ) = κ(B0) + κ(B 1) + κ( Bα ) . Dieses
α<β
2≤α<β
2≤α<β
Argument mit transfiniter Induktion bis β fortgeführt, liefert dann gerade das Gewünschte. Q.e.d.
Nicht schwieriger ist es, auf ähnliche Weise Folgendes zu beweisen:
Satz 5.28: Sei (Bα)α<β unabhängig bzgl. κ. Sei (Γγ)γ<δ eine Zerlegung von {α |
α < β} derart, daß für alle γ, γ' < δ gilt: wenn γ < γ', α < α' für alle α ∈ Γγ, α' ∈
Γγ'. Sei schließlich C γ die von Bα erzeugte vollständige Algebra. Dann ist
α∈Γ γ
auch (Cγ)γ<δ unabhängig bzgl. κ.
Das Analogon zu diesem Satz bildet in der Wahrscheinlichkeitstheorie der sogenannte Satz über das Zusammensetzen unabhängiger σ-Algebren, der dort eine
nützliche Rolle spielt.1
Ein weiterer, sehr wichtiger Begriff ist der der bedingten Unabhängigkeit:
Definition 5.29: Seien B und C vollständige Subalgebren von A, κ eine AOKF und A ∈ A \ {∅}. Dann heißt C von B bedingt durch A unabhängig (bzgl.
κ) genau dann, wenn für alle Atome B von B; und alle Atome C von C κ(B ∩ C |
A) = κ(B | A) + κ(C | A). Ist D eine vollständige Subalgebra von A, so heißt C von
B bedingt durch D unabhängig (bzgl. κ) genau dann, wenn C von B bedingt
durch alle Atome D von D unabhängig ist. Sonstige Wendungen seien wie in Definition 5.22 erklärt.
1
Vgl. Bauer (1968), § 30.
184
Die Korollare 5.23–5.25 lassen sich entsprechend auf die bedingte Unabhängigkeit übertragen; das sich daraus ergebende intuitive Verständnis liegt auf der
Hand. Die bedingte Unabhängigkeit impliziert keineswegs die nicht-bedingte Unabhängigkeit, wie folgendes Zahlenbeispiel belegen mag: Wählen wir etwa
κ(A ∩ B ∩ C) = 0, κ( A ∩ B ∩ C) = 0,
κ(A ∩ B ∩ C ) = 1, κ( A ∩ B ∩ C ) = 3,
κ(A ∩ B ∩ C) = 6, κ( A ∩ B ∩ C) = 2,
κ(A ∩ B ∩ C ) = 7, κ( A ∩ B ∩ C ) = 5,
so sind B und C bedingt durch {∅, A, A , Ω} unabhängig, aber nicht-bedingt abhängig, da κ (B) = 2, κ (C) = 1 und κ (B ∩ C) = 5.
Für die bedingte Unabhängigkeit gelten die nachstehenden Sätze, in denen für
eine Menge B ⊆ A B e die von B erzeugte vollständige Subalgebra von A sein
möge:
Satz 5.30: Seien B, C, D und E vier vollständige Subalgebren von A. Sei C von
B bedingt durch (D ∪ E)e und D von B bedingt durch E unabhängig. Dann ist
auch (C ∪ D)e von B bedingt durch E unabhängig.
Beweis: Seien B, C, D und E jeweils Variable für die Atome von B, C, D beziehungsweise E. Die erste Annahme sagt dann, daß für alle B, C, D und E gilt:
κ(B ∩ C | D ∩ E) = κ(B | D ∩ E) + κ(C | D ∩ E), d.h. mit Definition 5.15
–κ(D | E) + κ(B ∩ C ∩ D | E) = –κ(D | E) + κ(B ∩ D | E) +
(–κ(D | E) + κ(C ∩ D | E)), also
κ(B ∩ C ∩ D | E) = κ(B ∩ D | E) + (–κ(D | E) + κ(C ∩ D | E)).
Die zweite Annahme liefert für alle B, C, D und E
κ(B ∩ D | E) = κ(B | E) + κ(D | E).
Setzen wir die letzte in die vorletzte Gleichung ein, so ergibt sich für alle B, C,
D und E gerade
185
κ(B ∩ C ∩ D | E) = κ(B | E) + κ(C ∩ D | E), was zu beweisen war.
In ganz der gleichen Weise ergibt sich der zu Satz 5.7 symmetrische
Satz 5.31: Sei B von C bedingt durch (D ∪ E)e und von D bedingt durch E unabhängig. Dann ist B auch von (C ∪ D)e bedingt durch E unabhängig.
Schließlich gilt noch der
Satz 5.32: Sei B von (C ∪ D)e bedingt durch E und von (C ∪ E)e bedingt durch
D unabhängig. Dann ist B auch von (C ∪ D ∪ E)e bedingt durch D ∩ E unabhängig.
Beweis: Seien B, C, D und E wie im Beweis zu Satz 5.30, und sei F eine Variable für die Atome von D ∩ E, welches mit D und E ja auch eine vollständige Algebra ist. Die erste Annahme besagt dann, daß für alle B, C, D, E und F mit D, E
⊆F
κ(C ∩ D ∩ B | E ∩ F) = κ(C ∩ D | E ∩ F) + κ(B | E ∩ F) , d.h. mit Definition 5.15
–κ(E | F) + κ(C ∩ D ∩ E ∩ B | F) = –κ(E | F) + κ(C ∩ D ∩ E | F) + (–κ(E |
F) + κ(E ∩ B | F)), d.h.
(1)
κ(C ∩ D ∩ E ∩ B | F) = κ(C ∩ D ∩ E | F) + (–κ(E | F) + κ(E ∩ B | F)).
Ebenso bedeutet die zweite Annahme, daß für alle B, C, D, E und F mit D, E ⊆ F
κ(C ∩ E ∩ B | D ∩ F) = κ(C ∩ E | D ∩ F) + κ(B | D ∩ F) , d.h. wie eben
(2)
κ(C ∩ D ∩ E ∩ B | F) = κ(C ∩ D ∩ E | F) + (–κ(D | F) + κ(D ∩ B | F)).
Aus (1) und (2) folgt, daß für alle D, E ⊆ F
–κ(E | F) + κ(E ∩ B | F) = –κ(D | F) + κ(D ∩ B | F).
186
Daraus ergibt sich weiter, daß für alle Atome E, E' von E mit E, E' ⊆ F
(3)
–κ(E | F) + κ(E ∩ B | F) = –κ(E' | F) + κ(E' ∩ B | F) .
Nun muß es ein Atom E0 von E mit E0 ⊆ F geben derart, dass κ(E0 | F) = 0, da
0 = κ(F | F) = min κ(E | F). Also gilt mit (3) auch κ( E0 ∩ B | F) = min κ(E ∩ B |
E⊆ F
E⊆ F
F) = κ(B | F). Daraus folgt wiederum mit (3), daß für alle E ⊆ F
–κ(E | F) + κ(E ∩ B | F) = κ(B | F).
Dieses Ergebnis, in (1) eingesetzt, liefert:
κ(C ∩ D ∩ E ∩ B | F) = κ(C ∩ D ∩ E | F) + κ(B | F)
für alle B, C, D, E und F mit D, E ⊆ F. Genau das war zu zeigen.
Die zu Satz 5.32 symmetrische Formulierung gilt nicht unbedingt, aber natürlich gilt sie für solche OKFs, relativ zu denen Unabhängigkeit eine symmetrische
Relation ist.
Auch hier besteht noch die Analogie zur Wahrscheinlichkeitstheorie. Denn
auch in der Wahrscheinlichkeitstheorie läßt sich ein durch σ-Algebren bedingter
Unabhängigkeitsbegriff einführen, und es gelten dann die zu den Sätzen
5.30–5.32 analogen Sätze.1
Damit will ich meine Demonstration beenden, daß sich OKFs berechtigterweise als qualitatives Gegenstück zu Wahrscheinlichkeitsmaßen verstehen lassen. Die
ausführlich dargelegte Parallele läßt vermuten, daß es streng beweisbare, formale
Strukturgleichheiten zwischen OKFs und W-Maßen gibt. Es ist mir freilich nicht
klar, wie derartiges nachzuweisen wäre, und daher will ich es mit der eher informellen, aber gleichwohl engen Parallele bewenden lassen.
Kehren wir zu guter Letzt wieder an den Ausgangspunkt unserer Forschungsreise zurück. Es geht uns ja nach wie vor um deterministische Prozeßgesetze. Zu
welcher Schlußfolgerung wir diesbezüglich kommen, liegt mittlerweile auf der
Hand: Die Abschnitte 2.1 und 2.2 hatten demonstriert, daß eine regularitätstheoretische Kausalanalyse unzulänglich bleiben muß. Die eine Folgerung daraus war,
daß deterministische Prozeßgesetze, wie sie in den Wissenschaften üblicherweise
konzipiert werden, für unsere Zwecke untauglich sind. Die andere Folgerung war,
1
Vgl. etwa Dawid (1980) und Spohn (1980).
187
daß wir uns ernsthaft auf Kontrafaktisches und Kontranomologisches einlassen
müssen. Dies brachte uns zunächst dazu, die EKFs einzuführen. Allerdings hatte
uns schon der Abschnitt 2.3 zwei Ansätze zur Explikation von Kontrafaktischem
wenig erfolgversprechend erscheinen lassen. Darum wandten wir uns einem dritten Ansatz zu – nämlich der epistemischen Interpretation, durch die die EKFs, wie
ich meine, problemlos verständlich werden. Ein konsequentes Durchdenken dieser
epistemischen Interpretation führte uns dann in einem letzten Schritt von den
EKFs zu den OKFs. Und drum wollen wir nun definieren:
Definition 5.33: Sei 〈I, Ω, A〉 ein D-Prozeßraum. Dann heißt κ ein deterministisches Prozeßgesetz für 〈I, Ω, A〉 genau dann, wenn κ eine A-meßbare OKF ist. 〈I,
Ω, A, κ〉 nennen wir dann einen deterministischen Prozeß. Statt von deterministischen Prozessen und Prozeßgesetzen reden wir auch von D-Prozessen und DProzeßgesetzen. Schließlich nennen wir κ auch das Gesetz des D-Prozesses 〈I, Ω,
A, κ〉.
Versuchen wir noch – wie wir es auf den S. 145f. für P-Prozesse getan haben -,
kurz unsere Chancen abzuschätzen, mit einer auf D-Prozessen basierenden Kausalanalyse erfolgreich zu sein:
Da ist zunächst noch einmal festzuhalten, daß uns eine realistische, objektivistische Interpretation von D-Prozeßgesetzen, d.h. von OKFs, immer noch fehlt.
Diese muß unbedingt noch geliefert werden, denn ohne sie können die OKFs
nicht die Kausalanalyse erbringen, die wir uns wünschen. Wie versprochen, werden wir im Abschnitt 6.5 zu dieser wichtigen Frage zurückkehren.
Mit der erarbeiteten epistemischen, auf ein Subjekt X bezogenen Interpretation
von OKFs können wir allerdings auch schon kausale Begriffe explizieren – zwar
nicht die tatsächlichen Kausalverhältnisse, aber die nach Meinung von X vorliegenden Kausalverhältnisse. Und für diese Explikation haben wir, soweit man das
jetzt sagen kann, in den OKFs eine geeignete Grundlage – geeignet insofern, als
gilt: Erstens sind, wie erwünscht, die kontrafaktischen und kontranomologischen
Überzeugungen des jeweiligen Subjektes X in den OKFs repräsentiert. Zweitens
haben wir ein klares, subjektbezogenes Verständnis von den OKFs und damit eine
klare Basis für eine Kausalanalyse. Und drittens ist dieses Verständnis ein auch
intuitiv zirkelfreies, weil in dieses Verständnis kein Verständnis der zu explizierenden kausalen Begriffe eingeht.
188
Diese letzte Aussage ist entscheidend. Doch eine Rückerinnerung an unsere
Erläuterung der EKFs und der OKFs läßt vielleicht einen Zweifel an dieser Behauptung aufkeimen. Ist diese Erläuterung wirklich ohne kausale Begriffe ausgekommen? Hier ist nur mit einem freimütigen „Nein“ zu antworten. In diese Erläuterung gingen im Gegenteil kausale Begriffe ganz zentral ein! Denn in dem
von uns dauernd untersuchten Problem der Dynamik oder der Änderung epistemischer Zustände ging es ja immer um Kausalbeziehungen; es ging immer um die
Frage, wie sich ein durch Erfahrungen irgendwie erzeugter, neuer epistemischer
Zustand bezüglich einer kleinen Sachverhaltsmenge auf den epistemischen Zustand bezüglich der Menge aller betrachteten Sachverhalte auswirkt; und unsere
Antwort darauf bestand in den Regeln der einfachen und der verallgemeinerten
Konditionalisierung, die mithin Kausalaussagen über unser epistemisch idealisiertes Subjekt X darstellen.1 In meinen Formulierungen dieser Regeln hatte ich
diese Tatsache auch gar nicht verheimlicht. Nichtsdestotrotz wird unser Verständnis der OKFs damit in keiner Weise zirkulär – einfach aufgrund dessen, daß wir
mit den epistemisch interpretierten OKFs die Kausalvorstellungen unseres Subjektes X und nicht unsere eigenen explizieren,
Dieser Punkt bedarf der Ausführung: Was wir relativ zu einer epistemisch interpretierten, unserem Subjekt X zugeschriebenen OKF explizieren, sind ja, wie
gesagt, die Kausalvorstellungen von X. Um zu verstehen, was es heißt, daß X
durch diese OKF charakterisiert ist, bedurfte es an keiner Stelle des Rückgriffs auf
diese Kausalvorstellungen von X. In der Zuschreibung dieser OKF zu X sind zwar
eine Menge von Kausalhypothesen über den epistemischen Apparat von X enthalten, nämlich lauter Hypothesen der Form „wenn X die und die Erfahrung
machte, glaubte er das und das“. Doch sind diese Kausalhypothesen unsere und
nicht die von X, und darum liegt in diesem Verfahren kein Zirkel. In der Tat ist
nichts Anstößiges daran, auf der Grundlage spezieller Kausalhypothesen von uns
zu sagen und herauszufinden, was die Kausalvorstellungen von X sind.
Wie ich hier den Kopf aus der Schlinge ziehe, mag manchem als ein fauler
Trick erscheinen. Das ist es nicht. An dieser Stelle ist es vielleicht hilfreich, eine
Parallele zu einem anderen zentralen philosophischen Problem zu ziehen, bei dem
die gleiche Strategie sinnvoll und zulässig ist. Ich meine die Frage nach einer Bedeutungstheorie, d.h. das Problem, (in allgemeiner und systematischer Weise) zu
1
Dies gilt für die probabilistischen Konditionalisierungsregeln ebenso wie für die deterministischen.
189
sagen, was die Ausdrücke unserer Sprache bedeuten. Schon ein erstes Nachdenken über diese Frage stürzt einen in tiefe Verwirrung. Denn einerseits scheint man
lauter banale, aber richtige Antworten auf diese Frage zu haben: „Schnee ist
weiß“ bedeutet, daß Schnee weiß ist; und „jetzt ist alles verloren außer der Ehre
und einem Salzhering“ bedeutet eben, daß jetzt alles verloren ist außer der Ehre
und einem Salzhering. Andererseits fällt es schwer, mit solchen Banalitäten das
Geschäft der Bedeutungstheorie als erledigt zu betrachten. Das Verwirrende daran
ist, daß gar nicht so recht zu sehen ist, was man anderes tun könnte, als solche
Banalitäten hinzuschreiben und vielleicht noch zu systematisieren.1 Doch sind wir
hier gewissermaßen einfach zu nahe an unserem Untersuchungsgegenstand, um
ihn scharf erkennen zu können; wir müssen ihn von uns wegschieben. Also
könnten wir statt des Deutschen das Englische oder das Katalanische als Untersuchungsgegenstand nehmen. Aber auch das hilft nicht viel. Daß „snow is white“
bedeutet, daß Schnee weiß ist, und daß „ara tot és perdut salvat l’honor y una arengada salada“ bedeutet, daß jetzt alles verloren ist außer der Ehre und einem
Salzhering, ist zwar deutlich informativer als die obigen Banalitäten, aber im Hinblick auf die Desiderata einer Bedeutungstheorie macht es uns kaum schlauer.
An diesem Punkt hat Quine eine äußerst hilfreiche theoretische Fiktion eingeführt2 – nämlich die Fiktion der Erstübersetzung, d.h. der Übersetzung einer bisher
völlig unbekannten Sprache, etwa der grälischen, der jede Ähnlichkeit mit schon
bekannten Sprachen fehlt. Denn erst durch diese Fiktion erkennt man so richtig,
was von einer allgemeinen Bedeutungstheorie zu erwarten ist: Sie muß uns sagen,
welche empirischen Gegebenheiten etwa in der grälischen Sprachgemeinschaft
vorliegen müssen, damit gerechtfertigt ist, einen grälischen Ausdruck so und so zu
übersetzen, d.h. zu sagen, dieser Ausdruck bedeute das und das; und sie muß uns
(im Prinzip wenigstens) sagen, woran wir erkennen können, ob diese empirischen
Gegebenheiten vorliegen. Am Ende der Übersetzungsprozedur stehen wieder
Aussagen der obigen Form, also z.B.: „Doghl aghollan tam“ bedeutet, daß alles
verloren ist außer der Ehre und einem Salzhering.3 Doch ist das nun eine Bedeutungshypothese, die viel Schweiß gekostet hat; und man kennt (zumindest in der
1
Bezüglich der Frage, was denn Tarskis Wahrheitstheorie eigentlich leiste, herrscht die gleiche
Verwirrung. Auch wenn sie, wie ich meine, nur die entsprechenden wahrheitstheoretischen Banalitäten systematisiert, so erkennt man an diesem Fall doch, daß diese Systematisierung überhaupt
nicht trivial ist und einen wesentlichen Erkenntnisfortschritt bringen kann.
2
In Quine (1960), ch. II.
3
S. Franzén (1961), S. 188f.
190
theoretischen Fiktion) genau den Weg, der einen von beobachtbaren Tatsachen
über viele Zwischenschritte und Zusatzannahmen zu dieser Bedeutungshypothese
geführt hat. Niemand wird dann bezweifeln, daß solche Bedeutungshypothesen
eine echte Erkenntnisleistung darstellen, und niemand wird zu mäkeln anfangen,
daß diese Bedeutungstheorie etwa des Grälischen zirkulär sei, weil man bei ihrer
Formulierung das Verständnis dessen voraussetze, was die deutschen Ausdrücke
bedeuten.
Nachdem man sich so an der Fiktion der Erstübersetzung klargemacht hat, was
eine Bedeutungstheorie leisten und welcher Art ihre Aussagen sein sollen, kann
man es wagen, den Untersuchungsgegenstand wieder näher an sich heranzuholen;
denn man weiß nun der Gefahr zu begegnen, wieder in die obige Verwirrung zu
fallen.
Genau diese Strategie wende ich hier auch bei der Explikation kausaler Begrifflichkeit an. Im Rahmen der epistemischen Interpretation können wir wie bei
der Erstübersetzung den Untersuchungsgegenstand von uns wegschieben; wir
können ihn mit einem anonymen Subjekt X und seinen Kausalvorstellungen identifizieren. Auf diese Weise können wir die Bestandteile einer Kausalanalyse, die
sich zu einem schwer durchschaubaren Knäuel verwirren, auseinanderziehen und
erkennen, daß die vermuteten Zirkularitäten bloß scheinbare sind. Daher ist es
klarer und leichter, die Kausalanalyse zunächst in diesem Rahmen durchzuführen.
Wenn wir später dann nach der realistischen Interpretation von D- und PProzeßgesetzen fragen, müssen wir den Untersuchungsgegenstand ganz nah an
uns heranziehen, d. h. uns selbst zum Untersuchungsgegenstand machen, und es
wird dann großer Sorgfalt bedürfen, damit sich das, was wir nun auseinandergezogen haben, nicht wieder verwirrt.
5.4
Popper-Maße und ihre Repräsentation
Die vorstehende, lange Diskussion deterministischer Prozeßgesetze legt eine
Frage bezüglich probabilistischer Prozeßgesetze nahe, der hier der Vollständigkeit
halber nachgegangen sei. Da ich vom Inhalt dieses Abschnitts später keinen
Gebrauch machen werde, kann man ihn als bloß technischen Nachschlag betrachten und getrost übergehen.
191
Die Frage, um die es hier gehen soll, ist folgende: In unserer Diskussion der DProzessgesetze hatten alle Komplikationen mit der auf S. 159 gestellten Frage
angehoben, wie sich X’s epistemischer Zustand in dem Fall ändere, daß er eine
Information erhält, die seinen Erwartungen zuwiderläuft. Bis dahin war dieser Fall
nicht behandelt, doch konnten wir diese Lücke dann schließen. Nun hatten wir
damals festgestellt, daß im probabilistischen Fall die entsprechende, wenngleich
weniger schmerzhafte Lücke bestehe – weil sich nämlich im probabilistischen Fall
bezüglich Sachverhalten der Wahrscheinlichkeit 0 nicht konditionalisieren ließ.
So drängt sich die Frage auf, ob sich auch im probabilistischen Fall diese Lücke
schließen läßt, und ihr sei nun nachgegangen.
Drei Methoden gibt es – soweit ich weiß –, um diesem Problem zu Leibe zu
rücken. Die erste hat Carnap (1971, 1980), Abschnitte 7 und 21, gewählt. Sie besteht darin, von einem W-Maß P zu verlangen, daß es, wie er es nennt, regulär
ist1; dies hat, grob gesagt, den Effekt, die Menge der Sachverhalte A, für die P(A)
= 0, möglichst klein zu halten. Doch es ist klar, daß dies nur eine Methode ist,
unser Problem möglichst klein zu halten, und keine Methode, es zu lösen. Zudem
läßt sich in vielen Anwendungen Carnaps Forderung der Regularität nicht realisieren.2 Drum wollen wir diesen Weg nicht weiter verfolgen.
Eine zweite Methode besteht darin, die Wahrscheinlichkeitstheorie in den
Rahmen der Nonstandard-Analysis zu verlegen. Es läßt sich dann bewerkstelligen, daß nur der logisch unmögliche Sachverhalt ∅ Wahrscheinlichkeit 0 erhält;
denn man kann nun anderen Sachverhalten, die im Rahmen der Standard-Analysis
Wahrscheinlichkeit 0 hätten, eine infinitesimale Wahrscheinlichkeit geben und
somit auch bezüglich solcher Sachverhalte konditionalisieren.3 Doch vermag ich
die Chancen dieser Methode nicht einzuschätzen, und daher will ich sie gleichfalls
beiseite lassen.
Wir werden also in der dritten Methode unser Heil suchen, die voneinander unabhängig und mit ziemlich verschiedenen Absichten von Popper und Rényi entwickelt wurde. Ihre Grundidee besteht darin, den Begriff der bedingten Wahrscheinlichkeit zum Grundbegriff zu machen. Damit liegt von vorneherein keine
1
Das hat nichts damit zu tun, was Mathematiker unter der Regularität eines Maßes verstehen.
So werden etwa in vielen stochastischen Prozessen, die die Physiker diskutieren, die zugehörigen
W-Maße nicht in Carnaps Sinne regulär sein, weil die Menge der nicht-stetigen Pfade des jeweiligen Prozesses Wahrscheinlichkeit 0 hat. Darin liegt freilich keine Kritik an Carnap, da es ihm
nicht um solche komplizierten Anwendungen ging.
3
Vgl. etwa Loeb (1979).
2
192
Schwierigkeit darin, bedingte Wahrscheinlichkeiten bezüglich eines Sachverhalts
zu haben, der bezüglich einer anderen Bedingung Wahrscheinlichkeit 0 hat. Und
absolute, nicht-bedingte Wahrscheinlichkeiten erhält man daraus dann, wenn sich
der logisch wahre Sachverhalt unter den betrachteten Bedingungen befindet. Formal läßt sich der Begriff der bedingten Wahrscheinlichkeit in der nachstehenden
Weise einführen. Ω sei darin und im weiteren eine beliebige, nicht-leere Grundmenge undAeine beliebige Mengen-σ-Algebra über Ω.
Definition 5.34: 〈Ω, A, B, P〉 heißt ein bedingter Wahrscheinlichkeitsraum (WRaum) genau dann, wenn B eine nicht-leere Teilmenge von A \ {∅} und P eine
Funktion von A × B in das geschlossene Intervall [0, 1] ist derart, daß gilt:
(a) für jedes B ∈ B ist die Funktion P(. | B) ein W-Maß auf A mit P(B | B) = 1,
(b) für alle A, B, C, A mit C, B ∩ C ∈ B gilt
P(A ∩ B | C) = P(A | B ∩ C) ⋅ P(B | C).
〈Ω, A, B, P〉 heiße ein additiver bedingter W-Raum genau dann, wenn zusätzlich
gilt:
(c) wenn A ∈ B und B ∈ B, so auch A ∪ B ∈ B.
Ferner heiße 〈Ω, A, B, P〉 ein Popper-Raum genau dann, wenn neben (a) und (b)
gilt:
(d) wenn P(A | B) > 0 für ein B ∈ B, so auch A ∈ B.
Schließlich nennen wir 〈Ω, A, B, P〉 einen vollen bedingten W-Raum genau dann,
wenn neben (a) und (b) gilt:
(e) B = A\ {∅}.
Offensichtlich gilt das
Korollar 5.35: Jeder volle bedingte W-Raum ist ein Popper-Raum, und jeder
Popper-Raum ist ein additiver bedingter W-Raum.
Die Definition des bedingten W-Raumes geht auf Rényi (1955) zurück. Sie bedarf wohl keiner weiteren Erläuterung. Sinn der Klausel (b) ist es natürlich, die
Verträglichkeit der Wahrscheinlichkeiten unter den verschiedenen Bedingungen
zu sichern; ihre Rolle entspricht so der der Klausel (c) von Definition 5.6 (S. 160).
Der Begriff des additiven bedingten W-Raumes stammt ebenfalls von Rényi; er
wird im weiter unten stehenden Satz 5.39 wichtig werden. Der Begriff des Pop-
193
per-Raumes rührt natürlich von Popper her; seine Axiomatik in (1969), Neuer
Anhang, Teile *II–*V, wurde von Stalnaker (1970) und Harper (1976) und noch
weiter von van Fraassen (1976) vereinfacht. Ich habe hier die Definition von van
Fraassen (1976), S. 420, wiedergegeben – mit dem einzigen Unterschied, daß van
Frassen sich wie Popper selbst auf den hier nicht betrachteten, allgemeineren Fall
konzentriert, dass A eine Algebra und P(. | B) für jedes B ∈ B ein endlich additives W-Maß auf A ist.1 Schließlich ist klar, daß uns von unserer Interessenlage her
volle bedingte W-Räume wichtig sind; denn erst in ihnen ist wie bei den EKFs das
Konditionalisieren uneingeschränkt möglich.
Da der Begriff des bedingten W-Raumes von der üblichen Wahrscheinlichkeitstheorie her ungewohnt war, war man vor allem an dem Zusammenhang zwischen bedingten W-Räumen und üblichen Maßen bzw. Maßräumen interessiert;
ihn zu klären, ist auch für unsere Fragestellung wichtig. Dazu benötigen wir weitere Begriffe:
Definition 5.36: Seien 〈Ω, A, B, P 〉 und 〈Ω , A , B ', P'〉 zwei bedingte WRäume. Dann heißt der erste eine Einschränkung des zweiten bzw. der zweite eine
Erweiterung des ersten genau dann, wenn gilt:
(a) B ⊆ B',
(b) für alle A ∈ A und B ∈ B gilt P(A | B) = P'(A | B).
Definition 5.37: Daß eine Familie (µx)x∈Z von beliebigen Maßen auf A 2 einen
bedingten W-Raum 〈Ω, A, B, P〉 erzeugt, heiße, daß folgendes gilt:
(a) für jedes B ∈ B gibt es ein x ∈ Z, so daß 0 < µx(B) < ∞,
(b) für alle A ∈ A, B ∈ B und x ∈ Z mit 0 < µx(B) < ∞ ist
µ (A ∩ B)
P(A | B) = x
.
µ x (B)
Wenn eine Familie von Maßen auf A einen bedingten W-Raum erzeugt, so erzeugt sie also nicht nur diesen W-Raum, sondern auch jede Einschränkung davon.
1
Schwächt man meinen obigen Begriff des Popper-Raumes in dieser Weise ab, so entsteht das,
was van Fraassen „Popper space“ nennt; hingegen bezeichnet van Fraassen unseren Popper-Raum
als „Popper σ-space“. Dieser Unterschied ist zu beachten, wenn man diesen Abschnitt mit der
Arbeit van Fraassens vergleicht, von der dieser Abschnitt entscheidend inspiriert worden ist.
2
D.H.: jedes µ x ist eine nicht-negative, σ-additive Mengenfunktion auf A, die insbesondere auch
∞ als Wert annehmen kann.
194
Dieser Erzeugungsbegriff ist freilich noch uninformativ, da sich jeder bedingte
W-Raum 〈Ω, A, B, P〉 so erzeugen läßt. Man definiere einfach für jedes B ∈ B;
⎧ P(A | B) für A ∈A mit A ⊆ B;
das Maß µB durch µB(A) = ⎨
die Familie erzeugt
⎩ ∞ für A ∈A mit A \ B ≠ ∅;
(µ B )B∈B dann 〈Ω, A, B, P〉.1 Damit die Zurückführung bedingter W-Räume auf
sie erzeugende Familien von Maßen interessant wird, sind an letztere noch einschränkende Bedingungen zu stellen: (µ B )B∈B
Definition 5.38: Die Familie (µ x)x∈Z von Maßen auf A heißt dimensional geordnet genau dann, wenn es eine totale Ordnung < auf Z gibt, so daß für alle A ∈
A und x, y ∈ Z gilt: wenn µy(A) < ∞ und x < y, so µx (A) = 0.
In einer dimensional geordneten Familie (µx)x∈Z gibt es also für jedes A ∈ A
höchstens ein x ∈ Z mit 0 < µx(A) < ∞ und, sofern sie den bedingten W-Raum 〈Ω,
A, B, P〉 erzeugt, für jedes A ∈ B genau ein x ∈ Z mit 0 < µx(A) < ∞, wobei dann
für jedes y < x µy(A) = 0 und für jedes y > x µy(A) = ∞. Császár (1955), S. 357f.,
bewies nun den folgenden
Satz 5.39: Für jeden bedingten W-Raum gilt: es gibt genau dann eine dimensional geordnete, ihn erzeugende Familie von Maßen auf A, wenn er sich zu einem
additiven bedingten W-Raum erweitern läßt.
Dieser Satz liefert eine befriedigende und erschöpfende Darstellung additiver
bedingter W-Räume mittels des üblichen Maßbegriffs. Wegen Korollar 5.35 gilt
Satz 5.39 insbesondere für Popper-Räume. Es erhebt sich allerdings die Frage, ob
sich für die spezielleren Popper-Räume eine aussagekräftigere Darstellung finden
läßt. Genau dieser Frage widmet sich van Fraassen (1976). Wie erwähnt, untersucht er dabei den allgemeineren Fall, daß in 〈Ω, A, B, P〉 A eine Algebra und für
jedes B ∈ B P(. | B) ein endlich additives W-Maß auf A ist. Für diesen allgemeineren Fall gelingt ihm die gewünschte Darstellung nur unter einer Zusatzbedingung, die meines Erachtens unschön stark ist.2 Außerdem ist anzumerken, daß er
zwar mit wohlgeordneten Familien von Maßen operiert, die dann aber doch bloß
dimensional geordnet sind; dies bedeutet, daß van Fraassens Wohlordnung der
1
2
Wie Császár (1955), S. 340, schon bemerkt hat.
Vgl. die Definitionen und das Theorem auf S. 426 von van Fraassen (1976).
195
Maße nichts mit ihrer dimensionalen Ordnung zu tun hat.1 Beschränkt man sich
hingegen, wie wir es tun, auf Popper-Räume mit den entsprechenden σEigenschaften, so läßt sich eine, wie ich finde, elegantere Darstellung ohne Zusatzbedingungen angeben. Dies sei im folgenden demonstriert.
Unser erster Schritt ist, den Begriff der dimensionalen Ordnung zu dem der
dimensionalen Wohlordnung zu verstärken:
Definition 5.40: Die Familie (µ α)α<ς von Maßen auf A heiße dimensional
wohlgeordnet genau dann, wenn gilt:
(a) wenn µβ(A) < ∞, so ist für alle α < β µα(A) = 0,
(b) wenn µβ(A) = ∞, so gibt es ein α < β mit 0 < µα(A) < ∞.
Jede dimensional wohlgeordnete Familie von Maßen ist also dimensional geordnet. Die Beschaffenheit dimensional wohlgeordneter Familien von Maßen ist
jedoch schon recht spezieller Natur, welche in Definition 5.40 nicht richtig zum
Ausdruck kommt. Die folgende Darstellung fördert dies zu Tage. Vorbereitend
beweisen wir das
Lemma 5.41: Ist die Familie (µα)α<ς dimensional wohlgeordnet, so ist der endliche Teil jedes µ α beschränkt, d.h. für jedes α gibt es eine reelle Zahl x, so daß
für alle A ∈Aentweder µα(A) < x oder µα(A) = ∞.
Beweis: Sei der endliche Teil von µβ nicht beschränkt. Dann gibt es in A eine
Folge B1 ⊆ B2 ⊆ ..., so daß für alle n ∈ N µβ(Bn) < ∞ und für B = Bn µβ(B) =
n∈N
∞. Daraus folgt zunächst mit Bedingung (a) von Definition 5.40, daß für alle α >
β µα(B) = ∞. Ferner gilt wegen dieser Bedingung für alle α < β, daß µ α(Bn) = 0
für alle n ∈ N und somit auch µα(B) = 0. Beides zusammen widerspricht aber der
Bedingung (b). Q.e.d.
Nunmehr können wir definieren:
1
Vgl. van Fraassen (1976), S. 427.
196
Definition 5.42: (πα)α<ζ heiße eine dimensional wohlgeordnete Familie von WMaßen auf A genau dann, wenn für jedes β < ς πβ ein W-Maß auf A ist, für das
es ein Cβ ∈ A gibt, so daß πβ (Cβ) = 1 und für alle α < β πα(Cβ) = 0.
Dann gilt der
Satz 5.43: Jede dimensional wohlgeordnete Familie (πα)α<ζ, von W-Maßen auf
A definiert zusammen mit einer Folge (xα)α<ζ positiver reeller Zahlen auf folgende Weise eine dimensional wohlgeordnete Familie (µα)α<ζ von Maßen auf A:
(*)
für alle β < ζ und A ∈ A ist µβ(A) = xβ ⋅ πβ(A), sofern für alle α < β πα(A) =
0, und ansonsten µβ(A) = ∞.
Umgekehrt wird jede dimensional wohlgeordnete Familie von Maßen auf A mittels (*) durch eine dimensional wohlgeordnete Familie von W-Maßen auf A und
eine Folge positiver reeller Zahlen definiert.
Beweis: Sei (µα)α<ζ durch (*) definiert. Daß jedes µβ ein Maß auf A ist, ist klar.
Wenn µβ(A) < ∞, so gilt gemäß (*) für alle α < β πα(A) = 0, d.h. µα(A) = 0. Wenn
µβ(A) = ∞, so gibt es gemäß (*) ein α < β mit πα(A) > 0, d. h. mit 0 < µα(A) < ∞.
(µα)α<ζ genügt also den Bedingungen (a) und (b) von Definition 5.40 und ist mithin dimensional wohlgeordnet.
Für die Umkehrung nehmen wir an, daß (µα)α<ζ eine dimensional wohlgeordnete Familie von Maßen auf A ist. Für jedes a < ζ ist gemäß Lemma 5.41 xα =
sup{µα(A) | µ α(A) < ∞} < ∞. Es gibt demnach eine Folge A 1 ⊆ A 2 ⊆ ... in {A |
µα(A) < ∞ } mit lim µ α (An ) = xα . Definieren wir nun C α = An . Dann ist
n→∞
n∈N
µα(Cα) = xα, und für alle A mit µα(A) < ∞ gilt µα(A \ Cα) = 0, d.h. µα(A) = µα(A ∩
Cα). Somit können wir für alle A ∈ A πα(A) = x1 ⋅ µ α (A ∩ Cα) setzen. Es ist dann
α
klar, daß jedes πα ein W-Maß auf A ist derart, daß πα(Cα) = 1 und πβ(Cα) = 0 für
β < α, und daß (πα)α<ζ zusammen mit (xα)α<ζ über (*) gerade (µ α)α<ζ definiert.
Q.e.d.
197
An Stelle von dimensional wohlgeordneten Familien von Maßen auf A können
wir also mit den durchsichtigeren und informativeren, dimensional wohlgeordneten Familien von W-Maßen auf A weiterarbeiten. Es ist dabei zu beachten, daß
zwei dimensional wohlgeordnete Familien (µα)α<ζ und (µ′α )α<ζ , die sich nur dadurch unterscheiden, daß sie mit zwei verschiedenen Folgen (xα)α<ζ und ( xα′ )α<ζ ,
aber durch dieselbe wohlgeordnete Familie (π α )α<ζ definiert sind, gemäß Definition 5.37 genau dieselben bedingten W-Räume erzeugen. Wir können daher den
Erzeugungsbegriff auch direkt auf dimensional wohlgeordnete Familien von WMaßen beziehen:
Definition 5.44: Die dimensional wohlgeordnete Familie (πα)α<ζ von W-Maßen
auf A erzeugt den bedingten W-Raum 〈Ω, A, B, P〉 genau dann, wenn B = {B ∈
A | es gibt ein α < ζ mit πα(B) > 0} und wenn für alle A ∈ A, B ∈ B P(A | B) =
πβ(A | B) wobei β = min{α | πα (B) > 0}.
Die unwichtige Eigenheit, daß gemäß Definition 5.37 mit einem bedingten WRaum auch jede seiner Einschränkungen erzeugt wird, haben wir dabei in Definition 5.44 eliminiert.
Unser erstes Ziel ist damit erreicht:
Satz 5.45: Jede dimensional wohlgeordnete Familie (πα)α<ζ von W-Maßen auf
A erzeugt einen Popper-Raum.
Beweis: Seien B und P wie in Definition 5.44 festgelegt. Daß B und P dann
Bedingung (a) von Definition 5.34 erfüllen, ist trivial. Bedingung (b) ist auch erfüllt: Denn sei A, B, C ∈ A mit C, B ∩ C ∈ B, und sei γ = min{α | πα(C) > 0} und
β = min{α | πα(B ∩ C) > 0}. Wenn β > γ, so ergibt sich P(B | C) = P(A ∩ B | C) =
0; und wenn β = γ, so wird die Gleichung P(A ∩ B | C) = P(A | B ∩ C) ⋅ P(B | C)
zum wahrscheinlichkeitstheoretischen Lehrsatz πγ(A ∩ B | C) = π γ(A | B ∩ C) ⋅
πγ(B | C). Schließlich ist auch die Bedingung (d) erfüllt: Denn sei P(A | B) > 0 für
ein B ∈ B, d.h. πβ(A | B) > 0 für β = min{α | πα(B) > 0}. Daraus folgt πβ(A ∩ B) >
0 und πβ(A) > 0, d. h. A ∈ B. Q.e.d.
198
Unser zweites Ziel ist, diesen Satz umzukehren. Dazu müssen wir uns freilich
etwas mehr anstrengen, In den folgenden Hilfsdefinitionen und Lemmata sei dazu
von einem festen Popper-Raum 〈Ω, A, B, P〉 ausgegangen.
Lemma 5.46: Für alle A, C ∈ A und B ∈ B gilt: wenn P(A | B) > 0, so auch
P(A ∪ C | B ∪ C) > 0.1
Beweis: Wenn P(C | B ∪ C) > 0, so gilt in jedem Fall P(A ∪ C | B ∪ C) > 0.
Wenn P(C | B ∪ C) = 0, so haben wir P(B | B ∪ C) = 1. Also gilt P(A ∪ C | B ∪
C) ≥ P((A ∪ C) ∩ B | B ∪ C) = P(A ∪ C | B) ⋅ P(B | B ∪ C) aufgrund von Bedingung (b) von Definition 5.34. Nach Voraussetzung sind beide Glieder dieses Produktes positiv. Q.e.d.
Nun erklären wir eine Ordnungsrelation für die Sachverhalte in A: Für alle A,
B ∈ A gelte A B genau dann, wenn A ∪ B ∈ B und P(B | A ∪ B) > 0 oder wenn
A, B ∈ A \ B. Weiterhin gelte A ~ B genau dann, wenn A B und B A, und
A B genau dann, wenn A B und nicht B A, erweist sich als eine schwache Ordnung in A:
Lemma 5.47: ist konnex, d.h. für alle A, B ∈ A gilt A B oder B A,
Der Beweis dafür ist trivial.
Lemma 5.48: ist transitiv, d.h. für alle A, B, C ∈ A gilt: wenn A B und
B C, so A C.
Beweis: Für den Fall, daß A, B ∈ A \ B oder B, C ∈ A \ B, ist das Lemma trivial. Nehmen wir also an, daß P(B | A ∪ B) > 0 und P(C | B ∪ C) > 0. Aus ersterem folgt mit Lemma 5.46 P(B ∪ C | A ∪ B ∪ C) > 0. Mit Bedingung (b) von
Definition 5.34 gilt dann P(C | A ∪ C) ≥ P(C | A ∪ B ∪ C) = P(C | B ∪ C) · P(B ∪
C | A ∪ B ∪ C) > 0. Q.e.d.
∼ ist mithin eine Äquivalenzrelation in A. Daß die durch ∼ erzeugten Äquivalenzklassen sogar wohlgeordnet sind, ist das Ergebnis von
1
Dieses Lemma formuliert van Fraassen (1976) auf S. 424.
199
Lemma 5.49: Es gibt keine unendliche, streng monoton aufsteigende Folge in
A, d.h. keine Folge A1 A2 A3 ...
Beweis: Gelte für m < n Am An . Für m < n gilt also P(Am | A m ∪ An) = 0. Sei
nun A = An . Dann gilt für alle m ∈ N P(Am | A) = 0. Daraus folgt P(A | A) = 0,
n∈N
was nicht sein kann. Q.e.d.
Die nächsten beiden Lemmata geben Auskunft über die Struktur der von ∼ erzeugten Äquivalenzklassen. Sei dazu für jedes A ∈ A RA = {B ∈ A | B A} und
RA′ = {B ∈ A | B A} , so daß {B ∈ A | A ~ B} = RA \ RA′ . Ein σ-Ideal in A ist
dabei bekanntlich eine Teilmenge von A, welche mit A1, A 2, … auch alle B ∈ A,
für die B ⊆ A, und mit A1, A2, … auch An als Elemente enthält.
n∈N
Lemma 5.50: Für jedes A ∈ A sind RA und RA′ σ-Ideale in A.
Beweis: Sei erstens B ∈ RA und C ⊆ B. Das heißt, daß B A und C B . Also
gilt mit Lemma 5.48 auch C A, d.h. C ∈ RA. Sei zweitens für alle n ∈ N B n ∈
RA und B = Bn . Also gilt für alle n Bn A, d.h. P(A | A ∪ Bn) > 0. Wegen
n∈N
P(B | B) =1 muß es ein m ∈ N geben, für das P(Bm | B) > 0. Mit Lemma 5.46 folgt
daraus, daß P(A ∪ Bm | A ∪ B) > 0. Also gilt auch P(A | A ∪ B) = P(A ∪ Bm | A ∪
B) ⋅ P(A | A ∪ Bm) > 0, d.h. B A. Mithin ist RA ein σ-Ideal in A. Daß RA′ ebenfalls ein σ-Ideal in A ist, folgt dann aus der Wohlgeordnetheit der von ∼ erzeugten
Äquivalenzklassen, die impliziert, daß es ein B ∈ A mit RB = RA gibt. Q.e.d.
Für A ∈ B ist RA dabei recht spezieller Beschaffenheit:
Lemma 5.51: Für jedes A ∈ B gibt es ein C ∈ RA , so daß R A = {B ∈ A| es
gibt ein B' ∈ RA′ mit B ⊆ C ∪ B'}.
Beweis: Zunächst gilt inf P(A | A') > 0. Denn gäbe es in RA eine Folge A1 ⊆
A '∈RA
A2 ⊆ … mit lim P(A | A ∪ An) = 0, so gälte für A' = An einerseits P(A | A ∪
n→∞
n∈N
A ') = 0, d.h. A A', andererseits aber A' ∈ R A, da R A nach Lemma 5.50 ein σ-
200
Ideal ist; und das ist ein Widerspruch. Wiederum weil R A ein σ-Ideal ist, gibt es
sogar ein C ∈ RA mit A ⊆ C und P(A | C) = inf P(A | A'). Trivialerweise gilt
A '∈R A
dann für B' ∈ RA′ und B ⊆ C ∪ B', daß B ∈ RA. Sei umgekehrt B ∈ RA. Dann gilt
P(A | B ∪ C) = P(A | C). Wegen Bedingung (b) von Definition 5.34 gilt auch P(A |
B ∪ C) = P(A | C) ⋅ P(C | B ∪ C). Daraus folgt P(C | B ∪ C) = 1, d.h. P(B \ C | B
∪ C) = 0, d.h. B \ C C, und somit B \ C ∈ RA′ . Mithin gibt es ein B' ∈ RA′ mit
B ⊆ C ∪ B'. Q.e.d.
Das bisher Bewiesene zusammenfassend, können wir also eine wohlgeordnete
Folge (Rα)α<ζ+1 von σ-Idealen in A in folgender Weise definieren: R0 = A, Rα+1
= {B ∈A| B A für ein A ∈ Rα} und, falls α eine Limeszahl ist, Rα = Rβ .
β<α
Für α < β gilt dann Rβ ⊂ R α; jede von ∼ erzeugte Äquivalenzklasse hat die Form
Rα \ Rα+1; und es gilt Rζ = A \ B. Schließlich gibt es für jedes α < ζ ein Cα ∈ R α,
so daß Rα = {B ∈ A | es gibt B' ∈ Rα+1 mit B ⊆ Cα ∪ B'}. Damit liegt unser
zweites Hauptergebnis auf der Hand.
Satz 5.52: Jeder Popper-Raum 〈Ω, A, B, P〉 wird von einer dimensional wohlgeordneten Familie (πα)α<ζ von W-Maßen auf A erzeugt.
Beweis: Sei Cα wie gerade festgestellt, und sei für alle A ∈ A π α(A) = P(A |
Cα). Jedes πα ist demnach ein W-Maß auf A mit πα(Cα) = 1. Ferner gilt für α < β
πα (C β) = P(Cβ | Cα) = 0, da Cβ Cα . Die Familie (πα)α<ζ ist also dimensional
wohlgeordnet. Sie erzeugt auch 〈Ω, A, B, P〉. Denn erstens gibt es für jedes B ∈
A genau dann ein α < ζ mit πα(B) > 0, wenn B ∈ Rα für ein α < ζ, d.h. wenn B ∈
B. Sei zweitens für B ∈ B β = min{α | πα(B) > 0}. Nach Definition von πα heißt
dies, daß β = min{α | P(B | Cα) > 0}. Daraus folgt Cβ B und B Cα für alle α
< β, d.h. B ∼ Cβ, und somit B ∈ Rβ \ Rβ+1. Dies impliziert, daß B \ Cβ ∈ Rβ+1, und
so, daß P(B \ Cβ | B) = 0. Daher ergibt sich für A ∈ A, daß
πβ(A | B) =
πβ (A ∩ B)
πβ (B)
=
= P(A | B ∩ Cβ)
P(A ∩ B | Cβ
P(B | Cβ
(nach Definition von πβ)
(mit Definition 5.34, (b))
= P(A | B),
denn wegen P(B \ Cβ | B) = 0 gilt P(B ∩ Cβ | B) =1. Q.e.d.
201
Ein keiner Beweisanstrengungen bedürftiges Anhängsel daran ist der
Satz 5.53: Ein bedingter W-Raum ist genau dann ein voller, wenn er von einer
dimensional wohlgeordneten Familie (πα)α<ζ von W-Maßen auf A erzeugt wird,
für die gilt: für jedes A ∈ A \ {∅} gibt es ein α < ζ mit πα(A) > 0.
Mit den Sätzen 5.45, 5.52 und 5.53 ist unsere deterministisch-probabilistische
Analogie ziemlich perfekt. Sie springt unmittelbar ins Auge, wenn man die Definitionen der EKFs (S. 159f.), der wohlgeordneten Zerlegungen und der Erzeugung
ersterer durch letztere und den Satz 5.9 (S. 166) mit den Definitionen der Popperoder der vollen bedingten W-Räume, der dimensional wohlgeordneten Familien
von W-Maßen, der Erzeugung ersterer durch letztere und den Sätzen 5.45, 5.52
und 5.53 vergleicht. Die Analogie ist in der Tat so eng, daß es nicht weiters
schwierig ist, sie formal zu verfestigen – in Theoremen, die den Zusammenhang
zwischen EKFs und der Menge der Paare 〈B, A〉, für die in einem Popper-Raum
P(A | B) = 1 gilt, feststellen. Doch wollen wir nun auf diesem Nebengeleise unserer Untersuchung nicht weiter fortfahren. Zwei abschließende Bemerkungen mögen genügen:
Der Vergleich zwischen unserem Abschnitt 5.2 und dem jetzigen stößt auf ein
technisches Hindernis, welches darin besteht, daß sich für die deterministische
Seite vollständige Algebren als natürliche Sachverhaltsstrukturen empfahlen,
während es im Probabilistischen natürlich ist, mit σ-Algebren zu arbeiten. Theoreme über den Zusammenhang zwischen EKFs und Popper-Räumen müssen hier
also eine Angleichung vornehmen. Dies kann auf zweierlei Weise geschehen.
Einerseits kann man auch im deterministischen Fall nur mit σ-Algebren operieren und die EKFs dementsprechend abschwächen, was heißen soll, daß das Postulat von S. 157, wonach X mit allen B ∈ B ⊆ A auch B glaubt, auf abzählbare
Teilmengen B von A einzuschränken und alle weiteren Begriffsbildungen entsprechend zu modifizieren wären.
Andererseits kann man unter einer gewissen Voraussetzung auch die umgekehrte Methode wählen: Ihr erster Schritt besteht darin, die vorstehenden Definitionen und Sätze von Mengen-σ-Algebren ganz routinemäßig auf beliebige Boolesche σ-Algebren zu verallgemeinern. In einem zweiten Schritt können wir von
einem Popper-Raum 〈Ω, A, B, P〉 im bisherigen Sinn, wonach A eine Mengen-σ-
202
Algebra über Ω ist, zu seinem „Quotienten-Popper-Raum“ 〈 Â, B̂, P̂〉 übergehen,
worin  die Quotienten-σ-Algebra A / A \ B ist und B̂ ⊆  und das auf
Â × B̂ definierte P̂ in entsprechender Weise aus B und P hervorgehen.1
〈 Â, B̂, P̂〉 ist dann ein voller bedingter W-Raum. In der gleichen Weise können
wir von der 〈 Ω, A, B, P〉 erzeugenden, dimensional wohlgeordneten Familie
(πα)α<ζ von W-Maßen auf A zu der Familie (π̂ α )α<ζ von W-Maßen auf  übergehen. Machen wir nun die einschränkende Voraussetzung, daß es irgendein σendliches Maß auf A gibt, welches genau den Elementen von A \ B das Maß 0
zuordnet. Mit dieser Voraussetzung gilt dann, daß Â eine vollständige Boolesche
Algebra und jedes σ-Ideal R̂ in  ein vollständiges und mithin ein prinzipales
ˆ gibt.2 Wenn
Ideal in  ist, für das es also ein Cˆ ∈  mit R̂ = { Aˆ ∈  | Aˆ ⊆ C}
man nun aus 〈 Â, B̂, P̂〉 die Folge (Rα )α<ζ+1 von σ-Idealen in  so wie für Satz
5.52 konstruiert, so ist also jedes R̂α vollständig, so daß für Cˆ α = R̂α gilt:
 ∈ R̂α gdw. Aˆ ⊆ Cˆ α . Daraus folgt weiter, daß für α < β Cˆ β ⊂ Cˆ α , und so, daß
ˆ Schließ ∈ R̂ π̂ α ( Â) = 0 gdw. Aˆ ⊆ Cˆ α+1 und π̂ α ( Â) = 1 gdw. Cˆ α \ Cˆ α+1 ⊆ A.
lich erzeugt (π̂ α )α<ζ den vollen bedingten W-Raum 〈 Â, B̂, P̂〉 so, daß in Verˆ 3 ist
schärfung von Definition 5.44 gilt: für alle Â, B̂ ∈ Â mit B̂ ≠ ∅
ˆ Auf diese Weise
P̂( Â | B̂) = π̂β ( Â | B̂) , wobei β = min{α | Bˆ ∩ (Cˆ α \ Cˆ α+1 ) ≠ ∅}.
wird also der Zusammenhang zwischen Popper-Räumen und EKFs noch direkter.
Die Stoßrichtung der zweiten Bemerkung liegt damit auf der Hand. Denn das
Ungenügen der EKFs, welches uns zur Einführung der OKFs veranlaßte, haftet
offenkundig auch den Popper-Räumen an. Relativ zu einem Popper-Raum 〈Ω, A,
B, P〉 können wir zwar für jeden Sachverhalt A ∈ A sagen, welche Wahrscheinlichkeit er unter einer beliebigen Bedingung B ∈ B hat. Doch mit der Frage, welche neue Funktion P' aus P durch Konditionalisierung bezüglich B entstehen soll,
kommen wir in die gleiche Bredouille wie auf den Seiten 170-175. Wie sich diese
Schwierigkeiten lösen lassen, dürfte klar sein: nämlich mit wahrscheinlichkeitstheoretischen Entitäten, die sich zu OKFs wie Popper-Räume zu EKFs verhalten.
Diese zu definieren und in Analogie zur normalen Wahrscheinlichkeitstheorie und
zu Abschnitt 5.3 für sie eine Theorie zu entwickeln, ist mühselige, aber wenig
1
S. dazu R. Sikorski (1969), §§ 21 und 42. Die Bildung der Quotienten-σ-Algebra A / A \ B ist
dabei deswegen möglich, weil A \ B gemäß Lemma 5.50 ein σ-Ideal in A ist.
2
S. dazu Sikorski (1969), S.72–76. Der Einfachheit halber verwende ich für die Booleschen Operationen und Relationen in  die entsprechende mengentheoretische Symbolik.
3
ˆ sei das Nullelement von Â.
∅
203
schwierige Schreibarbeit, der wir uns jetzt nicht unterziehen wollen. Auch die nun
zu formulierende Kausalitätstheorie ließe sich leicht auf diese Entitäten verallgemeinern. Doch haben wir mit den OKFs schon genug an Exotischem, und daher
wollen wir es auf der probabilistischen Seite mit normalen Wahrscheinlichkeitsmaßen bewenden lassen. Die kleinen Schwierigkeiten, die sich ergeben werden,
weil sich mit normalen W-Maßen nur in begrenztem Umfang bedingte Wahrscheinlichkeiten bilden lassen, müssen und können wir dabei in Kauf nehmen.
KAPITEL 6
KAUSALITÄT IN DETERMINISTISCHEN
UND PROBABILISTISCHEN PROZESSEN
In den letzten beiden Kapiteln haben wir uns ausgiebig eines angemessenen
Verständnisses dessen versichert, was wir als deterministische und probabilistische Prozesse definiert haben, und zugleich begründet, daß sich kausale Begrifflichkeit am besten relativ zu ihnen explizieren lassen müßte. Diese Hoffnung gilt
es nunmehr einzulösen. Dies geschieht hier – teilweise vorläufig und unter technischen Beschränkungen – in fünf Abschnitten:
Der Abschnitt 6.1 hat zwei Gegenstände. Zum einen werden hier eingedenk
der in Kapitel 3 gewonnenen Empfehlungen1 nur direkte und noch keine anderen
Ursachen expliziert; ein Vergleich mit den in Kapitel 2 geschilderten Konzeptionen kann dann schon genau aufzeigen, inwiefern diese Explikation diese Konzeptionen verbessert oder präzisiert. Zum andern wird auf der Grundlage der bisher
dauernd diskutierten epistemischen Interpretation von Prozeßgesetzen expliziert,
was es heißt, daß ein Sachverhalt A für ein bestimmtes Subjekt – d.h. relativ zu
dem Prozeßgesetz, welches den epistemischen Zustand dieses Subjekts repräsentiert – ein Grund für einen Sachverhalt B ist, also dafür, B zu glauben oder eher zu
glauben. Es wird hier also die Problematik (9) von Kapitel 1 (S. 21) aufgegriffen.
Diese Explikationen gestatten schon einige interessante erkenntnistheoretische
Anwendungen, die in den Abschnitten 6.2 und 6.3 ausgeführt sind. Der Abschnitt
6.2 enthält einige präzise Feststellungen über das Verhältnis zwischen Ursachen
und Gründen oder, in aktuellerer Terminologie, zwischen Erklärungen und Voraussagen und sagt insbesondere, unter welchen Bedingungen Erklärungen als
Voraussagen hätten dienen können. Und im Abschnitt 6.3 ergeben sich einige
Bemerkungen zu den Punkten (1) und (2) von Kapitel 1 (S. 9-12), d.h. zu der spe-
1
Vgl. insbesondere S. 98f.
206
ziellen erkenntnistheoretischen Rolle des Ursachenbegriffs im allgemeinen und
(von Versionen) des Kausalprinzips im besonderen. Es ist allerdings darauf hinzuweisen, daß dieses Kapitel in diesem und den folgenden Abschnitten eher vorläufigen und programmatischen Charakter hat.
Im Abschnitt 6.4 wird skizziert, wie sich nun eine detaillierte Kausalitätstheorie entwickeln ließe. Die Grundlage dafür bilden zwei weitere Begriffe: nämlich
der Begriff der Ursache schlechthin, d.h. der direkten oder indirekten Ursache,
und die Relation der kausalen Abhängigkeit zwischen Faktoren; und deren Explikation wird im Abschnitt 6.4 geliefert. Der Abschnitt 6.5 nimmt schließlich noch
Stellung zu einer dauernd hintangestellten Frage, nämlich zu der Frage, worin
eine realistische Interpretation von OKFs bestehen könnte und welcher Art die
Beziehung zwischen OKFs und Naturgesetzen ist.
Es sind noch einige technische Vorbemerkungen nötig. Ich werde in diesem
Kapitel von einem beliebigen D-Prozeß 〈I, Ω, A, κ〉 beziehungsweise von einem
beliebigen P-Prozeß 〈I, Ω, A, P〉 ausgehen; alle formalen Ausführungen werden
sich darauf beziehen. Damit ist auch schon angezeigt, daß ich den deterministischen und den probabilistischen Fall in einem Zug behandeln werde. Dies wird
dem Leser die Beweglichkeit abverlangen, dauernd zwischen dem deterministischen und dem probabilistischen Formalismus hin und her zu schalten. Diese Zumutung scheint mir gleichwohl sinnvoll zu sein. Denn erstens wird dadurch die
sehr weitreichende Parallelität zwischen dem deterministischen und dem probabilistischen Fall viel augenfälliger; und wo diese Parallele so eng ist, bleibt dem
Leser dadurch zweitens die ermüdende Wiederholung erspart, auf die eine getrennte Behandlung der beiden Fälle im wesentlichen hinausgelaufen wäre.
〈I, Ω, A〉 sei dabei ein Prozeßraum relativ zu (〈Ωu , A u 〉)u∈U , T und ≤.1 Die entscheidende technische Beschränkung für dieses Kapitel besteht nun darin, daß wir
annehmen wollen, daß 〈I, Ω, A〉 ein endlicher und simultaneitätsfreier Prozeßraum ist.2 Ω ist also endlich, und damit ist jede σ-Algebra über Ω vollständig, so
daß wir im deterministischen wie im probabilistischen Fall mit denselben A u (u
∈ U) und demselben A arbeiten können. Wie schon auf S. 113 erwähnt, halten wir
uns mit der Annahme, daß 〈I, Ω, A〉 endlich ist, alle höhere Mathematik vom Leibe; und die Annahme, daß 〈I, Ω, A〉 simultaneitätsfrei ist, gestattet uns, die Frage
nach den Kausalverhältnissen zwischen gleichzeitigen Sachverhalten auszuklam1
2
Vgl. Definition 4.1, S. 110f.
Vgl. Definition 4.4, S. 112f.
207
mern. Das Problem, wie unsere Kausalitätstheorie von diesen Beschränkungen
befreit werden kann, muß hier zukünftigen Untersuchungen überlassen werden.
Doch wird der Leser, so hoffe ich, den Eindruck gewinnen können, daß die Beseitigung dieser Beschränkungen keine so prinzipiellen Schwierigkeiten aufwerfen dürfte, daß von daher unsere so beschränkte Kausalitätstheorie wieder in
Zweifel gezogen würde.1
So bleibt im Moment nur noch, die teilweise schon auf S. 110ff. eingeführten
Notationen zusammenzustellen, die wir im Weiteren dauernd verwenden werden:
Für jeden Faktor i = 〈u, t〉 ∈ I ⊆ U × T sei τi = t der Zeitpunkt, zu dem sich i realisiert.
Für jedes J ⊆ I sei AJ die von E i erzeugte Algebra.2 Statt A{i1 ,...,in } schreiben
i∈J
wir auch einfach Ai1 ,...,in . Wenn für j ∈ I J = {i ∈ I | τi < τj}, so schreiben wir statt
AJ auch A <j. Entsprechend sei die Notation A>j erklärt. Ferner schreiben wir für
AJ \ K auch AJK ; A<i j ist demnach dasselbe wie AJ, wo J = {k ∈ I | τk < τi und k ≠
i}. Schließlich sei für jedes J ⊆ I ZJ die Menge der Atome von AJ.3 Für jedes J ⊆
I ist ZJ mithin eine Zerlegung von Ω, so daß wir für jedes ω ∈ Ω von dem Z mit ω
∈ Z ∈ ZJ reden dürfen. Die Notationen Zi1 ,...in , Z< j , ZJK und Z<i j seien entsprechend erklärt. Dies wird fürs erste genügen.
6.1
Gründe und direkte Ursachen
Die Unterscheidung zwischen causa oder causa fiendi oder causa essendi einerseits und ratio oder causa cognescendi andererseits oder, zu deutsch, zwischen
Ursache oder Werdens- oder Seinsgrund einerseits und Grund oder Erkenntnisoder Vernunftgrund andererseits, diese Unterscheidung hat in der Philosophie eine
lange und wechselvolle Geschichte.4 Sicherlich schwankte diese Unterscheidung
im Laufe der Zeit; oft wurde noch feiner differenziert, etwa zwischen causa fiendi
1
Was die Verallgemeinerung auf den unendlichen Fall betrifft, so wird man feststellen können, daß
da kein Problem auftaucht, das die Mathematiker nicht schon in vielleicht etwas anderer Verkleidung
bewältigt hätten. Was simultane Kausalbeziehungen anlangt, so habe ich in Spohn (1980), wo ich
mich mit der Teilfrage der Kausalbeziehungen zwischen Faktoren im probabilistischen Rahmen
beschäftigt habe, einen für diese Teilfrage funktionierenden Vorschlag gemacht; und da der Inhalt
dieses Aufsatzes sich hier bestätigen wird, ist zu vermuten, daß sich dieser Vorschlag entsprechend
verallgemeinern lassen müßte.
2
Vgl. Definition 4.2, S. 111f.
3
Im hier angenommenen endlichen Fall haben wir es ja nur mit atomaren Algebren zu tun.
4
Vgl. dazu Schopenhauer (1847), 2. Kapitel.
208
und causa essendi; und ganz gewiß hatte man dauernd Schwierigkeiten, diese
Unterscheidung klar zu machen und klar durchzuhalten. Von dieser Geschichte
sind heute vor allem zwei deutlich verschiedene Begriffe zurückgeblieben – und
da wir uns nur für diese interessieren, brauchen wir jetzt nicht den Details dieser
Geschichte nachzuspüren, auch wenn wir in ihrer Tradition stehen – : nämlich in
heutiger Terminologie erstens der Begriff des Grundes, der eindeutig ein epistemologischer ist – ein Sachverhalt ist für ein epistemisches Subjekt zu einem Zeitpunkt ein Grund dafür, einen anderen Sachverhalt zu glauben oder eher zu glauben –, und zweitens der Begriff der Ursache, der nicht in dieser Weise epistemisch relativiert zu werden braucht, auch wenn seine epistemologischen Bezüge
dunkel und vielleicht sehr wichtig sind – ein Sachverhalt ist, tatsächlich, eine Ursache für einen anderen. Die Analyse dieser Begriffe ist nach wie vor eine Herausforderung (wie diese Untersuchung zeigt); aber wie man sie hat konfundieren
können, ist in der heutigen Sicht eher unverständlich. Nun lagen die Schwierigkeiten mit dieser Unterscheidung sicherlich auch an der alten Terminologie, wonach, was wir heute Gründe und Ursachen nennen, einfach verschiedene Formen
von Gründen, nämlich Erkenntnis- und Seinsgründe sind. Diese alte Terminologie
hat, scheint mir, aber auch ihr Gutes. Denn sie suggeriert eine enge und interessante, wenn auch unklare Verwandtschaft zwischen Erkenntnis- und Seinsgründen, die wir heute nicht mehr richtig sehen, wo uns der Unterschied zwischen
Gründen und Ursachen so deutlich geworden ist. Und diese Verwandtschaft gibt
es in der Tat; sie scheint sich mir in der folgenden Überlegung fassen zu lassen.
(Mit dieser Überlegung verknüpfe ich nicht die Behauptung, daß sie trifft, was
frühere Philosophen im Sinne hatten. Sie soll nur als plausible und freilich metaphorische Heuristik für die nachfolgenden formalen Definitionen dienen.)
Zunächst scheint klar zu sein, daß ein Sachverhalt A, um ein Grund für einen
Sachverhalt B zu sein – „Grund“ in diesem Absatz nun als Oberbegriff für „Erkenntnisgrund“ und „Seinsgrund“ verstanden –, auf einen Hintergrund angewiesen ist. Dies legt zweierlei nahe: erstens, daß die Verwandtschaft zwischen Erkenntnis- und Seinsgründen in ihrer gemeinsamen logischen Struktur liegt, die sie
zu Gründen macht, und zweitens, daß der Unterschied zwischen ihnen daher rührt,
daß sie auf verschiedene Hintergründe Bezug nehmen. Welcher Art sind die jeweiligen Hintergründe? Was die Hintergründe von Erkenntnisgründen sind, liegt
auf der Hand: wenn A für ein Subjekt X zum Zeitpunkt t ein Erkenntnisgrund für
B ist, so ist der einschlägige Hintergrund gerade der epistemische Zustand von X
209
zu t. Was die Hintergründe von Seinsgründen sein sollen, liegt weniger auf der
Hand. Doch welchen besseren Hintergrund dafür, daß A ein Seinsgrund für B, d.h.
sozusagen der Welt tatsächlicher Grund für B ist, könnte man sich vorstellen als
den gesamten Weltverlauf bis hin zu B – A natürlich ausgenommen? Wenn also A
sogar auf dem Hintergrund aller vor B bestehenden und von A verschiedenen Tatsachen kein Seinsgrund für B ist, würde man dann A nicht absprechen, der Welt
tatsächlicher Grund für B zu sein?
Nach unseren Vorbereitungen im vorigen Kapitel läßt sich diese Überlegung
sehr leicht ganz präzise machen und so zu einer exakten Explikation von Gründen
und Ursachen verwenden – „Grund“ fürderhin nur mehr im heutigen, eingeschränkten Sinn als Erkenntnisgrund verstanden. Aus dieser heuristischen Überlegung zieht die Explikation natürlich wenig Bestätigung; die ernsthaften Argumente sind erst noch zu liefern. Wenden wir uns jedoch zunächst der formalen
Explikation und da als erstem dem einfacheren Begriff des Grundes zu:
Gründe, so sagten wir gerade, sind nur relativ zu epistemischen Zuständen
Gründe; und epistemische Zustände hatten wir, qualitativ gefaßt, als DProzeßgesetze und, quantitativ gefaßt, als P-Prozeßgesetze dargestellt. Unsere
Explikation lautet daher für den probabilistischen Fall so:
Definition 6.1: Seien A, B ∈ A, P ein W-Maß auf A und 0 ≠ P(A) ≠ 1. Dann ist
A ein Grund für B bzgl. P genau dann, wenn P(B | A) > P(B | A).
Offenkundig ist die definierende Bedingung „P(B | A) > P(B | A )“ mit der Bedingung „P(B | A) > P(B)“ äquivalent. Die zweite Formulierung hätte vielleicht
etwas näher gelegen, aber im deterministischen Fall ist, wie wir sehen werden, die
Analogie zur ersten Formulierung angemessener als die Analogie zur zweiten.
Ein Grund erhöht also gerade die Wahrscheinlichkeit dessen, wofür er ein
Grund ist. Daß das zumindest eine notwendige Bedingung für Gründe ist, ist allgemein anerkannt.1 Wenn A für B irrelevant oder gar negativ relevant wäre, so
würde man A gewiß nicht einen Grund für B nennen wollen – selbst dann nicht,
wenn P(B | A) trotzdem noch sehr hoch ist.2 Daß wir mit Definition 6.1 positive
Relevanz zur hinreichenden Bedingung für Gründe erklären, bedeutet dann, daß
Gründe in zweierlei Hinsicht sehr schwach sein können. Erstens kann es sein, daß
1
2
Vgl. dazu etwa Stegmüller (1973), Teil IV, (1983), S. 971ff., Jeffrey (1969) oder Salmon (1971).
Wie Stegmüller (1973), S. 351ff., betont.
210
A die Wahrscheinlichkeit von B nur ganz geringfügig erhöht, daß also P(B | A)
kaum größer ist als P(B | A). Und zweitens kann es sein, daß P(B | A) immer noch
sehr klein, B also auch unter A noch sehr unwahrscheinlich ist. Beide Formen von
schwachen Gründen ließen sich jedoch nur durch mehr oder weniger willkürliche
Regelungen ausschalten. Solchen gegenüber scheint mir die klare Definition 6.1
vorzuziehen zu sein, solange man nur dessen gewärtig bleibt, daß Gründe auch
ganz schwach sein können.1
Es ist darauf hinzuweisen, daß ein Grund A gemäß Definition 6.1 dem Subjekt
X, dessen epistemischen Zustand P repräsentiert, nicht gegeben zu sein braucht.
Ja, genau genommen, darf A gar nicht für X gegeben sein. Denn wenn X sich des
Vorliegens von A schon sicher wäre, so wäre P(A) = 1, und für alle B ∈ A ist
dann P(B | A) = P(B) und P(B | A) undefiniert. Dies ist ein Schönheitsfehler, der
freilich allein davon herrührt, daß sich normale W-Maße bezüglich Sachverhalten
mit der Wahrscheinlichkeit 0 nicht konditionalisieren lassen, und der demnach mit
dem im Abschnitt 5.4 diskutierten, komplizierteren wahrscheinlichkeitstheoretischen Apparat leicht auszuräumen wäre.
Im deterministischen Fall ist das Charakteristikum von Gründen, daß sie glaubwürdiger machen, wofür sie Gründe sind, folgendermaßen zu explizieren:
Definition 6.2: Seien A, B ∈ A, ∅ ≠ A ≠ Ω und κ eine A-OKF. Dann ist A ein
Grund für B bzgl. κ genau dann, wenn κ(B | A) > κ(B | A) oder κ(B | A) >
κ(B | A) .
Unserer intendierten Interpretation von OKFs zufolge bedeutet „ κ(B | A) >
κ(B | A) “ gerade, daß B gemäß κ unter A sicherer ist als unter A , und „ κ(B | A) >
κ(B | A) “ bedeutet, daß B gemäß κ unter A unsicherer ist als unter A ; dies sind
die beiden einzigen Möglichkeiten, wie sich die Glaubwürdigkeit von B durch A
erhöhen kann. Im Gegensatz zum probabilistischen Fall, wo die Art und Weise,
ein Grund zu sein, kontinuierlich abgestuft ist, ist es im deterministischen Fall
sinnvoll, fünf verschiedene Arten von Gründen zu unterscheiden. Damit wird
auch der Gehalt von Definition 6.2 noch etwas klarer:
1
Eine plausible und nicht willkürliche Zusatzbedingung wäre vielleicht die sogenannte LeibnizBedingung, daß P(B | A) > 1/2; vgl. dazu Stegmüller (1973), S. 311ff. Aber es ist, wie gesagt, günstig,
es zunächst bei dem weitesten sinnvollen Begriff des probabilistischen Grundes zu belassen; Verschärfungen lassen sich dann ja, wenn man will, immer noch einführen.
211
Definition 6.3: Seien A, B und κ wie in Definition 6.2.
zusätzlicher
⎫
⎧
⎪
⎪
nur hinreichender
⎪⎪
⎪⎪
Dann ist A ein ⎨notwendiger und hinreichender ⎬ Grund für B bzgl. κ gdw.
⎪
⎪
nur notwendiger
⎪
⎪
schwacher
⎪⎭
⎪⎩
⎧κ(B | A) > κ(B | A) > 0 = κ(B | A) = κ(B | A),
⎪
⎪⎪κ(B | A) > κ(B | A) = 0 = κ(B | A) = κ(B | A),
⎨κ(B | A) > κ(B | A) = 0 = κ(B | A) < κ(B | A),
⎪κ(B | A) = κ(B | A) = 0 = κ(B | A) < κ(B | A),
⎪
⎪⎩ κ(B | A) = κ(B | A) = 0 < κ(B | A) < κ(B | A).
⎧hinreichenden ⎫
Ferner nennen wir A einen ⎨
⎬ Grund für B bzgl. κ gdw. A ein
⎩ notwendigen ⎭
⎧nur hinreichender ⎫
⎨
⎬ oder ein notwendiger und hinreichender Grund für B bzgl. κ
⎩ nur notwendiger ⎭
ist. Davon, daß A ein Grund der Art a für B bzgl. κ ist, werden wir dann sprechen,
wenn wir allgemein über diese Formen von Gründen reden wollen; a ist darin eine
Variable für diese sieben Formen.
Da, wie erinnerlich, für alle C, D ∈ A die Implikation „wenn κ(D | C) > 0, so
κ(D | C) = 0 “ gilt, ist klar, daß A genau dann ein Grund für B bzgl. κ ist, wenn A
bzgl. κ ein Grund einer der fünf erstgenannten Arten für B ist.
Auch die Definitionen 6.2 und 6.3 sind so liberal, daß sie nicht verlangen, daß
ein Grund A dem Subjekt im epistemischen Zustand κ bereits gegeben ist. Im Gegensatz zu vorhin ist das aber auch nicht ausgeschlossen; es ist durchaus zugelassen, daß κ(A) > 0. An dieser Stelle wird deutlich, wieso unsere Definition 6.2 mit
der Formulierung „ κ(B | A) > κ(B | A) “ dem alternativen Definitionsvorschlag
mit der Formulierung „ κ(B | A) > κ(B) “ vorzuziehen ist. Stellen wir uns die folgende, gewöhnliche Sachlage vor: X befinde sich zunächst im Zustand κ, worin er
gegenüber A und B neutral ist, d.h. κ(A) = κ(A) = κ(B) = κ(B) = 0, und worin A
ein hinreichender Grund für B ist, d.h. κ(B | A) > κ(B | A) = 0 ; demnach gilt auch
κ(B | A) > κ(B) = 0 . X werde nun darüber informiert, daß A vorliegt; er kommt
212
damit in den Zustand κ' = κA,α für ein α > 0. Ist dann in κ' A immer noch ein hinreichender Grund für B ? Gemäß Definition 6.3, ja; es gilt unverändert
κ '(B | A) > κ '(B | A) = 0 . Aber es gilt nun κ '(B) > 0 und womöglich sogar
κ '(B | A) ≤ κ '(B), so daß A nach der alternativen Definition in κ' kein hinreichender und vielleicht gar kein Grund mehr für B wäre. Doch das wäre unangemessen;
ein Grund hört nicht auf, ein Grund zu sein, bloß weil man von seinem Vorliegen
Kenntnis erlangt. Vielmehr hält ein Grund, wenn man über sein Vorliegen informiert wird, die Glaubwürdigkeit dessen, was er begründet, hoch – in dem Sinne,
daß die Glaubwürdigkeit des Begründeten wieder sinken würde, falls sich diese
Information als falsch herausstellte. Und genau das wird von den Definitionen 6.2
und 6.3 richtig erfaßt.
Im übrigen erweisen sich auch hier die OKFs den EKFs und allem Vergleichbaren als überlegen. Denn relativ zu EKFs wäre es ganz unmöglich gewesen, das
zu definieren, was wir nun als zusätzliche und schwache Gründe bzgl. einer OKF
κ definiert haben.1
So weit dürfte unsere Explikation ziemlich unstrittig sein. Wenden wir uns nun
dem zweiten, mit Ursachen befaßten Teil unserer heuristischen Überlegung zu,
der ja entschieden windiger war und dessen Präzisierung daher eine gründliche
Absicherung folgen muß. Zunächst sei ein nützlicher Hilfsbegriff eingeführt;
Definition 6.4: Seien A, B, C ∈ A, so daß P(A ∩ C) ≠ 0 ≠ P(A ∩ C) bzw. A ∩
C ≠ ∅ ≠ A ∩ C. Dann ist A unter (der Bedingung) C ein Grund für B bzgl. P genau dann, wenn A ein Grund für B bzgl. PC ist;2 und A ist unter C ein Grund für B
(der Art a) bzgl. κ genau dann, wenn A ein Grund (der Art a) für B bzgl. κ(. | C)
ist.3
Die präzise Version unserer heuristischen Idee lautet dann so:
Definition 6.5: Seien i, j ∈ I, A ∈ Ai, B ∈ Aj, ω ∈ Ω und Z ω derjenige Sachverhalt aus Z<i j für den ω ∈ Zϖ. Dann ist A in ω eine direkte Ursache für B bzgl. P
genau dann, wenn ω ∈ A ∩ B, τi < τj und A unter Zω. ein Grund für B bzgl. P ist;
1
Vgl. auch S. 177.
Zur Definition von PC s. S. 147.
3
κ(. | C) ist natürlich die Funktion, die jedem D ∈ A die Zahl κ(D | C) zuordnet; vgl. S. 176.
2
213
und A ist in ω eine direkte Ursache (der Art a) für B bzgl. κ genau dann, wenn ω
∈ A ∩ B, τi < τj und A unter Zω ein Grund (der Art a) für B bzgl. κ ist.
Hier sind einige – acht – erläuternde Bemerkungen am Platze:
Erstens kommen als Ursachen und Wirkungen, im Gegensatz zu Gründen und
Begründetem, nicht beliebige Sachverhalte in Frage. In Definition 6.5 müssen
Sachverhalte – aufgrund der Forderung, daß A ∈ Ai und B ∈ Aj – jeweils nur einen Faktor betreffen und sich so jeweils auf einen bestimmten Zeitindex1 beziehen, um Ursachen und Wirkungen sein zu können. Für je zwei solcher Sachverhalte scheint mir im Prinzip die Frage, ob der eine Ursache des anderen ist, immer
sinnvoll zu sein. Daß diese Frage auch für andere, komplexere Sachverhalte sinnvoll ist, möchte ich nun nicht apodiktisch ausschließen. Aber ich bezweifle es.
Außerdem halte ich es nicht für sonderlich dringend und wichtig, ihr nachzugehen, da ich nicht sehe, daß sich daraus neue und interessante Probleme für eine
Kausalitätstheorie ergeben. Wie dem auch sei – hier wird es bei der Beschränkung
auf solche einfache Sachverhalte bleiben, im Vertrauen darauf, daß damit nichts
Wesentliches vernachlässigt ist.
Zweitens ist in Definition 6.5 die Bedingung festgeschrieben, daß eine Ursache
nicht später als ihre Wirkung stattfinden darf. (Daß die Ursache der Wirkung sogar vorangeht, ergibt sich dann einfach daraus, daß Ursache und Wirkung natürlich zwei verschiedene Faktoren betreffen müssen und daß wir gemäß unserer
technischen Beschränkung von S. 206 keine zwei gleichzeitigen Faktoren haben.)
Trotz aller gegenteiligen Spekulationen2 halte ich diese Bedingung für so selbstverständlich, daß ich sie hier nicht problematisieren will. Sie ist freilich so zentral,
daß die hier vorgelegte Kausalitätstheorie ohne sie auch im Kern nicht mehr zu
retten wäre.
Drittens ist nun leicht zu sehen, wozu die Annahme, daß Ω endlich ist, gut ist.
Denn wenn Ω nicht endlich wäre, so wäre auch nicht mehr die Endlichkeit von
Z<i j garantiert, und dann gälte für das Zω aus Definition 6.5 in aller Regel, daß
P(Zω) = 0. In diesem Fall greift die Definition 6.5 nicht mehr. Die Probleme mit
der Verallgemeinerung auf den unendlichen Fall fangen also schon ganz am Anfang an.
1
2
Welcher nicht ein Zeitpunkt zu sein braucht; vgl. S. 107.
Vgl. S. 23.
214
Viertens ist zu betonen, daß der Ursachenbegriff gemäß Definition 6.5 auf einen möglichen Verlauf ω ∈ Ω relativiert ist. Das ist unerläßlich, nicht nur weil A
und B in ω vorliegen müssen, damit A in ω eine Ursache für B sein kann – das
findet in der Bedingung, daß ω ∈ A ∩ B, seinen Niederschlag –, sondern vor allem weil es dafür, ob A in ω eine Ursache für B ist, in der Regel auf die übrigen
Tatsachen in ω ankommt. Will man nun noch sagen, wann A tatsächlich eine Ursache für B ist, so braucht man einfach einen Verlauf aus Ω als den tatsächlichen
auszuzeichnen. Freilich – will man wissen, ob A tatsächlich eine Ursache für B ist,
so muß man wissen, welcher Verlauf der tatsächliche ist (oder zumindest hinreichend viel von ihm kennen); und das ist natürlich nicht mehr so einfach. Doch ist
das ein reales Problem einer jeden Ursachenforschung, welches unsere Explikation nicht lösen kann, sondern lediglich widerzuspiegeln hat; und das tut sie.
Fünftens ist die Bedingung, daß A in ω nur dann eine Ursache von B ist, wenn
A unter Zω ein Grund für B ist, zunächst nur eine formale Präzisierung unserer
heuristischen Bestimmung dessen, was wohl der Hintergrund eines Seinsgrunds
sei; Zω ist ja gerade der Sachverhalt, der die gesamte Vergangenheit von B in ω
mit Ausnahme von A zusammenfaßt. Eine detailliertere Begründung für diese
Bedingung wird, wie angekündigt, bald nachgereicht. Aber es ist jetzt schon klar,
daß diese Bedingung nur direkte Ursachen charakterisieren kann; für eine indirekte Ursache ist das ganze Zω offenkundig zuviel an Hintergrund, da es auch all
das festhält, was zwischen der indirekten Ursache und ihrer Wirkung vermittelt.1
Die Definition 6.5 beschränkt sich dementsprechend. Aufheben wollen wir diese
Beschränkung erst im Abschnitt 6.4.
Sechstens enthält Zω, auch wenn ω der tatsächliche Verlauf ist, natürlich nicht
die gesamte tatsächliche Vergangenheit von B, sondern nur so viel davon, wie mit
dem durch (〈Ωu, Au〉)u∈U, T und ≤ gegebenen und auf die Faktorenmenge I eingeschränkten begrifflichen Rahmen beschreibbar ist. Darin liegt eine weitere wesentliche Relativierung des Ursachenbegriffs. Es ist somit möglich, daß die (direkten) Ursachenverhältnisse innerhalb eines engeren begrifflichen Rahmens sich
bei der Erweiterung des begrifflichen Rahmens ändern.2 Diese Relativierung ist
aber ganz natürlich, wie etwa das Beispiel einer Würfelmaschine zeigt, bei der das
Ergebnis des einen Wurfes für das Ergebnis des nächsten Wurfes ursächlich oder
1
Vgl. Kapitel 3, Fall 4, S. 69ff.
Bei den Gründen ist das nicht so; wenn A innerhalb eines engeren Rahmens ein Grund für B ist, so
auch innerhalb jeder Erweiterung dieses Rahmens. Die Begründungsrelation ist also nicht in dieser
Weise relativiert.
2
215
nicht ursächlich ist, je nachdem, ob wir die Maschine als ein kontinuierliches,
deterministisches mechanisches System oder bloß als einen diskreten, probabilistischen Automaten betrachten. Diese Relativierung ist auch nützlich, weil mit
ihr erst explizit wird, daß wir eine Kausalitätstheorie auf verschiedene Wirklichkeitsbereiche anwenden können und wollen. Und vor allem ist sie ganz unumgänglich, solange unsere Kausalitätstheorie sich an das Ergebnis von Kapitel 4
hält und mit Sachverhalten arbeitet. Wollte man diese Relativierung aufheben, so
bräuchte man einen begrifflichen Rahmen, mit dem sich die Welt vollständig
beschreiben läßt. Dieser läßt sich vielleicht in dem Sinne finden, in dem Ereignisse vielleicht als Sachverhalte darstellbar sind,1 aber diese Möglichkeit ist viel zu
spekulativ, als daß daraus ein Argument für den Verzicht auf diese Relativierung
zu ziehen wäre.
Siebtens ist vielleicht hier schon einem Einwand zu begegnen. Es mag vielleicht absurd erscheinen, die Definition 6.5 auf direkte Ursachen einzuschränken
und dennoch zuzulassen, daß die Wirkung von ihrer direkten Ursache zeitlich weit
entfernt ist. Wenn das absurd ist, so jedoch nur aufgrund unserer eingefleischten
Vorstellungen über die Kausalstruktur der Welt, wonach Kausalketten kontinuierlich oder, innerhalb einer diskreten Zeit, zumindest lückenlos zu sein haben. Doch
empfiehlt es sich, zunächst so allgemein wie möglich zu bleiben und auf diese
Vorstellungen keine Rücksicht zu nehmen, weil man dann umso besser sagen
kann, worin diese Vorstellungen überhaupt bestehen.
Achtens und letztens müssen wir aufpassen, daß wir die Definition 6.5 unter
den gegebenen Interpretationsmöglichkeiten von P und κ nicht falsch verstehen.
Wenn wir P bzw. κ realistisch oder objektivistisch interpretieren können, wenn
wir also P bzw. κ als ein W-Maß bzw. eine OKF verstehen können, das bzw. die
unsere Welt oder den betrachteten Ausschnitt davon korrekt repräsentiert – was
immer das genau heißt –, und wenn außerdem ω der tatsächliche Verlauf ist, dann
können wir die Definition 6.5 so lesen, wie wir es gerne wollen; daß A in ω eine
direkte Ursache für B bzgl. P bzw. κ ist, heißt dann, daß A objektiv und tatsächlich – und nicht für den oder jenen oder nach dem derzeitigen Erkenntnisstand
oder sonstwie relativiert – eine direkte Ursache für B ist. Allerdings haben wir
noch keine realistische Interpretation von OKFs, und die von W-Maßen ist auch
1
Vgl. S. 139ff.
216
nicht sonderlich klar und ordentlich.1 Betrachten wir nun die bisher hauptsächlich
besprochene, klarere epistemische oder subjektivistische Interpretation von P und
κ, wonach P bzw. κ als der epistemische Zustand einer Person X zu einem Zeitpunkt t zu verstehen ist. Was soll es dann heißen, daß relativ dazu A in ω eine
Ursache für B ist? Es heißt nicht, daß X zu t glaubt, daß A eine Ursache für B ist;
denn im Zustand P bzw. κ braucht X nicht vom Vorliegen von A und B überzeugt
zu sein; und erst recht braucht X nicht zu wissen, ob ω der tatsächliche Verlauf ist.
Es heißt vielmehr etwas Komplizierteres, nämlich daß X zu t A für eine Ursache
für B halten würde, wenn er darüber informiert würde, daß ω der tatsächliche
Verlauf ist. Wir werden im nächsten Abschnitt sehen, wie wir in unserem Rahmen
nicht-hypothetische Kausalüberzeugungen von X, also die Wendung „X hält zu t
A für eine Ursache von B“ explizieren können.
So weit die Bemerkungen zur Absicherung des richtigen Verständnisses von
Definition 6.5. Daß sie eine richtige Explikation des Begriffs der direkten Ursache
liefert, ist damit noch nicht gesagt. So müssen wir in diesem Abschnitt noch einiges zur Verteidigung dieser Explikation tun.
Wem die heuristische Überlegung zu Beginn dieses Abschnitts zugesagt hat,
der mag daraus ein wenig Bestätigung für die Definition 6.5 gewinnen. Wem die
gesamte, auf der Grundlage von Definition 6.5 zu entwickelnde Kausalitätstheorie
gefällt, der wird darin den letztlich einzig entscheidenden Grund dafür erblicken,
diese Explikation zu akzeptieren. Aber es gibt auch ein Argument mittlerer Länge
und Schlagkraft, nämlich daß unsere Explikation die im Kapitel 2 dargelegten
Auffassungen teils präzisiert, teils verbessert und jedenfalls gut mit ihnen übereinstimmt. Dies sei im folgenden kurz ausgeführt.
Wenden wir uns dazu zunächst dem im Abschnitt 2.4 geschilderten probabilistischen Paradigma von Suppes (1970) zu. Dieses begann damit, Prima-facieUrsachen gerade als Gründe im Sinne von Definition 6.1 zu definieren.2 Primafacie-Ursachen durften freilich keineswegs mit direkten Ursachen gleichgesetzt
werden. Es gab nämlich zwei Täuschungsmöglichkeiten; Prima-facie-Ursachen
konnten bloß scheinbare, d.h. gar keine Ursachen sein, und sie konnten zwar Ur-
1
Was uns natürlich nicht zu hindern braucht, an die Definition 6.5 quasi im Vorgriff die objektivistische Lesart anzulegen. Auf die objektivistische Interpretation gehen wir ja noch im Abschnitt
6.5 ein.
2
Unter Hinzunahme der Minimalbedingungen, dass Prima-facie-Ursache und -Wirkung beide
vorliegen und dass erstere zweiterer vorangeht.
217
sachen, aber bloß indirekte sein. Erst durch Ausschaltung dieser beiden Täuschungsmöglichkeiten ließen sich nach Suppes direkte Ursachen definieren.1
Diese Explikationsstrategie von Suppes scheint mir sehr überzeugend zu sein.
Denn was nach systematischem Ausschluß aller Täuschungsmöglichkeiten immer
noch eine Ursache zu sein scheint, muß dann tatsächlich eine Ursache sein. Nur
hat Suppes nicht alle Täuschungsmöglichkeiten in Rechnung gestellt. Erinnern
wir uns an das Kapitel 3; dort hatten wir insgesamt fünf Täuschungsmöglichkeiten
ausgemacht. Erstens war es im Fall 3 (S. 66ff.) möglich, daß B unter Außerachtlassung von A eine Ursache von C zu sein schien und dann tatsächlich nur ein
Symptom für C und wie C eine Wirkung von A ist. Zweitens war es im Fall 4 (S.
69ff.) möglich, daß sich A nach Berücksichtigung von B als indirekte Ursache von
C herausstellt, während es sich vorher als Nicht-Ursache von C darstellen konnte
(und auch als direkte Ursache von C). Drittens konnte es im Fall 5 (S. 71ff.) passieren, daß die Sachverhalte A und B beide Ursachen für C sind, obwohl jeder von
beiden nicht danach aussah, solange man den jeweils anderen nicht in Rechnung
stellte. Viertens lud der Fall 8 (S. 79ff.) zu dem Irrtum ein, A bzw. B für eine Ursache von C zu halten, wo es doch tatsächlich durch B bzw. A außer Kraft gesetzt
war. Und fünftens schien mir in dem vertrackten Relais-Fall (S. 81ff., insbes. S.
87) eine letzte Täuschungsmöglichkeit zu liegen; dort konnte es sein, daß B in
Bezug auf C als Relais fungierte und so gar nicht als Ursache von C auffällt, weil
A eben auch über non-B C verursacht hätte.
Gehen wir nun davon aus, daß diese Liste komplett ist.2 Was resultiert dann
relativ zu dieser Liste aus Suppes’ Explikationsstrategie? Zunächst gilt dies: Wo
es uns derzeit nur um direkte Ursachen geht, sind die zweite und die fünfte Täuschungsmöglichkeit nicht relevant; denn in beiden täuscht man sich über eine indirekte Ursache – in der zweiten expressis verbis, aber auch in der fünften, da
Relais immer indirekte Ursachen sind.3 Die erste und die vierte Täuschungsmöglichkeit schlüsseln Suppes’ Fall der scheinbaren Ursachen auf und ergänzen ihn
außerdem; denn wenn B das zeitlich frühere A in Bezug auf C außer Kraft setzt, so
1
Vgl. S. 55ff.
In die laufende Argumentation geht damit also, genau genommen, das gesamte Kapitel 3 ein –
d.h. die im Abschnitt 3.4 abgestützte Hoffnung, daß das Kapitel 3 wirklich alle möglichen Kausalverhältnisse (zwischen drei Sachverhalten) und alle in ihnen liegenden Irrtumsquellen aufzählte.
Auch geht darin wiederum die zentrale Annahme ein, daß sich eine Ursache nicht später ereignen
kann als ihre Wirkung; denn andernfalls wäre nicht auszuschließen, daß auch nach der Wirkung
eintretende Tatsachen unmittelbar Täuschungsmöglichkeiten begründen.
3
Vgl. S. 99.
2
218
ist A aufgrund eines späteren Sachverhalts eine bloß scheinbare Ursache von C;
bei Suppes hingegen konnte nur ein A vorangehender Sachverhalt A unwirksam
machen.1 Die dritte Täuschungsmöglichkeit schließlich fehlt bei Suppes völlig; sie
zeigt, daß ein Sachverhalt, der prima facie keine Ursache ist, sich doch als Ursache – als eine versteckte, wie wir sagen könnten – herausstellen kann.
Wie lassen sich diese drei Täuschungsmöglichkeiten systematisch und vollständig ausschließen? Nun – gerade und nur durch die Definition 6.5. Dies liegt
an dem Wechselspiel, welches sich zwischen scheinbaren und versteckten Ursachen entspinnt. Es besteht in folgendem: Wenn etwa A prima facie eine Ursache
für B ist, so kann sich A nach Berücksichtigung zusätzlicher Information als
scheinbare Ursache für B darstellen, nach Berücksichtigung weiterer Information
jedoch wieder als versteckte Ursache, und so weiter. Dieses Wechselspiel endet
erst dann, wenn keine weitere relevante Information mehr auftauchen kann. Somit
läßt sich nur nach Berücksichtigung aller relevanten Informationen definitiv beurteilen, ob A eine direkte Ursache von B ist oder nicht. Nun kann im Prinzip aber
jede und nur eine vor A oder zwischen A und B gelegene Tatsache relevant sein;
jede und nur eine solche Tatsache kann, wie die drei Täuschungsmöglichkeiten
zeigen, A als eine scheinbare oder eine versteckte direkte Ursache hinstellen.
Weitere relevante Information kann somit erst dann nicht mehr auftauchen, wenn
alle und nur diese Tatsachen berücksichtigt sind. Im Verlauf ω ∈ Ω wird aber die
Konjunktion aller dieser Tatsachen gerade durch den Sachverhalt Zω aus Definition 6.5 repräsentiert. Das heißt schließlich, daß A in ω genau dann eine direkte
Ursache von B ist, wenn es unter Zω ein Grund für B ist – wie zu begründen war.
Hier hat sich im übrigen dauernd die Relativierung auf den gegebenen begrifflichen Rahmen bemerkbar gemacht; denn wenn ich gerade von allen Tatsachen
oder allen relevanten Informationen sprach, so konnten damit natürlich nur die
gemeint sein, die im gegebenen begrifflichen Rahmen repräsentierbar sind.
Der Vergleich mit Suppes’ Theorie läßt sich also kurz so zusammenfassen:
Suppes hat die scheinbaren Ursachen etwas zu eng gefaßt und die versteckten
Ursachen ganz vernachlässigt. Korrigiert man beides, so wird man quasi automatisch von Suppes’ Explikation direkter Ursachen zum probabilistischen Teil unserer Definition 6.5 geführt. Es dürfte klar sein, daß sich genau die gleiche Überlegung auch innerhalb des deterministischen Rahmens anstellen läßt. Ich habe sie
1
Vgl. S. 55f.
219
nur deshalb im probabilistischen Rahmen geführt, weil Suppes’ Explikationsstrategie bisher nur in diesem Rahmen, eben von Suppes selbst, realisiert worden ist.
Damit sind wir beim Vergleich mit den deterministischen Explikationen von
Kapitel 2 angelangt. Betrachten wir statt der klassischen Regularitätstheorie, die
sich ja als allzu vorläufig erwiesen hat, gleich die verbesserte. Gegenüber dieser
hat die Definition 6.5 den im Kapitel 5 erstrittenen Vorteil, sich auf OKFs statt auf
wahre Naturgesetze zu beziehen; der dafür bezahlte Preis, nämlich der Verlust
einer realistischen Interpretation von Kausalaussagen, ist freilich erst noch zurückzugewinnen. Die andere wesentliche Verbesserung ist, daß wir die obwaltenden Umstände von S. 36f., die unklar waren und uns gar in Zirkel zu verstricken
drohten, durch das eindeutige Zω von Definition 6.5 ersetzt haben. Diese Ersetzung scheint vorderhand nicht ganz angebracht; Zω scheint in zweierlei Hinsicht
zu viel an obwaltenden Umständen zu enthalten:
Zum einen – so hatten wir auf S. 39 ausgeführt – ist es unzulässig, alle Tatsachen zwischen einer Ursache A – z.B. daß die Ampel auf rot steht – und ihrer
Wirkung B – z. B. daß der Autofahrer anhält – zu den obwaltenden Umständen zu
rechnen; denn unter diesen Tatsachen – die z.B. einschließen, daß der Autofahrer
aufs Bremspedal tritt – ist A kein Grund mehr für B. Doch ist dieser Punkt, wie
das Beispiel zeigt, nur bei indirekten Ursachen einschlägig; und deshalb setzt sich
die Definition 6.5 nicht in Widerspruch dazu. Er wird also erst dann zu beachten
sein, wenn wir uns der Explikation indirekter Ursachen zuwenden.
Zum andern wird Zω in dem harmloseren Sinne zuviel an obwaltenden Umständen sein, daß es eine Menge an Irrelevantem enthält. Z.B. wird für das Kausalverhältnis zwischen der roten Ampel und dem haltenden Autofahrer die Lebensgeschichte von Karl dem Großen gänzlich irrelevant sein.1 Doch hat man hier
das Gefühl, daß all das Irrelevante, was Zω enthalten mag, auch nicht schaden und
so die Definition 6.5 nicht falsch machen kann. Das ist freilich noch kein Argument. Ein präzises Argument hätte so vorzugehen: erst wäre zu explizieren, wann
genau ein Sachverhalt für ein gegebenes Kausalverhältnis irrelevant ist, und dann
wäre zu beweisen, daß es keinen Unterschied macht, ob man die Definition 6.5 so
wie oben formuliert oder ob man darin aus Zω all das im explizierten Sinne Irrele-
1
Und der zugrundegelegte Prozeßraum kann ja so aussehen, daß Zω Aussagen über Karl den Großen enthält.
220
vante eliminiert. Dieses Argument läßt sich mit den im Abschnitt 6.4 bereitgestellten Mitteln ausführen.1
Mit diesen Überlegungen dürfen wir also annehmen, daß die Definition 6.5,
was die obwaltenden Umstände betrifft, mit der verbesserten Regularitätstheorie
in Einklang steht und sie gleichzeitig präzisiert.
Daß die Definition 6.5 schließlich auch im Geiste des kontrafaktischen Ansatzes von Abschnitt 2.3 ist, versteht sich fast von selbst, wo wir diese Definition aus
diesem Ansatz entwickelt haben. Und doch müssen wir auch in diesem Zusammenhang auf die obwaltenden Umstände eingehen. Denn es zeigt sich eine Diskrepanz; auf S. 49f. hatten wir erklärt, daß in kontrafaktischen Aussagen die obwaltenden Umstände nicht explizit mitformuliert zu werden brauchten, und nun
müssen wir sie in Definition 6.5 explizit nennen. Diese Diskrepanz bedarf einer
kurzen Erläuterung, die einfach genug ist; sie liegt in unserer konsequent epistemischen Interpretation von OKFs: Solange es direkt um eine formalsemantische
Bestimmung der Wahrheitsbedingungen von Konditionalsätzen ging – wie in den
beiden, im Abschnitt 2.3 geschilderten Ansätzen zur Konditionallogik –, sind so
etwas wie die obwaltenden Umstände implizit im jeweiligen semantischen Apparat berücksichtigt; für die metasprachliche Theorie des Konditionals hatte ich darauf schon auf S. 50 hingewiesen, und bei Lewis’ Ähnlichkeitssemantik wird dies
besonders augenfällig in der sogenannten Zentriertheitsbedingung für Lewis’
Ähnlichkeitsstrukturen.2 Wir hatten uns jedoch wegen mangelnder Klarheit des
semantischen Apparats von der direkten Suche nach Wahrheitsbedingungen für
Konditionalsätze abgewandt und EKFs wie OKFs als epistemische Zustände interpretiert, in denen die obwaltenden Umstände natürlich nicht als bekannt angenommen werden dürfen. So müssen wir wieder explizit von ihnen zu reden anfangen. Dies scheint mir im übrigen ein Vorteil zu sein; denn damit können wir die
mit ihnen verknüpften Zirkularitätsprobleme thematisieren und, wie es scheint,
auch lösen.
1
Im übrigen ist dieses Argument auch für den probabilistischen Fall wichtig. Denn als es vier
Absätze weiter oben um den systematischen Ausschluß aller Täuschungsmöglichkeiten ging, war
ich eigentlich etwas schlampig; ich hatte nicht genau zwischen tatsächlich relevanter und möglicherweise relevanter Information unterschieden. Am Ende kam ich zu dem Schluß, daß alle möglicherweise relevante Information, eben das ganze Zω, in Betracht zu ziehen sei. Und so ist auch hier
noch zu zeigen, daß es keinen Unterschied macht, ob man nur die tatsächlich relevante oder zusätzlich die tatsächlich irrelevante, aber potentiell relevante Information in Rechnung stellt.
2
Vgl. hier S. 166f. oder Lewis (1973a), S. 14f. und 29f.
221
Hier läßt sich noch ein wichtiger Nachtrag zu den S. 163ff. anfügen, wo ich in
Bezug auf Konditionalaussagen erläutert hatte, was ich dort die ausdruckssemantische Strategie nannte: Auf S. 163 hatte ich die These aufgestellt, daß es gerade
die durch EKFs oder besser durch OKFs beschriebenen epistemischen Zustände
sind, die in Konditionalaussagen zum Ausdruck kommen. Damit war freilich noch
nichts darüber gesagt, wie diese Zustände in den Konditionalaussagen zum Ausdruck kommen. Z.B. war man nicht genötigt, folgendes zu behaupten:1 wenn X
„wenn A nicht der Fall gewesen wäre, so wäre auch B nicht der Fall gewesen“
äußert und wenn die OKF κ X’s epistemischen Zustand zum Zeitpunkt der Äußerung repräsentiert, so drückt X damit aus, daß κ(B | A ) > 0. Was X sonst damit
ausdrücken könnte, konnten wir damals noch nicht sagen, aber das können wir
jetzt nachholen – zumindest für den normalen Fall, wo es i, j ∈ I mit A ∈ Ai, B ∈
Aj und τi < τj gibt: Sei nämlich für ω ∈ Ω Zω wie in Definition 6.5 definiert und
sei C ={ω | 0 = κ(B | A ∩ Zω) < κ(B | A ∩ Zω)}, d.h. die Menge der möglichen
Verläufe, in denen A eine notwendige direkte Ursache für B bzgl. κ ist. Dann
könnte X mit der genannten Äußerung ausdrücken, daß κ (C) > 0, d.h. daß er
glaubt, daß C, daß also die Vergangenheit von B (ausgenommen i) so beschaffen
ist, daß A in ihr seines Erachtens eine notwendige direkte Ursache von B ist. X
behauptet damit also, daß C, und so wird auch verständlich, wieso man mit X Tatsachendispute über seine Äußerung führen kann.
Dieser Vorschlag ist freilich noch keineswegs perfekt – einfach weil in ihm
ein direktes Ursachenverhältnis zwischen A und B unterstellt wird, was in X’s
Äußerung natürlich nicht enthalten ist; mit der Explikation indirekter Ursachenverhältnisse könnten wir diesen Vorschlag also noch verbessern. Aber er konkretisiert – und darauf kam es mir an – meine Behauptung von S. 164: daß nämlich
die Ausdrucksbeziehung zwischen Äußerungen oder Sätzen und epistemischen
Zuständen komplex ist und daß also – wenn der psychologische Teil der ausdruckssemantischen Strategie mit den OKFs erschöpfend behandelt sein sollte –
ihr semantischer Teil trotzdem nicht trivial ist und aber einen einheitlichen Rahmen erhält.
So weit meine vertrauensbildenden Maßnahmen für die Definition 6.5. Schon
die bisherigen Definitionen finden nun – ohne daß es nötig wäre, weitere kausale
Begriffe zu explizieren – einige wichtige philosophische Anwendungen. Mit diesen befassen sich die nächsten Abschnitte. Hier seien nur noch drei triviale Ko1
Auch wenn es für anders formulierte Konditionalaussagen manchmal richtig zu sein schien.
222
rollare nachgereicht, die einige zu erwartende Eigenschaften direkter Ursachen
festhalten.
Korollar 6.6: Sei A ∈ Ai, B ∈ Aj, τ i < τj und ω ∈ A ∩ B. Sei ferner ω1 ∈ A
so, daß für alle k ∈ I mit k ≠ i ω1(k) = ω(k); ω2 ∈ B so, daß für alle k ∈ I mit k ≠
j ω2(k) = ω(k); und ω3 ∈ A ∩ B so, daß für alle k ∈ I mit k ≠ i, j ω3(k) = ω(k). Ist
dann A in ω eine direkte Ursache für B bzgl. P bzw. κ, so ist A in ω3 eine direkte
Ursache für B bzgl. P bzw. κ, aber weder A in ω 1 eine direkte Ursache für B
noch A in ω2 eine direkte Ursache für B bzgl. P bzw. κ.
Aussage wie Beweis hiervon sind trivial; insbesondere ist damit gesagt, daß,
wie gewünscht, weder der Relais-Fall noch der seltsame Fall 10 aus Kapitel 3 bei
direkten Ursachenverhältnissen möglich sind.
Korollar 6.7: Sei A ∈ Ai, B ∈ Aj C ∈ Ak, τi < τj < τk und ω ∈ A ∩ B ∩ C. Dann
ist es möglich, daß A und B beide in ω direkte Ursachen (der Art a) bzgl. P bzw. κ
sind.
Beispiele, die diese Möglichkeiten demonstrieren, sind leicht konstruiert. Mithin kann sich der Fall 5 aus Kapitel 3, wie gewünscht, mit direkten Ursachenbeziehungen realisieren. Insbesondere kann also ein Sachverhalt mehrere hinreichende direkte oder auch mehrere notwendige direkte Ursachen haben.
Korollar 6.8: Seien A, B, C und ω wie in Korollar 6.7. Sei A für B und auch B
für C in ω eine direkte Ursache (der Art a) bzgl. P bzw. κ. Dann ist es möglich,
daß A in ω keine direkte Ursache (der Art a) für C bzgl. P bzw. κ ist; und es ist
auch möglich, daß A in ω eine direkte Ursache (der Art a) für C bzgl. P bzw. κ ist.
Wiederum sind Beispiele zur Demonstration dieser Möglichkeiten leicht aufzufinden. Der Begriff der direkten Ursache (der Art a) ist also bei gegebenen ω
und P bzw. κ eine Relation, die weder transitiv noch intransitiv ist. Transitivität
wäre ohnehin absurd; aber auch Intransitivität wäre unerwünscht, wie die Kombination 2a + 5 auf S. 76 des Kapitels 3 zeigt. Im übrigen ist die Irreflexivität und
auch die Asymmetrie der direkten Ursachenrelation natürlich schon durch die
temporalen Bedingungen der Definition 6.5 gesichert.
223
6.2
Wann direkte Ursachen Gründe sind
Nachdem wir nun den Begriff des (epistemischen) Grundes und den der direkten Ursache expliziert haben, stellt sich sogleich die Frage, was daraus über das
theoretische Verhältnis zwischen Gründen und direkten Ursachen folgt; und um
diese Frage geht es im folgenden. Unter anderem Namen ist dieses Verhältnis ja
schon ausführlich diskutiert worden, nämlich als die These von der strukturellen
Gleichartigkeit von Erklärungen und Voraussagen. Diese Diskussion ist in Stegmüller (1983) bestens resümiert – im Kapitel II der Stand bis 1969 und im Kapitel
XI neuere Entwicklungen. Resümieren wir unsererseits ganz kurz Stegmüllers
Ergebnisse:
Danach gelten einige offenkundige Asymmetrien zwischen Voraussagen und
Erklärungen – da sie eher pragmatischer Natur sind – nicht als Einwände gegen
die Gleichartigkeitsthese: etwa der Umstand, daß sich Voraussagen auf zukünftige
Sachverhalte, die nicht einzutreffen brauchen, beziehen und Erklärungen auf vergangene Tatsachen, oder der, daß man sich bei einer akzeptierten Voraussage wie
auch bei als Erklärung Akzeptiertem auf akzeptierte Prämissen beruft, während
eine tatsächliche Erklärung wahre Prämissen benötigt. Es gibt aber eine – und nur
eine – gravierende Asymmetrie: Erklärungen müssen Seinsgründe oder Ursachen
nennen, während es für Voraussagen völlig hinreicht, daß sie auf Erkenntnisgründen, also auf Gründen, beruhen.1 Da Seinsgründe für Stegmüller immer auch Erkenntnisgründe darstellen, ist für ihn daher nur die eine Hälfte der Gleichartigkeitsthese haltbar, nämlich daß jede Erklärung einer Tatsache vor dem Eintritt
dieser Tatsache zu ihrer Voraussage hätte verwandt werden können.
An diesem Ergebnis hat die neuere Diskussion nichts Wesentliches geändert,
da auf sie zutrifft, was Stegmüller die Abkoppelungsthese nennt.2 Diese ist eher
eine Empfehlung, zwei Fragen, deren simultane Behandlung zu schwierig und zu
verwirrend wäre, besser zu trennen: zum einen die Frage nach einer adäquaten
Explikation des Ursachenbegriffs und, da der Erklärungsbegriff darüber hinaus1
Genau genommen, ist Stegmüller vorsichtiger. Man könne sich, so sagt er, auch dazu entschließen, den Erklärungsbegriff so schwach zu verstehen, daß Erkenntnisgründe für Erklärungen genügen; vgl. (1983), S. 235f. Aber ein solcher Entschluß liefe der umgangssprachlichen Intuition
zuwider und hätte offensichtlich nicht Stegmüllers Sympathie.
2
Vgl. Stegmüller (1983), S. 9, 633 und 954.
224
gehende Probleme aufwerfe, zum andern die Frage nach einer adäquaten Explikation eines schwächeren, Ursachen noch nicht voraussetzenden Erklärungsbegriffs.1
Dieser Abkoppelungsempfehlung folge ich hier offenkundig nicht, da hier sowohl der Begriff des Grundes wie der der Ursache expliziert wird.2 Aus diesen
Explikationen folgen nun leicht einige präzise Aussagen zur Gleichartigkeitsthese
– unter der Einschränkung, daß sich das Begriffspaar „Gründe und direkte Ursachen“ natürlich nicht exakt mit dem Begriffspaar „Voraussage und Erklärung“
deckt. Denn erstens können unsere Gründe sowohl im probabilistischen wie im
deterministischen Fall schwach sein, so daß sich auf ihnen nicht unbedingt eine
verantwortungsvolle Voraussage aufbauen läßt;3 und zweitens können sich Erklärungen auf beliebige Ursachen berufen, sie sind nicht auf direkte Ursachen eingeschränkt.4
Die erste Folgerung ist, daß der Begriff des Grundes und der der direkten Ursache voneinander logisch unabhängig sind. Wenn A ein Grund für B bzgl. P bzw. κ
ist, so braucht A nicht tatsächlich eine direkte Ursache für B bzgl. P bzw. κ zu
sein.5 Und umgekehrt gilt das ebenso. Dies wird an der in versteckten Ursachen
liegenden Täuschungsmöglichkeit6 besonders deutlich; Ursachen liefern eben,
solange sie versteckt sind, keine Gründe.
Wo eine zweite, positivere Folgerung in Bezug auf die Gleichartigkeitsthese
zu finden sein könnte, liegt damit schon auf der Hand. Denn natürlich können in
einer Erklärung, die wir geben, nicht Ursachen auftauchen, die für uns versteckt
sind; wir nennen dabei nur Sachverhalte, von denen wir schon annehmen, daß sie
tatsächlich Ursachen sind (und stimmt diese Annahme, so ist auch die Erklärung
richtig). Dieser Gedanke läßt sich formal so umsetzen:
1
Für Erklärungen in diesem schwächeren Sinne ist auch die mir in der Tat passender erscheinende
Bezeichnung „ex-post-facto-Begründung“ angemessen; vgl. Stegmüller (1983), S. 1007.
2
Dabei ist zu beachten, daß unser Begriff des Grundes gemäß den Definitionen 6.2 und 6.3 auch
für den Fall der ex-post-facto-Begründung geeignet ist – weil man eben ihnen zufolge für bereits
geglaubte Tatsachen Gründe sowohl haben wie bekommen kann; vgl. S. 211f.
3
Diesen Punkt diskutiert Stegmüller in (1983), S. 982f.
4
Diese Differenz ließe sich aber mit unseren späteren Explikationen zum Verschwinden bringen.
5
Die Richtigkeit dieser Feststellung hängt natürlich nicht daran, daß sich A und B womöglich gar
nicht für eine tatsächliche Ursachenbeziehung eignen; wir können also ruhig annehmen, daß A ∈
Ai. und B ∈ Aj für i, j mit τi < τi und daß der tatsächliche Verlauf Element von A ∩ B ist.
6
Vgl. S. 217f.
225
Definition 6.9: Sei A ∈ Ai, B ∈ Aj, τi < τj und E ∈ A. Dann ist A E-sicher eine
direkte Ursache für B bzgl. P genau dann, wenn A ∩ B ∩ E ≠ 0 und wenn für alle
ω ∈ A ∩ B ∩ E gilt, daß A in ω eine direkte Ursache für B bzgl. P ist; und A ist Esicher eine direkte Ursache (der Art a) für B bzgl. κ genau dann, wenn A ∩ B ∩ E
≠ 0 und wenn für alle ω ∈ A ∩ B ∩ E gilt, daß A in ω eine direkte Ursache (der
Art a) für B bzgl. κ ist.
Wenn also A E-sicher eine direkte Ursache für B bzgl. des epistemischen Zustands des Subjektes X ist und wenn X E glaubt, so darf man sagen, daß X A für
eine direkte Ursache von B hält.1 Nur solche Sachverhalte, die X für Ursachen
hält, kann X als erklärend akzeptieren. Inwieweit diese für X dann auch Gründe
sind, ist Inhalt der folgenden Sätze:
Satz 6.10: Sei A ∈ Ai, B ∈ Aj, τi < τj und E ∈ A<i j . Wenn dann A E-sicher eine
direkte Ursache für B bzgl. P ist, so ist A unter E ein Grund für B bzgl. P, sofern
die folgende Zusatzannahme erfüllt ist:
es gilt für alle x ∈ ∑ [P(Zω | A ∩ E) − P(Zω | A ∩ E)] ≥ 0, wobei Dx = {ω ∈
ω∈Dx
E | P(B | A ∩ Zω) ≥ x} und für jedes ω ∈ E Zω wieder das Element von Z<i j mit ω
∈ Zω sei, oder es gilt für alle x ∈
∑ [P(Zω | A ∩ E) − P(Zω | A ∩ E)] ≥ 0, woω∈Dx′
bei Dx′ = {ω ∈ E | P(B | A ∩ Zω) ≥ x} und Zω wie eben.
Beweis: Es gilt P(B | A ∩ E) – P(B | A ∩ E) =
=
∑ P(B | A ∩ Zω ) ⋅ P(Zω | A ∩ E) − P(B | A ∩ Zω ) ⋅ P(Zω | A ∩ E)
ω∈E
≥
∑ P(B | A ∩ Zω ) ⋅ P(Zω | A ∩ E) − P(B | A ∩ Zω ) ⋅ P(Zω | A ∩ E),
ω∈E
falls die erste Alternative der Zusatzannahme erfüllt ist; und der letzte Ausdruck
ist größer als 0, da für alle ω ∈ E P(B | A ∩ Zω) > P(B | A ∩ Zω). Für die zweite
Alternative ist der Beweisgang ebenso. Q.e.d.
1
Was wir in Definition 6.5 noch nicht hineinlesen durften; vgl. S. 215f.
226
Der Inhalt der Zusatzannahme von Satz 6.10 ist nicht so wichtig. Wesentlich
ist, daß im probabilistischen Fall weitere Bedingungen – seien es unsere oder irgendwelche andere – gegeben sein müssen, damit E-sichere direkte Ursachen unter E Gründe sind. Dieser mathematische Sachverhalt ist altbekannt, in der Statistik z.B. als Simpsons Paradox.1 Im deterministischen Fall ist es im allgemeinen
auch nicht anders:
Satz 6.11: Seien A, B und E wie in Satz 6.10. Wenn dann A E-sicher eine direkte Ursache für B bzgl. κ ist, so ist A unter E ein Grund für B bzgl. κ, sofern die
folgende Zusatzannahme erfüllt ist: es gibt ω1, ω2 ∈ E mit
κ(B ∩ Zω1 | A) = min κ(B ∩ Zω | A) und κ(B ∩ Zω 2 | A) = min κ(B ∩ Zω | A)
ω∈E
ω∈E
derart, dass
(a)
κ(B | A ∩ Zω1 ) ≤ κ(B | A ∩ Zω 2 ) und κ(B | A ∩ Zω 2 ) ≤ κ(B | A ∩ Zω1 ) oder
(b)
κ(B | A ∩ Zω1 ) ≤ κ(B | A ∩ Zω 2 ) und κ(B | A ∩ Zω 2 ) ≤ κ(B | A ∩ Zω1 ).
Beweis: Zunächst sei gezeigt, dass
(c)
κ(B | A ∩ E) ≤ κ(B | A ∩ Zω1 ) gilt.
(c) gilt jedenfalls, wenn κ(B ∩ E | A) ≥ κ(B ∩ E | A), da dann κ(B | A ∩ E) = 0.
Wenn aber κ(B ∩ E | A) < κ(B ∩ E | A), so gilt gleichfalls κ(B | A ∩ E)
= −κ(B ∩ E | A) + κ(B ∩ E | A) = −κ(B ∩ Zω1 | A) + κ(B ∩ E | A)
≤ −κ(B ∩ Zω1 | A) + κ(B ∩ Zω1 | A) = κ(B | A ∩ Zω1 ). Auf ähnliche Weise ist
zu zeigen, dass
(d)
κ(B | A ∩ E) ≥ κ(B | A ∩ Zω1 ),
(e)
κ(B | A ∩ E) ≥ κ(B | A ∩ Zω 2 ) und
(f)
κ(B | A ∩ E) ≤ κ(B | A ∩ Zω 2 ) gelten.
1
Diese Bezeichnung bezieht sich auf Simpson (1951), wenngleich die Sache schon länger bekannt
ist.
227
Nehmen wir nun an, daß (a) gegeben ist. Da A in ω 2 direkte Ursache für B
bzgl. κ ist, gilt
(g)
κ(B | A ∩ Zω 2 ) < κ(B | A ∩ Zω 2 ) oder κ(B | A ∩ Zω 2 ) < κ(B | A ∩ Zω 2 ) .
All das ergibt:
κ(B | A ∩ E) ≤ κ(B | A ∩ Zω1 ) (mit (c))
≤ κ(B | A ∩ Zω 2 ) (mit (a))
< κ(B | A ∩ Zω 2 ) (mit der ersten Alternative von (g))
≤ κ(B | A ∩ E) (mit (e)), oder
κ(B | A ∩ E) ≤ κ(B | A ∩ Zω 2 ) (mit (f)
< κ(B | A ∩ Zω 2 ) (mit der zweiten Alternative von (g))
≤ κ(B | A ∩ Zω1 ) (mit (a))
≤ κ(B | A ∩ E)
(mit (d)),
d.h. A ist unter E Grund für B bzgl. κ. Falls (b) gilt, läuft der letzte Beweisteil entsprechend. Q.e.d.
Wiederum ist der genaue Inhalt der Zusatzannahme in Satz 6.11 weniger wichtig als die Tatsache, daß Satz 6.11 nicht ohne diese oder eine andere Annahme
auskommt. Noch wichtiger ist aber vielleicht, daß man in bestimmten Fällen auf
diese Annahme verzichten kann. Dies besagt der
Satz 6.12: Seien A, B und E wie in Satz 6.10. Wenn dann A E-sicher eine
⎧hinreichende ⎫
⎨
⎬ direkte Ursache für B bzgl. κ ist, so ist A unter E ein
⎩ notwendige ⎭
⎧hinreichender ⎫
⎨
⎬ Grund für B bzgl. κ.
⎩ notwendiger ⎭
Beweis: Betrachten wir die „hinreichend“-Version. Hier gilt für alle ω ∈ E 0 =
κ(B | A ∩ Zω ) < κ(B | A ∩ Zω ) d.h. κ(Zω | A) = κ(B ∩ Zω | A) und κ(Zω | A) <
κ(B ∩ Zω | A) . Daraus folgt κ(E | A) = κ(B ∩ E | A) und κ(E | A) < κ(B ∩ E | A) .
Die „notwendig“-Version ist ebenso zu beweisen. Q.e.d.
228
Satz 6.12 garantiert uns also ohne Einschränkung die gewünschte Beziehung –
und zwar gerade für die im deterministischen Fall wichtigsten Arten von Gründen
und Ursachen. Einige Korollare runden das Bild ab:
Korollar 6.13: Wenn A unter E ein Grund für B bzgl. P ist und wenn P(E) = 1,
so ist A ein Grund für B bzgl. P. Wenn also A, B und E wie in Satz 6.10 sind, A Esicher eine direkte Ursache für B bzgl. P ist und P(E) =1, so ist A ein Grund für B
bzgl. P, sofern die Zusatzannahme von Satz 6.10 erfüllt ist.
Das deterministische Analogon dazu läuft nicht ganz so glatt:
Korollar 6.14: Wenn A unter E ein Grund für B bzgl. κ ist und wenn κ(E) > 0
und κ(A) = κ(A) = κ(B) = κ(B) = 0, so ist A ein Grund für B bzgl. κ.
B e w e i s : Es gilt κ(B | A ∩ E) < κ(B | A ∩ E) oder κ(B | A ∩ E) <
κ(B | A ∩ E) . Ferner gilt aufgrund der Annahmen κ(A ∩ E) = κ(A ∩ E) = 0.
Daraus folgt, daß
(a)
κ(A ∩ B ∩ E) < κ(A ∩ B ∩ E) oder κ(A ∩ B ∩ E) < κ(A ∩ B ∩ E).
In (a) müssen der erste oder vierte und der zweite oder dritte Term gleich 0 sein;
und da auch κ(B ∩ E) = κ(B ∩ E) = 0, müssen außerdem in (a) der erste oder
zweite und der dritte oder vierte Term gleich 0 sein. Also gilt κ(A ∩ B ∩ E) =
κ(A ∩ B ∩ E) = 0, und somit
(b)
κ(A ∩ B) = κ(A ∩ B) = 0.
Da κ(E) > 0, gilt auch κ(A ∩ B ∩ E) > 0 und κ(A ∩ B ∩ E) > 0 . Mit (a) folgt
daraus:
(c)
κ(A ∩ B) > 0 oder κ(A ∩ B) > 0.
(b) und (c) implizieren zuletzt, daß κ(B | A) < κ(B | A) oder κ(B | A) < κ(B | A)
gilt. Q.e.d.
229
⎧hinreichender ⎫
Korollar 6.15: Wenn A unter E ein ⎨
⎬ Grund für B bzgl. κ ist
⎩ notwendiger ⎭
⎧ κ(E | A) = 0 ⎫
und wenn κ(E) > 0, κ(A) = 0 und ⎨
⎬ , so ist A ein
⎩κ(B ∩ E | A) > 0 ⎭
⎧hinreichender ⎫
⎨
⎬ Grund für B bzgl. κ.
⎩ notwendiger ⎭
B e w e i s : Betrachten wir zuerst die „hinreichend“-Version. Hier gilt
κ(B | A ∩ E) = 0 < κ(B | A ∩ E), d.h.
(a)
−κ(A ∩ E) + κ(A ∩ B ∩ E) = 0 < −κ(A ∩ E) + κ(A ∩ B ∩ E).
Wegen κ(E | A) = 0 gilt κ(A) = κ(A ∩ E); und es gilt sowieso κ(A) ≤ κ(A ∩ B)
≤ κ(A ∩ B ∩ E). Also folgt mit (a) κ(A) = κ(A ∩ B), d.h. κ(B | A) = 0. Ferner
folgt aus (a) κ(A ∩ B ∩ E) > 0, und aus κ(E) > 0 folgt κ(A ∩ B ∩ E) > 0. . Beides zusammen liefert κ(A ∩ B) > 0 und wegen κ(A) = 0 daher auch κ(B | A) > 0.
Die „notwendig“-Version läuft etwas anders. Bei ihr gilt κ(B | A ∩ E) = 0 ,
< κ(B | A ∩ E), d.h.
(b)
−κ(A ∩ E) + κ(A ∩ B ∩ E) = 0 < −κ(A ∩ E) + κ(A ∩ B ∩ E).
Wieder gilt κ(A ∩ E) = 0, also mit (b) auch κ(A ∩ B ∩ E) = 0 und folglich
κ(A ∩ B) = 0 und κ(B | A) = 0. Da κ(A) ≤ κ(A ∩ E), impliziert (b), daß κ(A) <
κ(A ∩ B ∩ E). Die Prämisse κ(B ∩ E | A) > 0 besagt, daß κ(A) < κ(A ∩ B ∩ E).
Beides zusammen liefert κ(A) < κ(A ∩ B), d.h. κ(B | A) > 0. Q.e.d.
Der Übergang von Gründen unter einer Bedingung zu nicht-bedingten Gründen
ist also nur mit zusätzlichen Annahmen zulässig, selbst wenn die Bedingung für
wahr gehalten wird. Andere zusätzliche Annahmen als die in den Korollaren 6.14
und 6.15 hätten es auch getan; die angegebenen habe ich gewählt, weil sie mir in
Anwendungen häufig vorzuliegen scheinen.
Die Korollare 6.14 und 6.15 lassen sich mit den Sätzen 6.11 und 6.12 ebenso
zusammensetzen, wie es schon in Korollar 6.13 geschehen ist. Insbesondere liefern der Satz 6.12 und das Korollar 6.15 zusammen eine beweisbare Aussage, die
230
in unserem Rahmen der plausiblen Hälfte der Gleichartigkeitsthese, daß nämlich
Erklärungen als Voraussagen hätten dienen können, am ehesten gleichkommt.
Dies kann man als Bestätigung oder Rechtfertigung dieser Hälfte der Gleichartigkeitsthese auffassen. Fast das wichtigere Resultat scheint mir freilich zu sein, daß
solche Aussagen mit unseren Explikationen, sofern diese akzeptabel sind, überhaupt in den Stand der Beweisbarkeit und Widerlegbarkeit kommen.
6.3 Warum der Ursachenbegriff und das Kausalprinzip wichtig
sind1
Über das Verhältnis von Gründen und direkten Ursachen lassen sich noch
weitere Feststellungen treffen, die uns ganz an den Anfang dieser Arbeit zurückführen, nämlich zu den Problempunkten (1) und (2) des 1. Kapitels, d.h. zu den
Fragen, wieso kausale Begriffe für unsere Erfassung empirischer Wirklichkeit
eine so zentrale Rolle spielen und welche besondere Stellung das Kausalprinzip
dabei einnimmt.
Wenden wir uns zunächst der ersten Frage zu, zu der sich nun eine gar nicht
aufregende Antwort findet, die in ihrer Schlichtheit diese Frage vielleicht nicht
erschöpft, deren Banalität mir aber eher ein Vorzug zu sein scheint; denn gäbe es
darauf nur tüftelige, komplizierte Antworten, so wäre dieser Umstand nur seinerseits wieder Anlaß zur Verwunderung. Die Antwort liegt in den folgenden zwei
Theoremen, deren probabilistische Version ein altbekannter mathematischer
Sachverhalt ist:
Satz 6.16: Seien P und Q zwei W-Maße auf A , und sei für ω ∈ Ω und
j ∈I Yω, j das Element von Z< j mit ω ∈Yω, j . Gilt dann für alle ω ∈ Ω, j ∈ I und
B ∈ Aj P(B | Yω,j) = Q(B | Yω,j),2 so ist P = Q.
Beweis: Sei I = (i 0, …, i n}, wobei τi0 < ... < τin . Laut Annahme gilt für alle
A ∈Ai0 P(A) = Q(A). Gelte nun für alle A ∈A<ir P(A) = Q(A), und sei E ∈Air+1
1
Der Rest der Arbeit hat leider nur mehr den Charakter eines Forschungsberichtes. Er ist also
insgesamt reichlich skizzenhaft und bedarf noch einer sorgfältigen und detaillierten Ausarbeitung;
dies gilt insbesondere für die Abschnitte 6.4 und 6.5.
2
Das soll einschließen, daß P(Yω,j) > 0 gdw. Q(Yω,j) > 0.
231
und für ω ∈ Ω Bω das Element von Zir mit ω ∈ Bω. Dann ist E = Bω ∩ Yω,ir
ω∈E
und demnach P(E) = ∑ P(Bω | Yω,ir ) ⋅ P(Yω,ir ); dasselbe gilt für Q. Also gilt mit
ω∈E
den Annahmen P(E) = Q(E). Vollständige Induktion über I liefert damit P = Q.
Q.e.d.
Entsprechend gilt der
Satz 6.17: Seien κ und λ zwei A-OKFs, und sei Yω,j wie in Satz 6.16. Gilt dann
für alle ω ∈ Ω, j ∈ I und B ∈ Aj κ(B | Yω,j) = λ(B | Yω,j), so ist κ = λ.
Beweis: Ersetze im Beweis von Satz 6.16 P durch κ, Q durch λ und die Gleichung mit der Summenformel durch κ(E) = min[κ(Yω,ir ) + κ(Bω | Yω,ir )].
ω∈E
Was besagen diese Sätze im Lichte der Definition 6.5? Überspitzt ausgedrückt,
gerade dies: daß mit all den relativ zum epistemischen Zustand P bzw. κ1 geltenden Aussagen über direkte Ursachenverhältnisse der epistemische Zustand P bzw.
κ bereits eindeutig bestimmt ist. Diese Formulierung ist in zweierlei Hinsicht übertrieben: Erstens haben wir in den Sätzen 6.16 und 6.17 die Werte P(A) und
κ(A) – wobei A ∈Ai0 und i0 der zeitlich erste Faktor aus I ist – als gegeben angenommen; doch ergeben sich diese Werte in keiner Weise aus irgendwelchen kausalen Aussagen relativ zu P und κ. Zweitens, und das ist erheblicher, werden gemäß Definition 6.5 durch Aussagen über direkte Ursachen, grob gesagt, nur Größenvergleiche zwischen Werten der Form P(B | Yω,j) bzw. κ(B | Y ω,j) (τ j > τi0 )
angestellt, die Werte selbst jedoch nicht näher festgelegt.
Der Kern der überspitzten Formulierung wird mit diesen Abstrichen freilich
wenig verändert: Wie die Wirklichkeit oder ein Ausschnitt davon von einem
Subjekt gesehen wird, wird durch seinen epistemischen Zustand P bzw. κ dargestellt; und dieser epistemische Zustand ist gerade durch diejenigen Werte von P
bzw. κ im wesentlichen festgelegt, die herangezogen werden müssen, um die direkten Ursachenverhältnisse bzgl. P bzw. κ zu bestimmen. Des Subjekts kausales
Bild vom jeweiligen Wirklichkeitsausschnitt ist somit stets ein substantieller Teil
seines Gesamtbildes von diesem Wirklichkeitsausschnitt. Darin besteht die versprochene banale Aussage zur Problematik (1) des 1. Kapitels, die in Gestalt der
1
Wir befinden uns ja nach wie vor im Rahmen der epistemischen Interpretation von P bzw. κ.
232
Sätze 6.16 und 6.17 einen Beweis findet. Daß diese Sätze so verstanden werden
dürfen, hängt dabei natürlich ganz an der Akzeptabilität unserer Explikation direkter Ursachen.
In ähnlicher Weise ergeben sich nun auch einige Feststellungen über die erkenntnistheoretische Bedeutung verschiedener Versionen des Kausalprinzips. Ein
durchaus schwaches Resultat liefert der nächste Satz, dessen Aussage erst nach
seinem Beweise genauer interpretiert werde.
Satz 6.18: Sei B ∈ Aj für ein j ∈ I und B = {∅, B, B, Ω}. Dann gilt:
(a) B ist von A< j unabhängig bzgl. κ bzw. P1 genau dann, wenn für alle i ∈ I
mit τi < τ j und alle A ∈ Ai gilt: A ist Ω-sicher nicht direkte Ursache für B
bzgl. κ bzw. P;
(b) B ist von A>j bedingt durch A<j unabhängig bzgl. κ bzw. P genau dann,
wenn für alle k ∈ I mit τk < τ j und alle C ∈ Ak gilt: B ist Ω-sicher nicht direkte Ursache für C bzgl. κ bzw. P – vorausgesetzt κ ist eine A-NKF;
(c) B ist von Aj unabhängig bzgl. κ bzw. P genau dann, wenn für alle i, k ∈ I
mit τi < τj < τk und alle A ∈ Ai und C ∈ Ak gilt: A ist Ω-sicher nicht direkte
Ursache für B und B ist Ω-sicher nicht direkte Ursache für C bzgl. κ bzw. P
– vorausgesetzt κ ist eine A-NKF.
Beweis: (a) Daß für alle i ∈ I mit τi < τj und alle A ∈ Ai A Ω-sicher nicht direkte Ursache für B bzgl. κ ist, heißt, daß für alle solche i und A und alle ω ∈ Ω
κ(B | A ∩ Z ω) = κ(B | A ∩ Z ω) und κ( B | A ∩ Zω) = ( B | A ∩ Z ω) – wobei Zω
das Element von Z<i j mit ω ∈ Zω sei –, d.h. daß für alle solche i B von Ai bedingt
durch A<i j bzgl. κ unabhängig ist – Z<i j ist ja gerade die Menge der Atome von
A<i j . Letzteres ist damit äquivalent, daß B von A<j bzgl. κ unabhängig ist; denn
die eine Richtung davon ergibt sich durch mehrfache Anwendung von Satz 5.32
(S. 185), und die umgekehrte Richtung davon ist trivial. Bzgl. P gilt genau dasselbe, da – wie auf S. 186 vermerkt – für P der zu Satz 5.32 analoge Satz gilt.
(b) Daß für alle k ∈ I mit τk < τj und alle C ∈ Ak B Ω-sicher nicht direkte Ursache von C bzgl. κ ist, heißt, daß für alle solche k und C und alle ω ∈ Ω
1
Unabhängigkeit und bedingte Unabhängigkeit bzgl. κ ist in den Definitionen 5.22 und 5.29 (S.
180f. und S. 183) definiert. Unabhängigkeit bzgl. P ist natürlich die bekannte stochastische Unabhängigkeit. Insbesondere heiße also – wenn D, E und F drei Sub-σ-Algebren von A sind – D und E
bedingt durch F unabhängig bzgl. P gdw. für alle D ∈ D, alle E ∈ E und alle Atome F von F mit
P(F) > 0 P(D ∩ E | F) = P(D | F)⋅P(E | F) gilt.
233
κ(C | B ∩ Zω) = κ(C | B ∩ Zω ) und κ( C | B ∩ Zω) = κ( C | B ∩ Zω) – wobei Zω
i
nun das Element von Z<k
mit ω ∈ Zω sei –, d.h. daß für alle solche k A k von B
j
bedingt durch A<k
bzgl. κ unabhängig ist. Letzteres ist wiederum wegen Satz
5.32 damit äquivalent, daß B von A>j bedingt durch A<j bzgl. κ unabhängig ist –
wobei nun noch zu beachten ist, daß angenommen wurde, daß κ eine A-NKF ist
und daß demnach Unabhängigkeit bzgl. κ symmetrisch ist. Bzgl. P gilt wiederum
dasselbe.
(c) folgt schließlich unmittelbar aus (a) und (b). Denn daß B von A<j und von
A>j bedingt durch A<j bzgl. κ unabhängig ist, ist damit äquivalent, daß B von Aj
bzgl. κ unabhängig ist; die eine Richtung davon folgt aus Satz 5.31 (S. 185), und
die umgekehrte ist wiederum trivial. Mit P ist es wieder nicht anders. Q.e.d.
Schauen wir uns nun den Inhalt von Satz 6.18 (c) genauer an. Die Aussage
nach dem „genau dann, wenn“ negiert eine sehr schwache Version des Kausalprinzips, welche besagt:
(6.1)
Für den willkürlich gewählten Sachverhalt B gibt es wenigstens einen
möglichen Verlauf, in dem er eine direkte Ursache oder eine direkte Wirkung hat.
Die Aussage vor dem „genau dann, wenn“ besagt:
(6.2)
In A j findet sich kein einziger Grund für oder gegen B.
Gemäß Satz 6.18 (c) ist also (6.2) mit der Negation von (6.1) äquivalent. Die Frage ist daher: Stellt (6.2) in irgendeinem Sinne eine Absurdität dar, weil es (6.1)
negiert?
Vorderhand nicht. Denn es gibt ganz alltägliche und in keiner Weise merkwürdige Prozesse, in denen (6.2) gilt. Ein Beispiel dafür liefert der Prozeßraum, mit
dem eine Reihe von Würfen mit einem bestimmten Würfel beschrieben wird. Ergänzt man diesen Prozeßraum zu einem P-Prozeß, so werden alle Würfe voneinander stochastisch unabhängig sein; entsprechendes gälte erst recht, wenn man ein
D-Prozessgesetz hinzunähme. In beiden Fällen liefert also, was immer in den etwa
vom zehnten Wurf verschiedenen Würfen passiert, keinen Grund für irgendein
bestimmtes Ergebnis des zehnten Wurfes.
234
Nun ist aber zu bedenken, daß man vom Kausalprinzip in allen seinen Versionen nie angenommen hat, daß es für beliebige Prozesse gilt; daß man einen
Wirklichkeitsausschnitt so wählen kann, daß man in ihm keine Ursachen oder
Wirkungen von dem, was in ihm passiert, findet, ist nicht weiter verwunderlich.
Verwunderlich wäre es erst, wenn man auch in allen Erweiterungen dieses Ausschnitts keine solche Ursachen oder Wirkungen fände. Mit anderen Worten: das
Kausalprinzip bezieht sich zunächst nur auf den einen universalen Prozeßraum,
mit dem sozusagen unsere gesamte Welt erfaßt werden kann. In Anbetracht unserer Bemerkungen über mögliche Welten im rigorosen Sinne im Abschnitt 4.2 ist
dieser Prozeßraum freilich überhaupt nicht mehr wohldefiniert,1 doch will ich
mich im Moment davon nicht stören lassen und der Argumentation halber in diesen universalen Kontext begeben.
Innerhalb dieses universalen Kontexts stellt nämlich (6.2) tatsächlich eine erkenntnistheoretische Absurdität dar. Denn nun sagt (6.2), daß es überhaupt keine
möglichen Gründe (außer solchen, in denen von B oder B selbst die Rede ist)
gibt, die für oder gegen B sprechen. Dies bedeutet, daß man über B überhaupt
nichts in Erfahrung bringen kann, daß B also – großartiger ausgedrückt – außerhalb der erfahrbaren Wirklichkeit liegt und so gar kein sinnvoller Gegenstand unserer epistemischen Zustände ist.
Dieser Punkt sei noch etwas ausgeführt: Zu Beginn dieses Jahrhunderts suchten
die logischen Positivisten, wegen ihres Verdachts, Metaphysik sei objektiv Unsinn, nach einem objektiven Kriterium, welches Sinnvolles von Sinnlosem scheidet, eben nach dem, wie es dann hieß, empiristischen Signifikanzkriterium. Ihr
Hebel dazu war ihre Verifizierbarkeitstheorie der Bedeutung in der strengen Fassung, wonach die Bedeutung eines deskriptiven Satzes in den Bedingungen, unter
denen er sich verifizieren läßt, besteht. Dieses Unterfangen war allerdings in
zweierlei Hinsicht unglücklich. Zum einen verfing man sich in all den Problemen,
die dem Begriff der Verifikation anhaften; insbesondere suggerierte dieser Begriff, daß es so etwas wie eine endgültige Verifikation oder Falsifikation gebe, so
daß man sich auf die hoffnungslose Suche nach einer vermeintlich sicheren Basis
der Erkenntnis begab. Zum andern erwies sich die erste Formulierung als viel zu
scharf; schon einen harmlosen Allsatz mit (potentiell) unendlichem Anwendungs1
Deshalb ist es wichtig und interessant, nach wohldefinierten Ausschnitten zu fahnden, die, zumindest annäherungsweise, kausal vollständig sind; denn wenn das Kausalprinzip überhaupt gilt, dann
müßte es auch in solchen Ausschnitten gelten. Kausaltheoretisch wäre es dabei wiederum interessant, den hier verwandten Begriff des kausal vollständigen Ausschnitts zu explizieren.
235
bereich mußte man für nicht verifizierbar und damit für sinnlos halten. Immer
weitere Aufweichungen der Verifizierbarkeitstheorie der Bedeutung wie des empiristischen Signifikanzkriteriums wurden nötig, und das Ende der Geschichte ist
bekannt: das ganze Projekt wurde aufgrund seiner dauernden manifesten Erfolglosigkeit sang- und klanglos aufgegeben.1
Das heißt freilich nicht, daß das Projekt von Grund auf irregeleitet war. Im Gegenteil, sein vernünftiger Kern besteht gerade in der Ablehnung dessen, daß (6.2)
innerhalb des umfassendsten, universalen Prozeßraums von einem sinnvoll formulierbaren Sachverhalt erfüllt werden könne. Ein deskriptiver Satz ist nicht dann
sinnlos, wenn er nicht verifizierbar bzw. nicht falsifizierbar bzw. keine logische
Konstruktion aus verifizier- oder falsifizierbaren Sätzen usw. ist, sondern eben
dann, wenn es überhaupt keine Gründe für oder gegen ihn bzw. den von ihm ausgedrückten Sachverhalt gibt.2
Es scheint also in unserem Begriff von Erfahrungswirklichkeit zu liegen, daß
innerhalb des universalen Kontexts (6.2) zu verwerfen und mithin die sehr schwache Version (6.1) des Kausalprinzips zu akzeptieren ist. Eine neue und aufregende
Einsicht ist das nicht. Darauf war ich auch nicht aus; es kam mir vielmehr wie im
Abschnitt 6.2 wieder darauf an zu demonstrieren, daß sich solche Überlegungen
innerhalb meines Rahmens und aufgrund der Explikationen von Abschnitt 6.1 in
plausibler Weise präzise nachvollziehen lassen.
Aufregend ist diese Einsicht unter anderem deswegen nicht, weil (6.1) in zweierlei Hinsicht eine schwache Aussage ist. Zum einen ist in (6.1) nur davon die
Rede, daß der Sachverhalt B Ursachen oder Wirkungen hat. Allerdings geht es in
den anderen Teilen von Satz 6.18 um striktere Aussagen. So wird hinter dem “genau dann, wenn“ im Teil (a) eine Verschärfung von (6.1) negiert: nämlich daß B
in wenigstens einem möglichen Verlauf eine direkte Ursache hat. Dafür steht vor
dem „genau dann, wenn“ von (a) eine schwächere Aussage als (6.2): nämlich daß
sich zeitlich vor B nichts an Gründen für oder gegen B findet. Ein solcher Sachverhalt B wäre zwar unangenehm; man könnte sich dann nur davon überraschen
lassen, ob B eintritt oder nicht. Doch ist diese Aussage auch innerhalb des universalen Prozeßraums nicht so absurd wie (6.2); B kann ja trotzdem über seine Wir1
Vgl. dazu etwa Stegmüller (1970), Kap. III–V.
Die Ersetzung des Verifikations- durch den Begründungsbegriff liefert natürlich für sich noch
kein präzises Signifikanzkriterium; man müßte auch hier sehr ins Detail gehen. Doch es ist erwähnenswert, daß eine entsprechende „Begründungstheorie der Bedeutung“ sehr nach Quine klingt;
vgl. etwa Quine (1951) oder (1969), Kap. 3.
2
236
kungen der Erfahrung zugänglich sein. Ähnliches gilt für Satz 6.18 (b). So scheint
zunächst doch nur die schwache Formulierung (6.1) zwingend begründet.
Zum andern ist in (6.1) nur davon die Rede, daß der Sachverhalt B in einem
möglichen Verlauf Ursache oder Wirkung hat; doch gilt unser eigentliches Interesse nicht dieser bloßen Möglichkeit, sondern vielmehr der Aussage, daß jede
Tatsache im tatsächlichen Verlauf Ursache oder Wirkung hat. Dieses Interesse
läßt sich, glaube ich, befriedigen; hier sei wenigstens ein Schritt in die richtige
Richtung unternommen:
Satz 6.19: Sei ω ∈ Ω, j ∈ I und B ∈ Aj mit ω ∈ B. Dann gilt:
(a) Wenn es kein E ∈ A<j mit ω ∈ E gibt, so daß E ein Grund für B bzgl. κ
bzw. P ist, dann gibt es kein i ∈ I mit τi < τj und kein A ∈ Ai, so daß A in ω
direkte Ursache für B bzgl. κ bzw. P ist;
(b) wenn es kein E ∈ Aj mit ω ∈ E gibt, so daß E ein Grund für B bzgl. κ bzw.
P ist, dann gibt es kein i ∈ I mit τi < τj, kein k ∈ I mit τk > τj, kein A ∈ A i
und kein C ∈ Ak, so daß A in ω direkte Ursache für B oder B in ω direkte
Ursache für C bzgl. κ bzw. P ist.
Beweis: Nehmen wir für den Beweis von (a) an, daß es ein i ∈ I mit τi < τj und
ein A ∈ Ai gibt, so daß A in ω direkte Ursache für B bzgl. P ist. Es gilt dann ω ∈
A und P(B | A ∩ Zω) > P(B | A ∩ Zω) – wobei Zω wieder das Element von Z<i j mit
ω ∈ Zω ist. Sei nun E1 = A ∩ Zω, E2 = A ∩ Zω , E 3 = A ∩ Zω und E4 = A ∩ Zω
und sei E = {Er | P(B | E1 ) ≤ P(B | Er )}. Dann gilt also ω ∈ E1 ⊆ E ⊂ Ω und vor
allem P(B | E) > P(B | E ). Damit setzt sich die Annahme jedoch in Widerspruch
zu der Voraussetzung von (a). (b) läßt sich auf dieselbe Weise beweisen. Und
bzgl. κ läuft der Beweis ganz analog. Q.e.d.
Satz 6.19 (b) verbessert Satz 6.18 (c) in der gewünschten Hinsicht. Denn wir
dürfen für das ω von Satz 6.19 insbesondere den tatsächlichen Verlauf einsetzen;
und dann steht im Dann-Satz von 6.19 (b) die Negation einer Version des Kausalprinzips, die eher befriedigt als (6.1) – nämlich:
(6.3)
Die willkürlich gewählte Tatsache B hat tatsächlich eine direkte Ursache
oder eine direkte Wirkung.
237
Und der Wenn-Satz von 6.19 (b) läßt sich dann so lesen:
(6.4)
In Aj findet sich kein einziger wahrer Grund für die Tatsache B.
(6.4) stellt wiederum eine Absurdität dar – zumindest dann, wenn wir uns wieder
in den Kontext des eigentlich nicht wohldefinierten universalen Prozeßraums begeben. Denn dann besagt (6.4), daß es überhaupt keine wahren Gründe (außer
solchen, in denen von B selbst die Rede ist) gibt, die für die Tatsache B sprechen.
Und das ist seltsam; denn es ist dann unerfindlich, wie wir je in den Stand kommen könnten, B für wahr zu halten – außer durch Irrtümer, d.h. durch Gründe, die
falsch sind. Die Verwerfung von (6.4) beinhaltet somit die Verwerfung dessen,
was Putnam metaphysischen Realismus nennt, d.h. der Auffassung, ein Satz könne wahr sein, obwohl er von der besten Theorie, die sich die Menschheit idealerweise überhaupt bilden kann, für falsch erklärt wird.1 Denn welche bessere Theorie als die, daß B falsch ist, können wir uns über B bilden, wenn wir gemäß (6.4)
an wahren Gründen nur solche finden, die gegen B sprechen? War (6.2) mit unseren Vorstellungen darüber unverträglich, welche Sachverhalte sich überhaupt
sinnvoll formulieren lassen, so steht nun (6.4) also im Widerspruch zu unseren
Vorstellungen darüber, welche Sachverhalte wahr sein können.
Nun ist aber einzuräumen, daß Satz 6.19 insofern schwächer als Satz 6.18 ist,
als er nur Implikationen und keine Äquivalenzen formuliert. Er sagt also nur, daß
mit der Annähme des Kausalprinzips (6.3) die Absurdität (6.4) garantiert vermieden ist; er sagt aber nicht, daß eine solche Absurdität nur auf diese Weise vermieden werden kann, und liefert so noch keine gute Begründung für (6.3). Es gibt
jedoch vermutlich Abschwächungen von (6.4), die trotzdem noch ähnlich absurd
sind; und bedenkt man weiterhin, daß im Beweis von Satz 6.19 (b) gar nicht die
volle Stärke der Prämisse (6.4) verwandt wurde, so besteht Hoffnung, daß sich
noch geeignetere Theoreme finden lassen. Doch will ich diesen Punkt jetzt nicht
weiter verfolgen. Es sei nur ergänzend bemerkt, daß der Wenn-Satz des Teils (a)
von Satz 6.19 wiederum eine allenfalls unerfreuliche, aber keineswegs widersinnige Aussage enthält; demnach verhilft uns auch der Satz 6.19 nicht zu Begründungen für stärkere Versionen des Kausalprinzips, die anstatt von Ursachen oder
Wirkungen nur von Ursachen reden.
1
Vgl. etwa Putnam (1978), Teil 4, oder (1980).
238
6.4
Über indirekte Ursachen und kausale Abhängigkeit
Nachdem der Anfangsschritt zur Entwicklung einer Kausalitätstheorie in der
Explikation direkter Ursachen bestand, gilt es im zweiten Hauptschritt den Ursachenbegriff schlechthin zu erklären, oder auch nur den Begriff der indirekten Ursache – denn Ursachen sind ja immer direkte oder indirekte. Die mir am angemessensten erscheinende Möglichkeit dafür sei nun erläutert, auch wenn ich hier nicht
mehr viel zu ihrer Verteidigung unternehme.
Daß die Angelegenheit nicht ganz einfach ist, erkennt man vielleicht am besten, wenn man sieht, daß der naheliegendste Vorschlag nicht funktioniert. Dieser
geht von der intuitiven Erwartung aus, daß die Ursachenbeziehung transitiv ist,
daß also gilt: wenn A Ursache für B und B Ursache für C ist, so muß auch A Ursache für C sein. Diese Erwartung läßt sich sofort in eine Definition umsetzen; man
definiere den Ursachenbegriff einfach als den transitiven Abschluß des Begriffs
der direkten Ursache. Genauer heißt dies:
(6.5)
A ist in ω ∈ Ω eine Ursache für B bzgl. κ bzw. P genau dann, wenn es C1,
…, Cn gibt derart, daß C1 = A, Cn = B und für alle r = 1, …, n–1 Cr in ω
eine direkte Ursache für Cr+1 bzgl. κ bzw. P ist; und A ist in ω ∈ Ω eine
indirekte Ursache für B bzgl. κ bzw. P genau dann, wenn A in ω eine Ursache, aber keine direkte Ursache für B bzgl. κ bzw. P ist.
Hier ist jedoch ein Beispiel, welches zumindest einen Zweifel auf die Transitivität der Ursachenbeziehung wirft – und zwar schon innerhalb der deterministischen Beschreibungsweise. Es gibt gerade zwei Methoden, am Roulettetisch im
Casino Frustration zu vermeiden: entweder setzen und gewinnen oder gar nicht
erst setzen. Nehmen wir also an, ein gewisser Herr namens X habe gesetzt (A), auf
Rouge z.B., habe gewonnen (B), mit der 12 z.B., und sei daher am Ende nicht
frustriert gewesen (C). Hier ist B eine Ursache für C, und zwar eine hinreichende;
denn wer nicht verliert, ist nicht frustriert. A ist auch eine Ursache für B, wenn
auch nur eine notwendige; ohne Setzen gibt's nichts zu gewinnen. Soll man nun
deswegen X’s Setzen (A) auch als Ursache seines Nicht-Frustriert-Seins (C) bezeichnen? Das wäre zumindest seltsam, da X doch, wenn er nicht gesetzt hätte, in
jedem Fall nicht frustriert gewesen wäre. Oder anders ausgedrückt: Wenn die Sa-
239
che mit Frustration (C) geendet hätte, etwa weil die schwarze 13 statt der roten
12 kam, so wäre das Setzen (A) jedenfalls Ursache, genauer, notwendige Ursache,
für die Frustration (C) gewesen; und das verträgt sich schlecht damit, daß A tatsächlich Ursache für C sein soll.
Auch wenn ich hier dazu neige, A nicht als Ursache von C zu bezeichnen – ein
schlagendes Beispiel gegen (6.5) ist das noch nicht; man kann sich ihm auf verschiedene Weisen entziehen: Man könnte bestreiten, daß darin A eine Ursache für
B ist. Man könnte sagen, daß hier nur schärfer spezifizierte Sachverhalte, also z.B.
„X setzt auf Rouge“ oder „X freut sich“ statt „X setzt“ oder „X ist nicht frustriert“,
in Ursachenbeziehungen stehen. Man könnte vielleicht vermuten, daß hier eben
schon ein zweischneidiger Fall vorliege, wie er im Abschnitt 3.3, S. 91f., beschrieben wurde. Oder man könnte dem Beispiel halb recht geben und sagen, daß
man die Transitivität der Ursachenbeziehung nur für solche Fälle behaupten
wollte, wo es immer nur um hinreichende oder nur um notwendige Ursachen geht,
und nicht für einen gemischten Fall wie im Beispiel.
Wie dem auch sei, das Beispiel beraubt (6.5) jedenfalls seiner Selbstverständlichkeit; und anstatt nun an diesem Beispiel herumzuknobeln, empfiehlt es sich,
sich die formale Situation abstrakt klar zu machen. Betrachten wir dazu den einfachsten Prozeßraum, in dem es eine indirekte Ursachenbeziehung geben kann:
nämlich den mit I = {i, j, k}, τi < τ j <τk, Ai = {∅, A, A, Ω}, Aj = {∅, B, B, Ω}
und Ak = {∅, C, C, Ω}. Und begeben wir uns in den probabilistischen Rahmen,
indem wir ein W-Maß P auf A annehmen. Der einzige Grund hierfür ist, daß wir
es hier mit den einfacheren Formeln zu tun haben; im deterministischen Rahmen
lassen sich genau die gleichen Überlegungen anstellen.
Wann ist dann A gemäß (6.5) Ursache für C (bzgl. P in einem ω ∈ A ∩ B ∩ C
– das dauernd zu erwähnen, können wir uns sparen)? Entweder wenn A eine direkte Ursache für C ist, wenn also P(C | A ∩ B) > P(C | A ∩ B). Oder wenn A
über B indirekte Ursache für C ist, wenn also A für B und B für C direkte Ursache
ist, d.h. P(B | A) > P(B | A ) und P(C | A ∩ B) > P(C | A ∩ B ), und wenn A nicht
direkte Ursache für C ist, d.h. P(C | A ∩ B) ≤ P(C | A ∩ B). Dieser Begriff der
indirekten Ursache entspricht meines Erachtens gar nicht unseren intuitiven Vorstellungen, wie wir sie schon im Fall 4 des 3. Kapitels (S. 69ff.) dargelegt haben;
er ist in zweierlei Hinsicht zu schwach:
Erstens sollte dafür, daß A über B indirekte Ursache für C ist, nicht bloß
P(C | A ∩ B) ≤ P(C | A ∩ B), sondern die schärfere Bedingung P(C | A ∩ B) =
240
P(C | A ∩ B) gelten. Denn intuitiv betrachtet ist, wie ich schon auf S. 69 schrieb,
für eine von A über B zu C führende Kausalkette charakteristisch, daß in ihr A für
B ursächlich ist und daß jedoch, wo sich B schon realisiert hat, für C nur mehr
dieses B, aber nicht die kausale Vorgeschichte von B relevant ist; und genau das
kommt in der schärferen Bedingung zum Ausdruck.
Ein Zusatzargument macht das vielleicht noch plausibler. Wenn es möglich
wäre, daß A über B indirekte Ursache für C ist und trotzdem P(C | A ∩ B) < P(C |
A ∩ B) gilt, A also, wenn C eingetreten wäre, direkte Ursache für C wäre, dann
wäre A in Bezug auf C zweischneidig – im Sinne des Falls (10) des 3. Kapitels (S.
91f.). Nun hatte ich damals solche Zweischneidigkeit nicht rundheraus für unmöglich erklären wollen; doch stützten sich die Beispiele dafür darauf, daß in ihnen komplexe und undurchschaute Kausalbeziehungen am Werke waren. Daher
scheint es mir unsinnig zu sein, auch für den jetzt gegebenen, ganz einfachen Fall
Zweischneidigkeit zu reklamieren,1 und genau dies wird durch die obige schärfere
Bedingung ausgeschlossen.
Zweitens ist gemäß (6.5) eine über B laufende, indirekte Ursachenbeziehung
zwischen A und C damit verträglich, daß P(C | A ∩ B ) ≠ P(C | A ∩ B ); und das
ist ebenfalls intuitiv unerwünscht. Denn wenn sich, aus welchen Gründen auch
immer, B statt B realisiert haben sollte, so würde man sagen, daß die von A über
B zu C führende Kausalkette abgerissen oder abgebrochen ist und daß A somit
seiner nur durch B vermittelten kausalen Relevanz für C beraubt ist. Wenn jedoch
P(C | A ∩ B ) ≠ P(C | A ∩ B ) gälte, so wäre A bei Realisierung von B direkte
Ursache entweder für C oder für C , also jedenfalls für C kausal relevant. Und
genau deswegen sollte diese Ungleichung nicht gelten können, wenn A über B
indirekte Ursache für C ist.
Zusammengefaßt bedeutet dies: A ist erst dann über B indirekte Ursache für C,
wenn A für B und B für C direkte Ursache ist und wenn A unter B wie unter B für
C irrelevant ist, wenn also P(C | A ∩ B) = P(C | A ∩ B) und P(C | A ∩ B ) = P(C
| A ∩ B ). Und wir dürfen hier das gerade formulierte „erst dann, wenn“ zu einem „genau dann, wenn“ verstärken, denn die genannten Bedingungen sind hier
schon so restriktiv, daß sie sich gar nicht mehr in sinnvoller Weise verschärfen
lassen.
Damit haben wir, glaube ich, unsere intuitive Vorstellung darüber, was für eine
aus drei Gliedern A, B und C bestehende Kausalkette charakteristisch ist, ange1
Deswegen meine ich auch, daß im obigen Roulette-Beispiel kein zweischneidiger Fall vorliegt.
241
messen ausgedrückt. Diese Vorstellung läßt sich nun leicht auf beliebig lange,
endliche Kausalketten ausdehnen, und zwar innerhalb beliebigen, wenn auch nach
wie vor endlichen und simultaneitätsfreien Prozeßräumen und auch innerhalb des
deterministischen Rahmens:
Definition 6.20: Sei ω ∈ Ω, und für r = 1, ..., n (n ≥ 2) ir ∈ I und C r ∈ Air
Dann bilden C1, …, Cn in ω eine Kausalkette bzgl. P genau dann, wenn gilt:
(a) für alle r = 1, ..., n–1 ist Cr in ω eine direkte Ursache für Cr+1 bzgl. P (das
schließt ein, daß τir < τir+1 und ω ∈ Cr für alle r),
(b) für alle r = 2, ..., n–1 gilt: wenn Cr–1 die von {C1, …, Cr–1) erzeugte Algebra, Jr = I <ir \ {i1, …, ir–1}und Zω,r das Element von ZJ r mit ω ∈ Z ω,r ist, so
ist für alle D, D' ∈ Cr–1
P(Cr+1 | Cr ∩ Zω,r ∩ D) = P(Cr+1 | Cr ∩ Zω,r ∩ D') und
P(Cr+1 | Cr ∩ Zω,r ∩ D) = P(Cr+1 | Cr ∩ Zω,r ∩ D').
Entsprechend bilden C1, ..., C n in ω eine Kausalkette (der Art a) bzgl. κ genau
dann, wenn gilt:
(c) für alle r = 1, ..., n–1 ist C r in ω eine direkte Ursache (der Art a) für Cr+1
bzgl. κ,
(d) für alle r = 2, ..., n–1 gilt: wenn Cr–1 und Z ω,r wie in (b) erklärt sind, so ist
für alle D, D' ∈ Cr–1 und für alle Cr∗+1 ∈{Cr +1, ,Cr +1}
κ(Cr∗+1 | Cr ∩ Zω,r ∩ D) = κ(Cr∗+1 | Cr ∩ Zω,r ∩ D ') und
κ(Cr∗+1 | Cr ∩ Zω,r ∩ D) = κ(Cr∗+1 | Cr ∩ Zω,r ∩ D ') .
Die Bedingung (b) verallgemeinert dabei die charakteristische Eigenschaft, die
wir am Beispiel der dreigliedrigen Kausalkette {A, B, C} schon erläutert haben,
auf beliebige Kausalketten {C1, ..., Cn}: die Eigenschaft nämlich, daß die aus C1,
..., Cr–1 bestehende Entwicklung der Kausalkette vor τ ir keinerlei Einfluß auf ihre
Entwicklung nach τir hat, sofern bereits gegeben ist, daß sich zu τir Cr realisiert
bzw. nicht realisiert hat. Das Zω,r findet deswegen Eingang in die Bedingung (b),
weil es in I in der Regel noch andere Faktoren als i1, ..., in gibt, die sich im Verlauf ω auf die eine oder andere Weise realisieren, und weil dann die genannte charakteristische Eigenschaft gerade unter den in ω gegebenen Umständen, d.h. bei
gegebenem Zω,r gelten muß. Die Bedingung (d) ist schließlich einfach das deterministische Analogon zur Bedingung (b).
Damit können wir den Begriff der Ursache schlechthin definieren:
242
Definition 6.21: Sei i, j ∈ I, A ∈ Ai, B ∈ A j und ω ∈ Ω. Dann ist A in ω eine
Ursache für B bzgl. P bzw. eine Ursache (der Art a) für B bzgl. κ genau dann,
wenn es C 1, ..., C n mit C1 = A und Cn = B gibt derart, daß C1, ..., Cn in ω eine
Kausalkette bzgl. P bzw. eine Kausalkette (der Art a) bzgl. κ bilden.
Was ich so weit zur Stützung der Definitionen 6.20 und 6.21 gegenüber (6.5)
getan habe, bestand einfach darin, zwei Intuitionen einander gegenüberzustellen –
nämlich die Erwartung, die Ursachenbeziehung sei transitiv, und die Vorstellungen über die Beschaffenheit indirekter Ursachenbeziehungen – und mich dann der
zweiten Intuition als der wesentlich festeren anzuvertrauen. Heißt das, daß die
erste Intuition, die hinter (6.5) stand, der Grundlage entbehrt? Nein; ich nehme an,
daß sie nach wie vor Gültigkeit hat, wenn auch nur eingeschränkte. Dazu wäre
freilich genau zu untersuchen, unter welchen Bedingungen (6.5) und Definition
6.21 übereinstimmen; ich vermute, daß diese Bedingungen nicht sonderlich speziell sind, sofern man im deterministischen Rahmen bleibt und dort nur hinreichende bzw. nur notwendige bzw. notwendige und hinreichende Ursachenbeziehungen betrachtet.1 Außerdem ist festzustellen, daß Kausalbeziehungen innerhalb
einer Kausalkette gemäß Definition 6.21 trivialerweise transitiv sind – das heißt:
wenn A Ursache für B und B Ursache für C ist und wenn die Kausalkette von A
nach B und die von B nach C zusammen eine Kausalkette bilden, so ist A auch
Ursache für C.
Weitere Stützung erfahren die Definitionen 6.20 und 6.21 durch die Tatsache,
daß in ihnen natürlich nur altbekanntes Gedankengut verarbeitet ist. So steht hinter der Definition indirekter Ursachen von Suppes (1970)2 offenkundig ein ähnlicher Grundgedanke wie hinter Definition 6.21. Reichenbach (1956) stellt an Kausalketten, die er über seinen rein probabilistisch definierten Begriff des „kausalen
Dazwischenliegens“ konstruiert, ebenfalls ähnliche, wenn auch schwächere Bedingungen.3 Und am allermeisten ähnelt die Definition 6.20 der Kausalketten-
1
Auf diese Weise ließe sich vielleicht auch die Ursachendefinition von Lewis (1973b) rechtfertigen, die einfach in (6.5) besteht und dabei aber auf notwendige und hinreichende Ursachen beschränkt ist.
2
Vgl. (2.10), S. 56.
3
Vgl. Reichenbach (1956), Abschn. 22; freilich verfolgt er dabei andere Intentionen als wir hier,
nämlich eine kausale Theorie der Zeit; vgl. S. 24.
243
Definition von Good (1960–62).1 Dieser Einklang hat einen tieferen Grund: nämlich, daß die Bedingung (b) von Definition 6.20, die ich als charakteristische Eigenschaft von Kausalketten bezeichnet habe, gerade die definierende Eigenschaft
von (zeitlich diskreten) Markoffschen Prozessen ist;2 und Markoffsche Prozesse
wurden von Mathematikern und Physikern von jeher verwandt, um kausal lineare
Prozesse probabilistisch zu beschreiben. So bringen die Definitionen 6.20 und
6.21 demgegenüber nur die Verallgemeinerung dieses Gedankenguts auf den deterministischen Fall, welche vor der Einführung der OKFs nicht möglich war, da
erst die OKFs, wie auf S. 182 erwähnt, einen geeigneten deterministischen (bedingten oder nicht-bedingten) Unabhängigkeitsbegriff bereitstellten.
Freilich zeigen diese Referenzen nur, daß die Definitionen 6.20 und 6.21 in der
richtigen Richtung liegen; über die feinen Details – und auf die kommt es am Ende an – sagen sie weniger. Denn nirgendwo habe ich die kausaltheoretischen Konsequenzen dieser oder ähnlicher Definitionen im Detail ausgearbeitet gefunden.3
Diese zu liefern ist jedoch unbedingt erforderlich; denn erst anhand dieser Konsequenzen läßt sich Sicherheit über die Details der Definitionen gewinnen, und natürlich kann man erst dadurch einen Nutzen aus den Definitionen ziehen.
Dies wäre also auch hier noch zu leisten. Um nur einige Punkte zu nennen, die
sich schon im Laufe dieser Arbeit ergeben haben: Es wäre, wie schon erwähnt, zu
untersuchen, unter welchen Bedingungen der Ursachenbegriff transitiv ist. Dann
stellt sich vor allem die Frage nach einer theoretischen Repräsentation all der im
Kapitel 3 aufgezählten intuitiven Möglichkeiten; die unproblematischen dieser
Möglichkeiten hätte die Theorie ebenfalls als möglich darzustellen; und bezüglich
der undurchsichtigeren Fälle – wie etwa dem märchenhaften Fall 9 (S. 88) und
dem zweischneidigen Fall 10 (S. 91), aber auch dem Fall 6 kausaler Überbestimmtheit (S. 72) und dem Relais-Fall 2c + 8a bzw. 2b + 8b (S. 81) – wäre plausibler Aufschluß zu erhoffen, ob, und wenn ja, unter welchen Bedingungen und
auf welche Weise sie möglich sind. Ferner wäre der im Abschnitt 6.1 schon ange1
Vgl. Good (1960–62), Teil II, Abschn. 8. Seine dortigen Bedingungen (iii)–(vi) sagen praktisch
dasselbe wie die Bedingungen (a) und (b) von Definition 6.20.
2
Das Z ω,r von Definition 6.20 taucht freilich in der Definition Markoffscher Prozesse nicht auf –
weil dort die Sachlage insofern etwas einfacher ist, als ein Markoffscher Prozeß seinen Prozeßraum gänzlich ausschöpft.
3
Die mathematische Theorie der Markoffschen Prozesse ist natürlich kolossal. Insofern werden
diese kausaltheoretischen Konsequenzen nichts mathematisch Aufregendes enthalten. Aber die
mathematische Theorie ist eben keine Kausalitätstheorie; die kausalen Konnotationen schwingen
in ihr allenfalls untergründig mit. Und deshalb liefert auch sie noch nicht von selbst diese kausaltheoretischen Konsequenzen.
244
fangene Vergleich mit den im Kapitel 2 dargestellten Konzeptionen fortzusetzen,
die ja auch den Ursachenbegriff schlechthin erfassen wollen; insbesondere wäre
hier auszuführen, wie sich theoretisch definieren läßt, was zu den obwaltenden
Umständen eines direkten oder indirekten Ursachenverhältnisses gehört, und wie
sich so die mit den obwaltenden Umständen drohenden Zirkelgefahren bannen
lassen - ein Punkt, den wir auf S. 219 nur teilweise skizziert hatten. Schließlich
wäre der Inhalt von Abschnitt 6.2 auf Ursachen im allgemeinen auszudehnen und
auch der dort und im Abschnitt 6.3 nahegelegten allgemeinen Frage nachzugehen,
inwiefern sich die gemäß einem bestimmten epistemischen Zustand bestehenden
Begründungsverhältnisse, vage ausgedrückt, an der durch diesen epistemischen
Zustand gegebenen Kausalstruktur ausrichten.
Natürlich gilt es außerdem, sich von den hier eingehaltenen technischen Beschränkungen zu befreien. Und selbstredend gibt es diverse inhaltliche Erweiterungen. Eine davon sei noch kurz angerissen:1
Zu Beginn dieser Arbeit (S. 15) erwähnten wir, daß nicht nur Sachverhalte,
sondern auch Faktoren in Kausalbeziehungen verwickelt sein können. Auf der
Grundlage des Bisherigen läßt sich das leicht explizieren:
Definition 6.22: (a) j ∈ I heißt in ω ∈ Ω von i ∈ I direkt kausal abhängig bzgl.
κ bzw. P genau dann, wenn τi < τj und wenn es A ∈ Ai, B ∈ Aj und ω' ∈ Ω mit
ω'(k) = ω(k) für alle k ≠ i, j gibt, so daß A in ω' eine direkte Ursache für B bzgl. κ
bzw. P ist.
(b) j heißt in ω von i kausal abhängig bzgl. κ bzw. P genau dann, wenn es k1,
…, kn ∈ I mit k1 = i und kn = j, C1, …, Cn mit Cr ∈ Akr (r = 1, …, n) und ω' ∈ Ω
mit ω'(k) = ω(k) für alle k ≠ k 1, …, k n gibt, so daß C 1, …, C n eine Kausalkette
bzgl. κ bzw. P bilden.
(c) j heißt von i (direkt) kausal abhängig bzgl. κ bzw. P genau dann, wenn es
ein ω ∈ Ω gibt, so daß j in ω von i (direkt) kausal abhängig bzgl. κ bzw. P ist.
Der probabilistische Teil dieser Begriffsbildung dürfte insbesondere für Statistiker interessant sein, die ja gerade statistische Beziehungen zwischen verschiedenen Faktoren untersuchen und sich fragen, inwieweit sie auf diese Weise kausale
Beziehungen zwischen Faktoren herausfinden können. So ist denn genau dieselbe
1
Mein privater Grund hierfür ist, daß ich damit schließlich Anschluß an meinen Aufsatz (1980)
gewinne.
245
Definition probabilistischer direkter kausaler Abhängigkeit zwischen Faktoren
auch schon von statistischer Seite, nämlich von Granger z.B. in (1980), S. 330,
vorgeschlagen1 und für die statistische Arbeit nutzbar gemacht worden. Schließlich ist auch zu erwähnen, daß der probabilistische Teil der Definition 6.22 (c) mit
denjenigen Definitionen äquivalent ist, die ich in Spohn (1980) gegeben habe.2
Dies bedeutet insbesondere, daß die dort bewiesenen Theoreme ihre Gültigkeit
behalten und sich außerdem in den deterministischen Rahmen übertragen lassen.
6.5 Über Naturgesetze und die realistische Interpretation von
OKFs
Eine zentrale Frage ist nach wie vor offen, und deshalb sei ihr, zur vorläufigen
Abrundung, in diesem letzten Abschnitt noch kurz nachgegangen: der Frage nämlich, wie sich Prozeßgesetze realistisch oder objektivistisch verstehen lassen.
Denn bisher haben wir ja nur deren epistemische Interpretation explizit dargelegt,
und damit konnten wir unserem – vielleicht vorurteilsbehafteten – Wunsch nach
einem Verständnis von Kausalaussagen, welches nicht auf den epistemischen Zustand eines Subjektes relativiert zu werden braucht, nicht nachkommen. Die Betrachtungen, inwieweit diesem Wunsch entsprochen werden kann, will ich dabei
auf den deterministischen Rahmen beschränken, welcher der dringlicher zu behandelnde ist; für ihn hatten wir die ungewohnten, erläuterungsbedürftigen OKFs
eingeführt, während die Interpretationsmöglichkeiten für Wahrscheinlichkeitsmaße leidlich klar und jedenfalls ausführlich diskutiert sind,3 so daß ich sie jetzt nicht
aufrollen mag.4
Als erstes ist hier klarzustellen, daß hier ein echtes Problem vorliegt, welches
keine triviale Lösung hat. Denn einerseits sind OKFs im allgemeinen nichts, wovon man sagen könnte, es sei wahr oder falsch; und andererseits ergeben sich mit
unserer Explikation relativ zu den speziellen OKFs, die wahrheitsfähig sind, ganz
widersinnige Kausalverhältnisse. Dies ist zu erläutern:
1
Wie ich in Spohn (1983) näher ausgeführt habe.
Das wäre freilich, genau genommen, im Beweise vorzuführen.
3
Vgl. dazu die Angaben auf S. 145f.
4
Auch wenn sich von unserem Ansatz her vielleicht neue Gesichtspunkte ergeben; s. die letzte
Bemerkung in diesem Abschnitt.
2
246
In einem gegebenen D-Prozeß 〈I, Ω, A, κ〉 gibt es immer gerade einen möglichen Verlauf ω0 ∈ Ω, der die Wirklichkeit repräsentiert. Ein Sachverhalt A ∈ A
ist demnach genau dann eine Tatsache, wenn ω0 ∈ A; und eine Überzeugung, die
einen solchen Sachverhalt zum Inhalt hat, ist wahr. Dies läßt sich ein Stückchen
weit auf OKFs übertragen; es ist vielleicht erlaubt zu sagen, daß eine A-OKF κ
insoweit wahr ist, als κ(ω0) = 0 gilt. Denn ein Subjekt, für dessen epistemischen
Zustand κ κ(ω0) = 0 gilt, hat lauter wahre Überzeugungen: es glaubt einen Sachverhalt A gerade dann, wenn κ( A ) > 0,1 wenn es A glaubt, gilt also ω0 ∈ A. Allerdings – und deswegen ist diese Redeweise gefährlich – gibt es viele OKFs, die in
ihrer insoweit gegebenen Wahrheitsfähigkeit gleichwertig sind; zwei OKFs κ und
κ' sind in dieser Hinsicht gerade dann äquivalent, wenn für alle ω ∈ Ω κ(ω) = 0
gdw. κ'(ω) = 0 gilt. Und dann hat man vorderhand gar keine Handhabe mehr, von
zwei solcherweise äquivalenten OKFs eine als wahr oder richtig auszuzeichnen.2
Das bedeutet aber, daß man im allgemeinen eine OKF insgesamt nicht als wahr
oder falsch bezeichnen kann.3
Nur für eine spezielle Sorte von OKFs gilt, daß sie durch das Stückchen, insoweit sie wahr sein können, schon ganz bestimmt sind – nämlich für die, die nur 0
und 1 als Werte annehmen. Definieren wir dazu für jedes L ∈ A \ {∅}die A-OKF
⎧0 für ω ∈L ⎫
L
κL durch κL (ω) = ⎨
⎬ . Dann ist die Menge aller κ offenkundig gerade
⎩ 1 sonst ⎭
die Menge aller A-OKFs, die nur die Werte 0 und 1 annehmen; und sie stehen in
eineindeutiger Entsprechung zu den Sachverhalten aus A \ {∅}. Daher kann man
von einer solchen OKF κL – und nur von einer solchen – sagen, sie sei wahr oder
falsch, je nachdem, ob der ihr entsprechende Sachverhalt L besteht oder nicht.
Da liegt nun der Gedanke nahe, für L denjenigen Sachverhalt zu nehmen, der
durch die Konjunktion aller (im betrachteten Prozeßraum) gültigen Naturgesetze
beschrieben wird. Man könnte hoffen, damit zwei Fliegen mit einer Klappe zu
schlagen: zum einen hätte man in κL eine wahrheitsfähige, realistisch interpretierbare OKF, und zum andern könnte man so wieder zu der als allerersten (auf S.
152) erwogenen und nur ungern verworfenen Konzeption deterministischer Pro1
Vgl. S. 177.
Mit der einen kann man vielleicht, vage ausgedrückt, die erfolgreicheren Induktionen machen als
mit der anderen; und insofern könnte man sagen, daß die eine die richtigere ist. Aber was das mit
Wahrheit zu tun hat, gilt es ja gerade zu klären.
3
Was natürlich wahr oder falsch sein kann, ist die Aussage, daß ein Subjekt X eine OKF κ hat, daß
κ also den epistemischen Zustand von X repräsentiert; doch sagt das nichts über die Wahrheit von
κ selbst.
2
247
zeßgesetze zurückkehren. Doch es bleibt dabei, daß diese Konzeption zu verwerfen ist; bezüglich κL ergeben sich nämlich – wie L auch beschaffen ist – immer
unerwünschte Kausalverhältnisse. Dies sei nur an einem besonders deutlichen Fall
demonstriert:
Sei A ∈ Ai, B ∈ Aj, τi < τj, ω ∈ A ∩ B und Zω wie üblich das Element von Z<i j
mit ω ∈ Zω. Gelte ferner ω ∈ L; denn der Fall, daß ω ∉ L, ist uninteressant, wo L
wahre Naturgesetze repräsentieren soll. Machen wir schließlich die im Regelfalle
erfüllte Annahme, daß A ∩ Zω ∩ L = ∅; normalerweise wird A ja aus dem ganzen
Zω naturgesetzlich folgen. Dies impliziert, daß κL( A ∩ Zω) = κL( A ∩ B ∩ Zω) =
κL( A ∩ B ∩ Zω) = 1, und demnach, daß κL(B | A ∩ Z ω) = κL( B | A ∩ Zω) = 0.
Also kann A in ω nur dann eine direkte Ursache für B bzgl. κL sein, wenn κL( B |
A ∩ Zω) = 1, d.h. wenn A ∩ B ∩ Zω ∩ L = ∅; A ist in diesem Falle eine nur hinreichende direkte Ursache für B. Die erste Merkwürdigkeit ist also, daß A unter
den gemachten Annahmen nur eine hinreichende, aber nie eine notwendige Ursache sein kann. Die zweite, hauptsächliche Merkwürdigkeit ist, daß danach viel zu
viele Sachverhalte direkte Ursachen von B sind: so z.B. jeder Sachverhalt, den
man intuitiv bloß als indirekte Ursache bezeichnen wollte, und, sofern B schon
von Zω allein naturgesetzlich impliziert wird, jeder von Zω naturgesetzlich ausgeschlossene Sachverhalt. Und drittens wäre es, sofern bzgl. B und einem C ∈ Ak (τj
< τ k) die gleichen Annahmen gelten wie bzgl. A und B, unmöglich, daß A in ω
indirekte Ursache für C bzgl. κL ist.
Man kann sich leicht durchrechnen, daß κL auch dann, wenn man auf die Annahme A ∩ Zω ∩ L = ∅ verzichtet, inadäquate Ergebnisse erzeugt. Der Grund für
all die Absurditäten ist natürlich der altbekannte: daß κL allenfalls für bloß kontrafaktische Aussagen taugt, bei kontranomologischen Aussagen aber versagen muß.
Dies zeigt, was ich erläutern wollte: daß man mit den OKFs, die eine einfache
realistische Interpretation haben, kausaltheoretisch gar nichts anfangen kann, und
daß alle anderen OKFs keine einfache realistische Interpretation zulassen. Gibt es
einen Weg aus diesem Dilemma? Ich denke, ja; zu seiner Skizze sei zunächst
noch einmal allgemein auf einen Unterschied zwischen der wahrheitssemantischen und der ausdruckssemantischen Strategie, wie ich mich auf S. 161ff. ausdrückte, eingegangen:
Quine hat uns ein Problem immer wieder drastisch vor Augen geführt und uns
fast jeder Hoffnung auf eine Lösung beraubt: das Problem nämlich, für modale
oder intensionale Wendungen – also für das Reden von Bedeutungen, von propo-
248
sitionalen Einstellungen wie z.B. Überzeugungen, von Notwendigkeit und natürlich auch von Kausalität – auf extensionaler Basis und ohne faulen Rückgriff auf
andere intensionale Entitäten angemessene Wahrheitsbedingungen anzugeben, um
damit diese Wendungen sozusagen wissenschaftlich respektabel zu machen. Eine
konstruktive Lösung dafür ist bis heute nicht aufgetaucht; die häufigere Reaktion
war die, Quines strenge Forderung, sich auf eine so schmale Basis zu stellen, zu
negieren – womit man ihm implizite recht gab in der Meinung, daß die Kluft zwischen Extensionalem und Intensionalem unüberbrückbar ist und daß sich modales
Reden nicht wahrheitsfähig machen läßt.
Dies ist freilich nur die eine Seite der Medaille, nur die Sicht des Problems, wie
sie sich von der wahrheitssemantischen Strategie her ergibt. Man kann die Angelegenheit auch von der anderen Seite, von der Seite her, auf der wir uns eigentlich
dauernd aufhalten, betrachten, und da schaut diese Kluft kaum weniger unüberwindlich aus. Denn intensionale Wendungen sind so ubiquitär, unser Reden ist
dauernd so modal gefärbt, daß man sich nur wundern kann, wie wir es streckenweise schaffen, unser Reden von solchen Elementen zu befreien und wahrheitsfähig zu machen. Oder etwas deutlicher von der ausdruckssemantischen Strategie
her formuliert: In unsere inneren Zustände gehen Propositionen nicht einfach als
wahr oder falsch, Sachverhalte nicht einfach als bestehend oder nicht bestehend
ein; Propositionen oder Sachverhalte haben dort immer einen modalen Wert, sie
sind dort immer Gegenstand einer Einstellung. Wenn nun aber, wie die ausdruckssemantische Strategie sagt, durch Sprache in erster Linie unsere inneren
Zustände ausgedrückt werden,1 so tragen sprachliche Äußerungen zunächst auch
diese modale Färbung. Wie Äußerungen oder Sätze diese modale Färbung je verlieren können – wenn sie es tun –, ist dann von daher durchaus rätselhaft.
In jedem Fall ist also zu versuchen, die Kluft zwischen Modalem und Wahrheitsfähigem zu schließen; denn sonst bleibt einem als theoretische Position nur,
sich auf eine Seite der Kluft zu stellen und die andere Seite verloren zu geben;
und das ist unbefriedigend, welche Seite man auch wählt. Die Frage ist nur, von
welcher Seite aus man die Brücke schlagen soll. Hier ist meiner Meinung nach
dem Versuch, vom Modalen her Wahrheitsfähigkeit zu erklären, gegenüber dem
Versuch, aus dem Wahrheitsfähigen Modalitäten zu konstruieren, der Vorzug zu
1
Mit „in erster Linie“ ist nicht gemeint, daß unser Hauptinteresse immer dem Ausdruck unserer
inneren Zustände gälte, sondern bloß die kaum bestreitbare Tatsache, daß unsere inneren Zustände
die unmittelbaren kausalen Vorgänger unserer sprachlichen Äußerungen sind, so daß, was Äußerungen sonst noch zeigen oder bedeuten, immer über die inneren Zustände vermittelt ist.
249
geben. Denn Quine hat uns gezeigt, daß das Konstruieren vielleicht nicht gerade
unmöglich, aber doch auf keine derzeit ersichtliche Weise möglich ist; und dann
hat es keinen Zweck, auf dem Konstruieren zu beharren. Es ist auch gar nicht nötig; denn der operationalistische Standpunkt, wonach als Methode der Theoriebildung nur das Konstruieren oder Definieren aus Gegebenem oder Akzeptiertem
zugelassen ist, hat sich noch immer als fatal und unannehmbar erwiesen.1
Wenn es denn also sowohl zulässig wie ratsam ist und auch im Einklang mit
der ausdruckssemantischen Strategie steht, den notwendigen Brückenschlag zwischen Extensionalem und Intensionalem von letzterem her zu versuchen, so gilt
es, den Objektivierungsprozeß, in dem die Eliminierung von modalen Elementen
besteht, sorgfältig zu beschreiben. Dieser Objektivierungsprozeß schreitet in der
Tat an einer sehr breiten Front voran, die aus diversen Teilstücken besteht. Ein
einfacherer Aspekt ist z.B. die möglichst weitgehende Eliminierung von indexikalischen Elementen aus unseren Äußerungen, bis man bei zeitlosen Sätzen angelangt ist, die für sich und ohne Bezugnahme auf einen Kontext einen Wahrheitswert haben können.2 Ein undurchsichtigerer Aspekt ist die Objektivierung
von Eigenschaften zu natürlichen Arten, physikalischen Größen oder was da sonst
noch in Frage kommen mag.3 Und ein dritter Aspekt, bestimmt nicht der letzte, ist
gerade unser aktuelles Problem, wie sich OKFs wahrheitsfähig machen lassen.
Die obige primitive Methode dazu verfing nicht, aber es ist dennoch möglich, und
dies sei nun skizziert:
Da ist zunächst festzuhalten, daß das, was wir als zusätzliche und als schwache
direkte Ursachen definiert hatten,4 in keiner Weise objektivierbar ist. Denn wenn
A bzgl. κ zusätzliche direkte Ursache für B ist, so heißt das, daß gemäß κ B schon
unter A (und dem relevanten Zω) sicher und eben unter A noch sicherer ist. Doch
kann B nicht wahrer als wahr sein; oder weniger salopp ausgedrückt: zusätzliche
direkte Ursachen gibt es nur da, wo κ neben 0 noch mindestens zwei andere Werte
annimmt. Und das läßt sich nicht wahrheitsfunktional nachvollziehen. Das Gleiche gilt für schwache direkte Ursachen. Demnach lassen sich also allenfalls hinreichende und/oder notwendige Ursachenverhältnisse objektivieren. Und weil
1
Wie Putnam nicht müde wird zu betonen. In Putnam (1975a) wirft er insbesondere Operationalismus gegenüber Intensionalem einer fiktiven Person vor, die er Quine1 nennt.
2
Wie es z.B. laut Quine (1957/58), Abschn. III, für die Wissenschaften nötig und charakteristisch
ist. Wenn Perry (1979) recht hat, so ist diese Eliminierung in gewissem Sinne nicht vollständig
durchführbar.
3
Vgl. dazu etwa Putnam (1969).
4
Vgl. die Definitionen 6.3 und 6.5, S. 211 und 212f.
250
man sich in der Regel halb oder ganz im Rahmen einer objektivistischen Interpretation von Ursachenaussagen bewegte, ist somit auch erklärlich, wieso hinreichende und notwendige Ursachenverhältnisse prominent und schwache und zusätzliche der allgemeinen Aufmerksamkeit entgangen sind.1
Der Grundgedanke dafür, Aussagen über hinreichende und/oder notwendige
direkte Ursachen wahrheitsfähig zu machen, liegt nun denkbar nahe: Er besteht
einfach darin, zunächst jedes solche Ursachenverhältnis durch eine materiale Implikation darzustellen. Wenn etwa A in ω eine hinreichende direkte Ursache für B
bzgl. κ ist, so werde das durch den Sachverhalt Hω,A,B = Ω \ (A ∩ Zω ∩ B ) repräsentiert – wobei Zω wie üblich erklärt sei; und wenn A in ω eine notwendige direkte Ursache für B bzgl. κ ist, so werde das durch den Sachverhalt Nω,A,B = Ω \
( A ∩ Zω ∩ B) repräsentiert. Jedes Hω,A,B und jedes Nω,A,B ist also ein Sachverhalt,
der durch einen wahrheitsfähigen Satz beschrieben werden kann; und das gleiche
gilt demnach für ihre Konjunktion, d.h. für den Sachverhalt L = {H ω, A, B | A
ω, A, B
ist in ω hinreichende direkte Ursache für B bzgl. κ} ∩ {N ω, A, B | A ist in ω
ω, A, B
notwendige direkte Ursache für B bzgl. κ}. L ließe sich dann als das Naturgesetz
bezeichnen, welches gemäß κ im betrachteten Prozeßraum gilt.
Kann man nun in irgendeinem Sinne behaupten, daß κ durch L repräsentiert
wird? Nicht unbedingt. Entscheidend dafür ist, daß sich aus L die durch κ gegebene Kausalstruktur rekonstruieren läßt; und das ist nicht ohne weiteres möglich.
Denn erstens sieht man etwa dem Sachverhalt Hω,A,B nur an, was darin die Wirkung sein soll – weil B der zeitlich späteste Teil von Hω,A,B ist –, aber nicht, von
welcher Ursache in ihm die Rede ist – es könnte ebensogut ein Teil von Zω die
betrachtete Ursache sein und A zu den obwaltenden Umständen gehören.2 Und
zweitens ist dem großen Durchschnitt L nicht mehr zu entnehmen, welche Sachverhalte in ihm konjunktiv zusammengefaßt wurden. Unter gewissen Voraussetzungen ist die Rekonstruktion der durch κ gegebenen Kausalstruktur aus L aber
1
Damit wird auch besser verständlich, wieso kausale Überbestimmtheiten, wie sie im Fall 6, S.
72ff., geschildert wurden, Kummer machen. Denn wenn ein Sachverhalt C durch zwei andere
kausal überbestimmt ist, so ist es erst einmal völlig unproblematisch zu sagen, daß jeder der beiden Sachverhalte in Gegenwart des anderen eine zusätzliche Ursache für C ist. Die Schwierigkeiten tauchen erst dann auf, wenn man sich, objektivierend eingestellt, das Reden von zusätzlichen
Ursachen versagt.
2
Man lasse sich nicht davon verwirren, daß unsere Bezeichnung „H ω,A,B von „H ω,A,B sehr wohl
klarstellt, was da Ursache und Wirkung sein soll.
251
dennoch möglich. Zwei diesen beiden Schwierigkeiten entsprechende Schritte
sind dazu nötig:
Im ersten Schritt empfiehlt es sich, nur eine bestimmte Wirkung B und all die B
betreffenden direkten Ursachenaussagen zu betrachten. Definieren wir dazu
LB = {H ω, A, B | A ist in ω hinreichende direkte Ursache für B bzgl. κ} ∩
ω, A
{N ω, A, B | A ist in ω notwendige direkte Ursache für B bzgl. κ}.1 Unter gewisω, A
sen Voraussetzungen – deren präzise Beschreibung natürlich noch zu liefern wäre,
aber keinerlei prinzipielle Schwierigkeiten aufwirft - ergibt sich dann für L B die
folgende logische Form, die schon von Mackie in (1965) und, ausführlicher noch,
in (1974), Kap. 3, untersucht worden ist: nämlich daß es ein A ∈ A gibt, so daß LB
= {ω ∈ Ω | ω ∈ A gdw. ω ∈ B}, wobei für die irreduzible adjunktive Normalform
(A11 ∩ … ∩ A1n1 ) ∪ … ∪ (Am1 ∩ … ∩ Amnm ) von A2 gilt, daß gerade die Ar1, …,
Arnr in allen ω ∈ A r1 ∩ … ∩ Arnr ∩ B die direkten Ursachen für B bzgl. κ sind (r
= 1, ..., m). Wenn LB von dieser Form ist, so läßt sich also für jedes ω ∈ LB ∩ B –
andere mögliche Verläufe sind nicht interessant – aus LB vollständig rekonstruieren, welche direkten Ursachen B in ω gemäß κ hat. Dies löst unsere erste Schwierigkeit.3
Wenn wir nun im zweiten Schritt alle LB zu L zusammenfassen wollen – es gilt
ja L = LB – so müssen wir darauf achten, daß die im ersten Schritt erzielten
B
Erfolge nicht wieder verloren gehen. Das Hauptproblem ist dabei dies: Sei LB =
{ω ∈ Ω | ω ∈ A gdw. ω ∈ B} von der oben beschriebenen Form; die irreduzible
adjunktive Normalform von A spezifiziert also gerade alle möglichen direkten
Ursachen von B gemäß κ. Sei weiter D eine dieser möglichen direkten Ursachen
von B. Mit D ist wiederum ein LD assoziiert, welches von der Form {ω ∈ Ω | ω ∈
1
L B ist also nicht, wie die Bezeichnung vielleicht suggeriert, ein allgemeiner oder gesetzesartiger
Sachverhalt.
2
Die irreduzible adjunktive Normalform von A ist in der folgenden Weise charakterisiert - wobei
für r = 1, …, m Ar = A r1 ∩ … ∩ Arnr sei: es gilt A1 ∪ ... ∪ Am = A; die A1, …, A m sind paarweise
disjunkt, d.h. für r ≠ s ist Ar ∩ As = ∅; für jedes r = 1, …, m und jedes s = 1, …, nr gibt es ein i ∈ I,
so daß Ars ∈ Ai, und für jedes r = 1, …, m und jedes s = 1, …, nr gilt nicht {Arp | p = 1,..., nr und
p ≠ s} ⊆ A, d.h. jede Konjunktion Ar ist in dem Sinne minimal, daß jede Verkürzung von ihr nicht
mehr Teilmenge von A ist. Die irreduzible adjunktive Normalform eines A ist immer eindeutig
bestimmt, so daß die Verwendung des bestimmten Artikels berechtigt ist. Vgl. dazu Stegmüller
(1983), S. 915f.
3
Ich bin mir nicht sicher, ob LB zur Durchführung dieses Schrittes genau diese Form haben muß;
wenn es andere Formen auch tun, so sind das aber sicherlich nur leichte Variationen der genannten
Form.
252
C gdw. ω ∈ D} sei. Wir können nun in A D durch C ersetzen – das Ergebnis davon sei A' - und schließlich den Sachverhalt LB′ = {ω ∈ Ω | ω ∈ A' gdw. ω ∈ B}
bilden. LB′ unterscheidet sich also von L B dadurch, daß in der irreduziblen adjunktiven Normalform von A' teils direkte, teils aber über D vermittelte indirekte
Ursachen von B auftauchen.1 Wie läßt sich dann aus der großen Konjunktion L
entnehmen, daß es LB und nicht LB′ ist, welches konjunktiv in L eingegangen ist,
daß es also LB und nicht LB′ ist, welches die direkten Ursachen von B angibt? Das
allgemeine Problem, das hier an der Ersetzung von D durch C in A demonstriert
wurde, ist also: wie lassen sich in L direkte und indirekte Ursachenverhältnisse
unterscheiden?2
Unter Bezugnahme auf κ oder auf die einzelnen L B ließe sich diese Frage sofort beantworten; aber diese Bezugnahme wollen wir ja im Zuge unserer Objektivierungsaktion gerade vermeiden. Gesucht ist also ein objektives Kriterium für
diese Unterscheidung. Ich sehe hier nur die Möglichkeit, auf die Kontiguität von
direkter Ursache und Wirkung zurückzugreifen: Wenn für das gerade diskutierte
B gilt, daß die gemäß LB möglichen direkten Ursachen von B dem B zeitlich unmittelbar vorausgehen, dann gibt es einen objektiven Unterschied zwischen L B
und LB′ ; denn nicht alles, was gemäß LB′ direkte Ursache von B wäre, ginge dem
B zeitlich unmittelbar voraus. Und wenn dies für alle B gilt, so gibt es also eine
objektive, nur auf die zeitlichen Verhältnisse sich beziehende Möglichkeit, aus L
für jedes B das damit assoziierte LB zu rekonstruieren. Dieser zweite Objektivierungsschritt für OKFs ist aber, genauso wie der erste, nicht allgemein durchführbar; er läßt sich nur für OKFs vollziehen, die der genannten Kontiguitätsbedingung genügen.
Es ist überdeutlich, daß dieser so skizzierte Objektivierungsprozeß formal genauestens auszuarbeiten ist. Aber es dürfte doch plausibel geworden sein, daß es
eine zufriedenstellende Möglichkeit gibt, OKFs wahrheitsfähig zu machen und so
unseren Kurs, der zu Beginn des Abschnitts 5.2 ganz ins Subjektivistische abdriftete, in der gewünschten Weise zu korrigieren.
Sind nun durch einen solchen Objektivierungsprozeß alle subjektiven Elemente
ausgetrieben? Nein; die wahre OKF gibt es nach wie vor nicht, und es sind nach
wie vor unsere epistemischen Zustände, für deren Charakterisierung die OKFs
1
Daß die direkten Ursachen von D auch Ursachen von B sind, sei in diesem Fall vorausgesetzt.
Unter anderem an diesem Problem war ja das auf S. 246f. diskutierte κL gescheitert, indem es alle
intuitiv indirekten Ursachen zu direkten machte.
2
253
gedacht sind: Wir haben den Drang, mit einer objektivierbaren OKF epistemisch
zu operieren. Wenn uns das gelingt, so läßt sich sagen, daß der unserer OKF gemäß obiger Skizze entsprechende allgemeine Sachverhalt L das Naturgesetz ist,
von dessen Gelten wir überzeugt sind. Dieses Naturgesetz ist etwas Wahrheitsfähiges, und natürlich werden wir daran interessiert sein und genau überprüfen, ob
das Naturgesetz, das wir glauben, auch wahr ist; und falls die Überprüfung negativ ausfällt, werden wir nach einer besseren objektivierbaren OKF und einem besseren Naturgesetz trachten. Was dabei auf uns Subjekte relativiert bleibt, ist der
Begriff des Naturgesetzes. Zwar ist jedes von uns möglicherweise geglaubte Naturgesetz ein objektiv bestehender oder nicht bestehender allgemeiner Sachverhalt. Aber daß ein allgemeiner Sachverhalt ein Naturgesetz ist, ist nicht objektiv;
er wird es nur durch die besondere Rolle, die er in unserem Bild von der Welt
spielt, nur dadurch, daß er das objektive Substrat einer objektivierbaren OKF von
uns ist. Dies ist nun freilich ein klassischer Standpunkt; in dieser Hinsicht hat diese Arbeit Hume nichts hinzuzufügen.
Eine letzte Bemerkung noch: So weit habe ich die Objektivierungsproblematik
nur innerhalb des deterministischen Rahmens andiskutiert. Das ist jedoch eine
gerade für mich unzulässige Prozedur, nachdem ich keine Gelegenheit ausgelassen habe, die enge Parallele zwischen dem deterministischen und dem probabilistischen Rahmen zu betonen. Die Diskussion wäre also entsprechend zu erweitern. Dabei könnte diese Parallele in beiden Richtungen fruchtbar sein. Einerseits
wäre auszuprobieren, inwieweit sich die Gedanken, die innerhalb des letztlich
einfacheren deterministischen Rahmens angemessen erscheinen, auf den probabilistischen Rahmen übertragen lassen.1 Und nachdem man sich über objektivistische und subjektivistische Interpretationen des Wahrscheinlichkeitsbegriffs schon
viel gründlicher den Kopf zerbrochen hat als über epistemische und realistische
Interpretationen der Konditionallogik, ist umgekehrt zu überprüfen, ob man daraus für den deterministischen Rahmen profitieren kann. Beides sei hier zukünftiger Arbeit überlassen.
1
Das Ergebnis hiervon wäre, scheint mir, mit Lewis (1980) verwandt, der freilich in dieser parallele denkt.
LITERATURVERZEICHNIS
Adams, E.W. (1965), „On the Logic of Conditionals“, Inquiry 8, 166–197
Adams, E.W. (1970), „Subjunctive and Indicative Conditionals“, Foundations of
Language 6, 89–94
Adams, E.W. (1975), The Logic of Conditionals, Dordrecht
Anderson, J. (1938), „The Problem of Causality“, Australasian Journal of Philosophy 2, 127–142
Anscombe, G.E.M. (1969), „Causality and Extensionality“, Journal of Philosophy
66, 152–159
Anscombe, G.E.M. (1975), „Causality and Determination“, in: Sosa (1975), S.
63–81
Aronson, J.L. (1970/71), „On the Grammar of ‚Cause‘“, Synthese 22, 414–430
Barwise, J., J. Perry (1981a), „Situations and Attitudes“, Journal of Philosophy
78, 668–691
Barwise, J., J. Perry (1981b), „Semantic Innocence and Uncompromising Situations“, in: P.A. French, T.E. Uehling, H.K. Wettstein (eds.), Midwest Studies in
Philosophy, Vol. VI, Minneapolis 1981, S. 387–403
Bauer, H. (1968), Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie,
Berlin
Beauchamp, T.L., A. Rosenberg (1981), Hume and the Problem of Causation,
New York, Oxford
Beckermann, A. (Hrsg.) (1977), Analytische Handlungstheorie, Band 2, Handlungserklärungen, Frankfurt a. M.
Bennett, J. (1976), Linguistic Behaviour, Cambridge
Braithwaite, R.B. (1959), Scientific Explanation, Cambridge
Broad, C.D. (1925), The Mind and Its Place in Nature, London
Brodbeck, M. (ed.) (1968), Readings in the Philosophy of the Social Sciences,
New York, London
Brunner, K., A.H. Meltzer (eds.) (1979), Three Aspects of Policy and Policymaking: Knowledge, Data and Institutions, Amsterdam
Burge, T. (1977), „Belief de re“, Journal of Philosophy 74, 338–362
Burks, A.W. (1951), „The Logic of Causal Propositions“, Mind 60, 363–382
Carnap, R. (1936/37), „Testability and Meaning“, Philosophy of Science 3 und 4;
auch erschienen: New Haven 1954
256
Carnap, R. (1956), Meaning and Necessity, Chicago
Carnap, R. (1966), Philosophical Foundations of Physics, New York
Carnap, R. (1971), „A Basic System of Inductive Logic, Part I“, in: R. Carnap,
R.C. Jeffrey (eds.), Studies in Inductive Logic and Probability, vol. I, Berkeley
1971, S. 33-165
Carnap, R. (1980), „A Basic System of Inductive Logic, Part II“, in: R.C. Jeffrey
(ed.), Studies in Inductive Logic and Probability, vol. II, Berkeley 1980, S.
7–155
Chisholm, R. (1946), „The Contrary-to-fact Conditional“, Mind 55, 289–307
Church, A. (1943), „Carnap’s Introduction to Semantics“, Philosophical Review
52, 298–304
Church, A. (1956), „Propositions and Sentences“, in: I.M. Boche_ski, A. Church,
N. Goodman (eds.), The Problem of Universals, Notre Dame 1956, S. 3–11
Collingwood, R.G. (1940), An Essay on Metaphysics, Oxford
Császár, A. (1955), „Sur la Structure des Espaces de Probabilité Conditionelle“,
Acta Mathematica Academiae Scientiarum Hungaricae 6, 337–361
Davidson, D. (1967), „Truth and Meaning“, Synthese 17, 304–323
Davidson, D. (1967a), „The Logical Form of Action Sentences“, in: N. Rescher
(ed.), The Logic of Decision and Action, Pittsburgh 1967, S. 81–95
Davidson, D. (1967b), „Causal Relations“, Journal of Philosophy 64, 691–703
Davidson, D. (1969), „The Individuation of Events“, in: Rescher et al. (1969), S.
216–234
Dawid, A.P. (1980), „Conditional Independence for Statistical Operations“, Annals of Statistics 8, 598–617
Dennett, D.C. (1982), „Beyond Belief“, in: Woodfield (1982), S. 1–95
Domotor, Z. (1980), „Probability Kinematics and Representation of Belief
Change“, Philosophy of Science 47, 384–403
Domotor, Z., M. Zanotti, H. Graves (1980), „Probability Kinematics“, Synthese
44, 421–442
Donnellan, K.S. (1966), „Reference and Definite Descriptions“, Philosophical
Review 75, 281-304
Dummett, M. (1973), Frege. Philosophy of Language, London
Ellis, B. (1978), „A Unified Theory of Conditionals“, Journal of Philosophical
Logic 7, 107–124
Ellis, B. (1979), Rational Belief Systems, Oxford
Evans, G. (1979), „Reference and Contingency“, Monist 62, 161–189
Feigl, H. (1953), „Notes on Causality“, in: H. Feigl, M. Brodbeck (eds.), Readings
in the Philosophy of Science, New York 1953, S. 408–418
257
Field, H. (1978), „A Note on Jeffrey Conditionalization“, Philosophy of Science
45, 361–367
de Finetti, B. (1937), „Foresight: Its Logical Laws, Its Subjective Sources“, in:
H.E. Kyburg jr., H.E. Smokler (eds.), Studies in Subjective Probability, New
York 1964, S. 93–158; franz. Original in: Annales de l’Institut Henri Poincaré
7 (1937)
Føllesdal, D. (1965), „Quantification into Causal Contexts“, in: R.S. Cohen, M.
Wartofsky (eds.), Boston Studies in the Philosophy of Science, vol. 2, Cambridge, Mass., 1965, S. 263–274
Føllesdal, D. (1983), „Situation Semantics and the ‚Sling-shot‘ Argument“, Erkenntnis 19, 91–98
van Fraassen, B.C. (1970), An Introduction to the Philosophy of Time and Space,
New York
van Fraassen, B.C. (1976), „Representation of Conditional Probabilities“, Journal
of Philosophical Logic 5, 417–430
van Fraassen, B.C. (1980), „Rational Belief and Probability Kinematics“, Philosophy of Science 47, 165–187
Franzén, N.-O. (1961), Agaton Sax, der Meisterdetektiv, Wien
Frege, G. (1892), „Über Sinn und Bedeutung“, Zeitschrift für Philosophie und
philosophische Kritik N.F. 100, 25–50; auch in: G. Frege, Funktion, Begriff, Bedeutung. Fünf logische Studien (hrsg. von G. Patzig), Göttingen 1966,
S. 40–65
French, P.A., T.E. Uehling, H.K. Wettstein (eds.) (1979a), Contemporary Aspects
in the Philosophy of Language, Minneapolis
French, P.A., T.E. Uehling, H.K. Wettstein (eds.) (1979b), Midwest Studies in
Philosophy, vol. IV, Studies in Metaphysics, Minneapolis
Gärdenfors, P. (1979), „Conditionals and Changes of Belief“, Acta Philosophica
Fennica 30, 381–404
Gärdenfors, P. (1981), „An Epistemic Approach to Conditionals“, American Philosophical Quarterly 18, 203–211
Gasking, D. (1955), „Causation and Recipes“, Mind 64, 479–487
Good, I.J. (1960-62), „A Causal Calculus“, Teile I und II, British Journal for the
Philosophy of Science 11 (1960/61) 305–318 und 12 (1961/62) 43–51
Goodman, N. (1947), „The Problem of Counterfactual Conditionals“, Journal of
Philosophy 44, 113–128; auch in: Goodman (1965), S. 1–27
Goodman, N. (1961), „About“, Mind 70, 1–24
Goodman, N. (1965), Fact, Fiction, and Forecast, Indianapolis
Granger, C.W.J. (1980), „Testing for Causality: A Personal Viewpoint“, Journal
of Economic Dynamics and Control 2, 329–352
258
Harper, W.L. (1976), „Rational Belief Change, Popper Functions and Counterfactuals“, in: W.L. Harper, C.A. Hooker (eds.), Foundations of Probability
Theory, Statistical Inference, and Statistical Theories of Science, vol. I,
Dordrecht (1976), S. 73–115
Harper, W.L. (1980), „A Sketch of Some Recent Developments in the Theory of
Conditionals“, in: Harper, Stalnaker, Pearce (1980), S. 3–38
Harper, W.L., R. Stalnaker, G. Pearce (eds.) (1980), Ifs, Dordrecht
Hart, H.L.A., A.M. Honore (1959), Causation and the Law, Oxford
Hempel, C.G. (1965), Aspects of Scientific Explanation and Other Essays in the
Philosophy of Science, New York
Hesse, M.B. (1962), Forces and Fields, New York
Hewitt, E., K. Stromberg (1969), Real and Abstract Analysis, Berlin
Hintikka, J. (1962), Knowledge and Belief, Ithaca
Hughes, G.E., M.J. Cresswell (1968), An Introduction to Modal Logic, London
Hume, D. (1739), A Treatise of Human Nature, Book I; die Verweise beziehen
sich auf: Ein Traktat über die menschliche Natur, Buch I (übers. von Th.
Lipps), Hamburg 1904
Hume, D. (1777), An Enquiry Concerning Human Understanding; die Verweise
beziehen sich auf: Eine Untersuchung über den menschlichen Verstand (hrsg.
von R. Richter), Hamburg 1973
Hummell, H.J., R. Ziegler (Hrsg.) (1976), Korrelation und Kausalität, Band 1,
Stuttgart
Jeffrey, R.C. (1965), The Logic of Decision, New York, 2. Aufl. 1983
Jeffrey, R.C. (1969), „Statistical Explanation vs. Statistical Inference“, in: Rescher et al. (1969), S. 104–113
Kant, I. (1781), Kritik der reinen Vernunft
Kaplan, D. (1969), „Quantifying In“, in: D. Davidson, J. Hintikka (eds.), Words
and Objections, Dordrecht 1969, S. 206–242
Kaplan, D. (1978), „Dthat“, in: P. Cole (ed.), Syntax and Semantics, vol. 9, Pragmatics, New York 1978, S. 221–243
Kim, J. (1971), „Causes and Events: Mackie on Causation“, Journal of Philosophy 68, 426–441; auch in Sosa (1975), S. 48–62
Kim, J. (1978), „Supervenience and Nomological Incommensurables“, American
Philosophical Quarterly 15, 149–156
Kim, J. (1979), „Causality, Identity, and Supervenience in the Mind-Body Problem“, in: French, Uehling, Wettstein (1979b), S. 31–49
Klaua, D. (1969), Allgemeine Mengenlehre, Band II, Berlin
259
Krantz, D.H., R.D. Luce, P. Suppes, A. Tversky (1971), Foundations of Measurement, vol. I, New York
Kratzer, A. (1981), „Partition and Revision: The Semantics of Counterfactuals“,
Journal of Philosophical Logic 10, 201–216
Kripke, S.A. (1972, 1980), „Naming and Necessity“, in: D. Davidson, J. Hintikka
(eds.), Semantics of Natural Language, Dordrecht 1972, S. 253–355; auch als
Buch: Cambridge, Mass., 1980
von Kutschera, F. (1976), Einführung in die intensionale Semantik, Berlin
Lewis, D. (1972), „General Semantics“, in: D. Davidson, J. Hintikka (eds.), Semantics of Natural Language, Dordrecht 1972, S. 169–218
Lewis, D. (1973a), Counterfactuals, Oxford
Lewis, D. (1973b), „Causation“, Journal of Philosophy 70, 556–567; auch in:
Sosa (1975), S.180–191
Lewis, D. (1976), „The Paradoxes of Time Travel“, American Philosophical
Quarterly 13, 145–152
Lewis, D. (1979a), „Counterfactual Dependence and Time's Arrow“, Noûs 13,
455–476
Lewis, D. (1979b), „Attitudes de dicto and de se“, Philosophical Review 88,
513–543
Lewis, D. (1980), „A Subjectivist’s Guide to Objective Chance“, in: R.C. Jeffrey
(ed.), Studies in Inductive Logic and Probability, vol. II, Berkeley 1980, S.
263–293; auch in: Harper, Stalnaker, Pearce (1980), S. 267–297
Lewis, D. (1981), „Ordering Semantics and Premise Semantics for Counterfactuals“, Journal of Philosophical Logic 10, 217–234
Loar, B. (1981), Mind and Meaning, Cambridge
Loeb, L.E. (1974), „Causal Theories and Causal Overdetermination“, Journal of
Philosophy 71, 525–544
Loeb, P.A. (1979), „An Introduction to Nonstandard Analysis and Hyperfinite
Probability Theory“, in: A.T. Bharucha-Reid (ed.), Probabilistic Analysis and
Related Topics, vol. 2, New York 1979, S. 105–142
Lombard, L.B. (1979), „The Extensionality of Causal Contexts: Comments on
Rosenberg and Martin“, in: French, Uehling, Wettstein (1979b), S. 409–415
Mackie, J.L. (1962), „Counterfactuals and Causal Laws“, in: R.J. Butler (ed.),
Analytical Philosophy, Oxford 1962, S. 66–80
Mackie, J.L. (1965), „Causes and Conditions“, American Philosophical Quarterly
2, 245–264; gekürzt auch in: Sosa (1975), S. 15–38
Mackie, J.L. (1973), Truth, Probability and Paradox, Oxford
Mackie, J.L. (1974), The Cement of the Universe, Oxford
260
Martin, R.M. (1981), „On the Language of Causal Talk: Scriven and Suppes“,
Theory and Decision 13, 331–344
May, S., W.L. Harper (1976), „Toward an Optimization Procedure for Applying
Minimum Change Principles in Probability Kinematics“, in: W.L. Harper, CA.
Hooker (eds.), Foundations of Probability Theory, Statistical Inference, and
Statistical Theories of Science, vol. I, Dordrecht 19 76, S. 137–166
Mehlberg, H. (1980), Time, Causality, and the Quantum Theory, vol. I and II,
Dordrecht
Mesarovic, M.D., Y. Takahara (1975), General Systems Theory: Mathematical
Foundations, New York
Mill, J.St. (1843), A System of Logic
Montague, R. (1974), Formal Philosophy, New Haven
Nagel, E. (1961), The Structure of Science, New York
Nute, D. (1980), Topics in Conditional Logic, Dordrecht
Otte, R. (1981), A Critique of Suppes’ Theory of Probabilistic Causality“, Synthese 48, 167–189
Pap, A. (1955), Analytische Erkenntnistheorie, Wien
Perry, J. (1979), „The Problem of the Essential Indexical“, Noûs 13, 3–21
Platts, M. (1979), Ways of Meaning, London
Pollock, J.L. (1976), Subjunctive Reasoning, Dordrecht
Pollock, J.L. (1981), „A Refined Theory of Counterfactuals“, Journal of Philosophical Logic 10, 239–266
Popper, K.R. (1969), Logik der Forschung, Tübingen, 3. Aufl.
Popper, K.R. (1972), Objective Knowledge, Oxford
Putnam, H. (1962), „It Ain't Necessarily So“, Journal of Philosophy 59; auch in:
Putnam (1975b), Vol. 1, Kap. 15
Putnam, H. (1969), „On Properties“, in: Rescher et al. (1969), S. 235–254; auch
in: Putnam (1975b), Vol. 1, Kap. 19
Putnam, H. (1975), „The Meaning of ‚Meaning‘“, in: K. Gunderson (ed.), Language, Mind and Knowledge. Minnesota Studies in the Philosophy of Science,
vol. VII, Minneapolis 1975; auch in: Putnam (1975b), Vol. 2, Kap. 12
Putnam, H. (1975a), „The Refutation of Conventionalism“, in: M. Munitz (ed.),
Semantics and Meaning, New York 1975; auch in: Putnam (1975b), Vol. 2,
Kap. 9
Putnam, H. (1975b), Philosophical Papers. Vol. 1, Mathematics, Matter and
Method. Vol. 2, Mind, Language and Reality, Cambridge
Putnam, H. (1978), Meaning and the Moral Sciences, London
261
Putnam, H. (1980), „Models and Reality“, Journal of Symbolic Logic 45,
464–482; auch in: Putnam (1983), Kap.1
Putnam, H. (1981), Reason, Truth and History, Cambridge
Putnam, H. (1983), Philosophical Papers, vol. 3, Realism and Reason, Cambridge
Quine, W.V.O. (1951), „Two Dogmas of Empiricism“, Philosophical Review 60,
20–43
Quine, W.V.O. (1953), „Three Grades of Modal Involvement“, in: Proceedings of
the XIth International Congress of Philosophy, vol. 14, Brüssel 1953; auch in:
Quine (1976), Kap. 15
Quine, W.V.O. (1956), „Quantifiers and Propositional Attitudes“, Journal of
Philosophy 53, 177–187; auch in: Quine (1976), Kap. 17
Quine, W.V.O. (1957/58), „The Scope and Language of Science“, British Journal
for the Philosophy of Science 8, 1–17; auch in: Quine (1976), Kap. 22
Quine, W.V.O. (1960), Word and Object, Cambridge, Mass.
Quine, W.V.O. (1969), Ontological Relativity and Other Essays, New York
Quine, W.V.O. (1973), The Roots of Reference, La Salle, Ill.
Quine, W.V.O. (1976), The Ways of Paradox and Other Essays, Cambridge,
Mass., 2. erw. Ausgabe
Reichenbach, H. (1951), The Rise of Scientific Philosophy, Berkeley; die Verweise beziehen sich auf die deutsche Übers.: Der Aufstieg der wissenschaftlichen
Philosophie, Braunschweig 1968
Reichenbach, H. (1956), The Direction of Time, Berkeley
Reichenbach, H. (1958), The Philosophy of Space and Time, New York
Reid, Th. (1785), Essays on the Intellectual Powers of Man
Reid, Th. (1788), Essays on the Active Powers of the Human Mind
Rényi, A. (1955), „On a New Axiomatic Theory of Probability“, Acta Mathematica Academiae Scientiarum Hungaricae 6, 285–335
Rescher, N. (1964), Hypothetical Reasoning, Amsterdam
Rescher, N. (1975), A Theory of Possibility, Oxford
Rescher, N., et al. (eds.) (1969), Essays in Honor of Carl G. Hempel, Dordrecht
Richter, H., (1972), „Eine einfache Axiomatik der subjektiven Wahrscheinlichkeit“, in: Symposia Mathematica, vol. IX, London 1972, S. 59–77
Rosenberg, A. (1973), „Causation and Recipes: The Mixture as Before?“, Philosophical Studies 24, 378–385
Rosenberg, A., R.M. Martin (1979), „The Extensionality of Causal Contexts“, in:
French, Uehling, Wettstein (1979b), S. 401–408
262
Russell, B. (1912/13), „On the Notion of Cause“, Proceedings of the Aristotelian
Society 13, 1–26; die Verweise beziehen sich auf den Abdruck in: B. Russell,
Mysticism and Logic, London 1963, S. 132–151
Russell, B. (1921), The Analysis of Mind, London
Salmon, W.C. (1966), The Foundations of Scientific Inference, Pittsburgh
Salmon, W.C. (1971), „Statistical Explanation“, in: W.C. Salmon (ed.), Statistical
Explanation and Statistical Relevance, Pittsburgh 1971, S. 29–87
Salmon, W.C. (1981), „Probabilistic Causality“, Pacific Philosophical Quarterly
61, 50–74
Schiffer, S.R. (1972), Meaning, Oxford
Schilpp, P.A. (ed.) (1974), The Philosophy of Karl Popper, La Salle, Ill.
Schlick, M. (1925), Allgemeine Erkenntnislehre, Berlin
Schopenhauer, A. (1847), Über die vierfache Wurzel des Satzes vom zureichenden
Grunde
Scriven, M. (1959), „Explanation and Prediction in Evolutionary Theory“, Science 130, 477–482
Scriven, M. (196 3/64), Review of E. Nagel’s „The Structure of Science“, Review
of Metaphysics 18, 403–424
Scriven, M. (1966), „Causes, Connections and Conditions in History“, in: W.
Dray (ed.), Philosophical Analysis and History, New York 1966, S. 238–264
Sikorski, R. (1969), Boolean Algebras, Berlin
Simon, H.A. (1957), Models of Man, New York
Simpson, E.H. (1951), „The Interpretation of Interaction in Contingency Tables“,
Journal of the Royal Statistical Society, Ser. B, 13, S. 238–241
Sklar, L. (1976), Space, Time, and Spacetime, Berkeley
Sosa, E. (1970), „Propositional Attitudes de dicto and de re“, Journal of Philosophy 67
Sosa, E. (ed.) (1975), Causation and Conditionals, Oxford
Spohn, W. (1978), Grundlagen der Entscheidungstheorie, Kronberg/Ts.
Spohn, W. (1980), „Stochastic Independence, Causal Independence, and
Shieldability“, Journal of Philosophical Logic 9, 73–99
Spohn, W. (1983), „Probabilistic Causality: From Hume via Suppes to Granger“,
in: M.C. Galavotti, G. Gambetta (Hrsg.), Causalità e Modelli Probabilistici,
Bologna 1983, S. 69–87
Stalnaker, R.C. (1968), „A Theory of Conditionals“, in: N. Rescher (ed.), Studies
in Logical Theory, Oxford 1968; auch in Sosa (1975), S. 165–179, und in
Harper, Stalnaker, Pearce (1980), S. 41–55
263
Stalnaker, R.C. (1970), „Probability and Conditionality“, Philosophy of Science
37, 64–80
Stalnaker, R.C., R.H. Thomason (1970), „A Semantic Analysis of Conditional
Logic“, Theoria 36, 23–42
Stegmüller, W. (1970), Probleme und Resultate der Wissenschaftstheorie und
Analytischen Philosophie, Band II, Theorie und Erfahrung, 1. Halbband, Berlin
Stegmüller, W. (1973), Probleme und Resultate der Wissenschaftstheorie und
Analytischen Philosophie, Band IV, Personelle und Statistische Wahrscheinlichkeit, Berlin
Stegmüller, W. (1983), Probleme und Resultate der Wissenschaftstheorie und
Analytischen Philosophie, Band I, Erklärung – Begründung – Kausalität, Berlin, 2. Auflage
Suppes, P. (1970), A Probabilistic Theory of Causality, Amsterdam
Suppes, P. (1981), „Scientific Causal Talk: A Reply to Martin“, Theory and Decision 13, 363–379
Taylor, R. (1966), Action and Purpose, Englewood Cliffs
Teller, P. (1976), „Conditionalization, Observation, and Change of Preference“,
in: W.L. Harper, C.A. Hooker (eds.), Foundations of Probability Theory, Statistical Inference, and Statistical Theories of Science, vol. I, Dordrecht 1976, S.
205–259
Vendler, Z. (1967), „Causal Relations“, Journal of Philosophy 64, 704–713
Vollmer, G. (1981), „Ein neuer dogmatischer Schlummer? Kausalität trotz Hume
und Kant“, in: G. Funke (Hrsg.), Akten des Fünften Internationalen KantKongresses in Mainz 1981, Band 1, 2, Bonn 1981, S. 1125–1138
Watanabe, S. (1969), Knowing and Guessing, New York
Wold, H.O.A. (ed.) (1964), Model Building in the Human Sciences, Monaco
Woodfield, A. (ed.) (1982), Thought and Object, Oxford
von Wright, G.H. (1971), Explanation and Understanding, Ithaca
von Wright, G.H. (1974), Causality and Determinism, New York