Autorenseite

 << zurück weiter >> 

Anzeige. Gutenberg Edition 16. 2. vermehrte und verbesserte Auflage. Alle Werke aus dem Projekt Gutenberg-DE. Mit zusätzlichen E-Books. Eine einmalige Bibliothek. +++ Information und Bestellung in unserem Shop +++

Gesetz und Wahrscheinlichkeit.

Zuerst erschienen in »Actes du congrès de philosophie scientifique. Sorbonne, Paris, 1935«, fasc. 4 (= Actualités scientifiques et industrielles, 391, Paris, 1936).


Zwei einfache Fragen sind es, auf welche die folgenden Betrachtungen eine Antwort geben sollen: Erstens: Wann spricht die Wissenschaft von einem »Gesetz«? Zweitens; Wie verwendet sie den Begriff der »Wahrscheinlichkeit«?

Beide Fragen müssen zusammen behandelt werden, weil sie letzten Endes nur eine einzige sind. Daß man mit der einen zugleich die andere beantwortet hat, sieht man leicht durch folgende kurze Überlegung: Das Gegenteil von »Gesetz« ist »Zufall«. Wenn man also definiert hat, was ein Gesetz ist, so erhält man durch Negation die Definition des Zufalls, und umgekehrt. Nun finden alle Wahrscheinlichkeitsregeln auf irgendwelche Vorgänge nur insofern Anwendung, als diese »zufällig« sind; die sogenannten Wahrscheinlichkeitsgesetze sind die Regeln des Zufalls. Wenn ich daher weiß, was Zufall ist, dann weiß ich auch, was Wahrscheinlichkeit bedeutet. Ich muß diese Bedeutung also angeben können, sobald ich weiß, was unter der Negation des Zufalls, also unter »Gesetzmäßigkeit«, zu verstehen ist. Folglich liefert die Definition von »Gesetzmäßigkeit« zugleich eine solche von »Wahrscheinlichkeit«.

Wir betrachten nur allereinfachste Situationen, da die Übertragung auf verwickeltere Fälle, so große technische Schwierigkeiten sie auch bieten mag, doch nicht zu prinzipiell neuen Problemen führt.

Es kommt vor, daß uns kein einziger Fall bekannt ist, in welchem ein Ereignis, das durch den Satz p beschrieben wird, nicht von dem Ereignis q gefolgt war. Wenn nun p, und daher auch q, ein sehr häufiges Vorkommnis ist, so sagen wir bekanntlich, das Ereignis q folge naturgemäß auf p, oder p »bewirke« q. (Daß wir mit p und q sowohl die Ereignisse selbst als auch die sie ausdrückenden Sätze bezeichnen, kann hier keine Verwirrung hervorrufen.) Jedesmal, wenn wir Wasser bei bestimmtem Druck auf bestimmte Temperatur erwärmen, beginnt es zu kochen; nie wurde eine Ausnahme beobachtet. In diesem Fall sagen wir, daß ein »Kausal«gesetz vorliege. Das Problem, das in den Worten »sehr häufig« verborgen ist, lassen wir einstweilen beiseite; dann interessiert uns dieser einfache Fall jetzt nicht, und wir betrachten sogleich sein Gegenteil.

Dieses liegt vor, wenn in sehr vielen Fällen, wo p eintrat, nicht immer q gefolgt ist. Sagen wir dann etwa, daß kein Gesetz bestehe? Durchaus nicht, sondern wir unterscheiden verschiedene Möglichkeiten. Zwar sagen wir jetzt, daß q bestimmt nicht die Wirkung von p ist, daß also kein »Kausal«gesetz beide verknüpft; es könnte aber immer noch sein, daß wir von einem »statistischen« Gesetz sprechen. Daß dies der Fall sei, würden wir z. B. sagen, wenn q in 95 % der Fälle auf p folgte, in den übrigen 5 % dagegen nicht – wobei wieder, wie stets bei den folgenden Überlegungen, vorausgesetzt ist, daß diese Zahlen bei der Durchschnittsbildung über eine sehr große Menge von Versuchen erhalten wurden.

Es kann nun sein, daß wir in allen Fällen, wo q nach p ausbleibt, trotz unablässigen Suchens nicht imstande sind, einen allen diesen Fällen gemeinsamen Umstand aufzufinden, den wir dann für das anormale Verhalten der 5 % verantwortlich machen würden. Dann würden wir das statistische Gesetz »Im Durchschnitt folgt p auf q im zwanzigsten Teil der Fälle« für etwas Letztes, nicht weiter Reduzierbares halten und schließlich jeden Versuch aufgeben, es auf kausale Gesetze zurückzuführen.

Die Sache würde aber prinzipiell nicht anders liegen, wenn wir statt 95 irgendeinen anderen durchschnittlichen Prozentsatz x festgestellt hätten. Wenn bei vielen Durchschnittsbildungen q ungefähr x mal unter hundert p eintritt, so werden wir dies als »statistisches Gesetz« formulieren, wobei x ebensogut 99 ½ wie 50 oder 1 sein kann, x kann also 0 sein, und dann würden wir uns unter ganz bestimmten Umständen sogar veranlaßt fühlen, das »Kausal«gesetz auszusprechen, das p den Eintritt von q verhindere.

In diesen Überlegungen muß der Begriff des »Zufalls« versteckt enthalten sein, denn das statistische Gesetz unterscheidet sich ja von dem kausalen eben durch das Element des Zufalls, welches es enthält. Der einzige Weg, dies Element aufzudecken, besteht in der Analyse der wissenschaftlichen Sprechweise.

Wenn in unserem vorigen Beispiel die 5 % »Ausnahmen« sich nicht nur »im Durchschnitt« einstellten, sondern so, daß etwa in einer bestimmten Reihe von Ereignissen p genau jedes zwanzigste Mal nicht von q gefolgt wäre, so würden wir nicht von einem statistischen, sondern von einem streng kausalen Gesetz sprechen, und zwar deshalb, weil in diesem Falle genaue und sichere Voraussagen über das Eintreten von q als Folge von p möglich wären. Es ist offenbar die »Regelmäßigkeit« der Folge, welche uns hindern würde, hier von Zufall zu sprechen; Regelmäßigkeit ist nur ein anderer Name für Gesetzmäßigkeit. Die Versuche der Wahrscheinlichkeitstheoretiker, den Zufall zu definieren, laufen in der Tat darauf hinaus, die besondere Art der »Unregelmäßigkeit« oder Regellosigkeit zu beschreiben, die das Gegenteil der Gesetzmäßigkeit ist.

Da es uns nicht auf die tatsächliche Durchführung der Beschreibung für eine komplizierte Situation ankommt, sondern nur auf ihr Prinzip, so genügt es, wenn wir dieses an einem ganz einfachen Falle erläutern. Wir nehmen an, daß jedesmal, wenn p nicht von q gefolgt ist, immer ein bestimmtes Ereignis r eintritt. Es wäre dann ein Kausalgesetz, daß p entweder q oder r bewirkt. Wir fragen: wann sagen wir unter diesen Umständen, daß es »gänzlich zufällig« sei, ob (nach eingetretenem p) q oder r geschieht? Diese Umstände entsprechen z. B. dem Roulettespiel (Rouge et Noir, wobei wir von der »Null« absehen), denn das Drehen (p) des Instrumentes kann entweder den Erfolg haben, daß die Kugel in einem schwarzen Felde liegen bleibt (q), oder daß sie in einem roten zur Ruhe kommt (r). Eines von beiden geschieht. Unsere Frage ist einfach die: »Was bedeuten hier die Worte: es gibt kein Gesetz?«

Die Antwort kann nur gegeben werden durch eine schlichte Beschreibung des von der Wissenschaft tatsächlich angewendeten Verfahrens der Entscheidung darüber, ob ein Gesetz oder Zufall vorliegt.

Auf den ersten Blick scheint es hier, als ob es zwei verschiedene Wege gäbe. Der erste – wir wollen ihn den apriorischen Weg nennen (was aber in keiner Weise an das Kantische oder ein ähnliches Apriori erinnern soll) – bestünde darin, daß man das Roulette physikalisch genau untersucht und darauf etwa das Urteil fällt: »die roten und die schwarzen Felder sind in mechanischer Hinsicht vollkommen gleich, daher ist es reiner Zufall, welches von beiden kommt«. Der zweite Weg – wir nennen ihn den aposteriorischen – bestünde in der Ausführung sehr vieler Versuche und Beobachtung der Verteilung und der relativen Häufigkeiten von Rot und Schwarz in der langen Reihe der Spielresultate.

Wir wenden uns zunächst der zweiten, aposteriorischen, Methode zu und fragen also: Welcher Art muß die Verteilung von Rot und Schwarz sein, damit wir das Fehlen jeder Gesetzmäßigkeit behaupten?

Die Antwort, die natürlich nichts anderes ist als eine Definition des Zufalls, lautet ungefähr – denn auf ganz exakte Formulierung kommt es uns hier nicht an –: Wir denken uns eine Gruppe von n aufeinanderfolgenden Versuchsresultaten, z. B. schwarz-rot-rot-schwarz (wo also n = 4) und sehen zu, wie oft diese Gruppierung in der langen Reihe unserer sämtlichen Spielresultate vorkommt. Die Zahl des Vorkommens sei z, die Gesamtzahl der herausgegriffenen Gruppen sei Z. Wenn nun für viele solcher Gruppen z/Z im Durchschnitt dem Werte 1/2 n nahe kommt, dann sagen wir, die Verteilung sei »rein zufallsmäßig«.

Setzen wir z. B. n = 1, so bedeutet das die Frage, wie oft unter Z Versuchen im Durchschnitt Rot erscheinen muß, damit wir es dem Zufall zuschreiben können. Die Formel der Definition gibt die Antwort, daß dies ungefähr in der Hälfte der Fälle stattfinden muß. In der Tat: wäre das nicht der Fall, sondern käme Rot z. B. öfter, so wäre es bevorzugt, und wir könnten es als statistisches Gesetz aussprechen, daß p eher r als q zur Folge hat (nach ungefähr angebbarem Zahlenverhältnis), und wir könnten Voraussagen darauf gründen. – Setzen wir n = 2, so heißt das, daß wir, um von Gesetzlosigkeit zu sprechen, jede der vier Gruppierungen rot-rot, rot-schwarz, schwarz-rot, schwarz-schwarz ungefähr gleich oft in unserer großen Versuchsreihe finden müssen, und zwar jede in etwa ¼ der untersuchten Zweiergruppen. Greifen wir eine große Zahl von je drei aufeinanderfolgenden Spielresultaten heraus, so muß etwa ein Achtel dieser Gruppen die Kombination rot-rot-rot, ein weiteres Achtel die Kombination rot-rot-schwarz aufweisen usw.

Diese Beispiele zeigen, daß die Definition des Zufalls (für die Roulette-Spiel-Resultate), die im ersten Augenblick uns künstlich erscheinen mag, in Wahrheit nur den Gedanken genauer zu formulieren sucht, daß keine der möglichen Anordnungen der Ergebnisse vor den übrigen irgendwie »bevorzugt« sein soll. Ebenso wie in unserem speziellen Beispiel von nur zwei Möglichkeiten q und r, die auf p folgen, wird in beliebigen allgemeineren Fällen die Definition der Regellosigkeit mit Hilfe der Formeln der »Wahrscheinlichkeitsrechnung« durchgeführt, und wir können jetzt etwas vag, aber wohl verständlich sagen: »Zufällig nennen wir Ereignisse, die den Regeln der Wahrscheinlichkeitsrechnung gehorchen.«

Die Wahrscheinlichkeitsrechnung ist dabei eine rein mathematische (logische) Disziplin, welche ebenso wie etwa die Arithmetik oder die »reine« Geometrie ganz unabhängig von irgendwelchen Erfahrungstatsachen konstruiert werden kann.

Wenn die hier entwickelte Auffassung richtig ist, so ist ein Problem völlig gegenstandslos geworden, das in neuerer Zeit den Philosophen nicht wenig Kopfzerbrechen bereitete: das sogenannte »Anwendungsproblem«. Es bestand in der Frage: Wie ist es möglich, die Wahrscheinlichkeitsrechnung auf die Wirklichkeit anzuwenden? Hier scheint ein spezieller Fall der allgemeinen Frage vorzuliegen: Wie kommt es, daß wir überhaupt Voraussagen über das Verhalten der Natur zu machen vermögen? Und das Paradoxon wird noch verschärft durch den Umstand, daß die Regeln, nach denen die Voraussage geschieht (z. B. daß beim Roulette in Monte Carlo die Bank im Durchschnitt gewinnen muß), »Gesetze des Zufalls« genannt werden, während doch »Zufall« definitionsgemäß Gesetz losigkeit bedeutet.

Wir sehen jetzt, daß nicht der geringste Grund zur Verwunderung vorliegt. Denn die Wahrscheinlichkeitsregeln gelten einfach deshalb für zufälliges Geschehen, weil wir das Geschehen, für welches sie gelten, eben »zufällig« nennen. Es handelt sich also um einen analytischen Satz, es besteht kein Problem mehr.

Die Situation ist ganz analog wie bei der Frage nach der Gültigkeit einer Geometrie für die Natur. Wenn man fragt: Wie kommt es, daß die euklidischen Sätze über die Gerade auf die Wirklichkeit anwendbar sind?, so lautet die (von Poincaré und Helmholtz gefundene) Antwort bekanntlich: Weil wir diejenigen Gebilde Gerade nennen, von denen die euklidischen Sätze gelten!

Daß man es in beiden Fällen mit ganz derselben Problemlage zu tun hat, die so leicht zu bewältigen ist, ist nur deshalb übersehen worden, weil man die ganze Aufmerksamkeit auf einen Punkt richtete, in dem tatsächlich ein Unterschied zwischen Wahrscheinlichkeitsrechnung und Geometrie besteht. Es ist die Frage, die sich in den obigen Ausführungen hinter den Worten »sehr viele« verbirgt und die man, ziemlich ungeschickt, durch den Ausdruck »Gesetz der großen Zahlen« charakterisiert hat. Während nämlich in der Geometrie die Vorschriften, denen eine euklidische Gerade zu folgen hat, in jedem Falle ganz bestimmt sind, so daß ein einzelnes physisches Gebilde zu bestimmter Zeit darauf geprüft werden kann, inwiefern es ihnen entspricht, sind die Regeln der Wahrscheinlichkeit von solcher Art, daß sie eine schlechthin endgültige Entscheidung darüber, ob Zufall vorliegt, ausschließen. Sie sind so festgesetzt, daß wir uns die Entscheidung immer noch vorbehalten, also im Prinzip immer noch die Möglichkeit offen lassen, unser Urteil über das Vorliegen von Zufall oder Gesetz zurückzunehmen. Würden wir z. B. feststellen, daß bei einem Roulette in den ersten 10.000 Versuchen Rot und Schwarz durchaus »zufallsmäßig« verteilt waren, daß aber bei den nächsten 10.000 ganz genau dieselbe Reihenfolge wiederkehrte, dann würden wir jedes Spielresultat der zweiten Serie durch Vergleich mit der ersten voraussagen können und würden erklären, daß vermöge eines uns unbekannten (und durch wissenschaftliche Untersuchung zu entdeckenden) Mechanismus das Roulette so eingerichtet sei, daß es immer gerade diese Serie von Spielresultaten hervorbringen müsse. Es bestünde ein kausales Gesetz, dem Zufall wäre kein Raum gegeben.

Da es denkbar ist, daß die Wiederholung gleicher Resultate nicht nach 10.000, sondern erst nach 1,000.000 oder einer noch beliebig größeren Zahl von Versuchen eintritt; da es ferner möglich ist, daß die Verteilung der Resultate von einer bestimmten Stelle an ihren Charakter ändert, indem z. B. die ersten tausend zufallsmäßig verteilt waren, während in den nächsten hunderttausend »Schwarz« ein starkes Übergewicht aufweist, so sehen wir uns durch solche Möglichkeiten veranlaßt, die Definition des Zufalls so einzurichten, daß sie gleichsam immer offen bleibt. Ganz falsch wäre es natürlich, diesen Umstand dadurch ausdrücken zu wollen, daß man hier von »unendlich vielen« Fällen spricht, über die der Durchschnitt zu nehmen sei, und die Berechtigung dazu durch einen Hinweis auf den Limes-Begriff der Mathematik ableiten zu wollen. Denn der Limes einer Funktion oder Reihe ist durch das Bildungsgesetz der Funktion oder Reihe bestimmt und erhält überhaupt erst durch dieses seinen Sinn. Von »Unendlichem« zu sprechen, ist beim Limes nur eine uneigentliche Ausdrucksweise für das Gegebensein eines solchen Gesetzes, welches erlaubt, beliebig viele Glieder der Reihe oder Werte der Funktion zu erzeugen. Kennt man keine Formel, nach welcher jedes Glied der Reihe konstruiert oder aus den vorhergehenden abgeleitet werden kann, so ist »limes« ein leeres Wort, dem keine Bedeutung gegeben wurde. Dieser Fall liegt aber gerade bei unseren Reihen vor, die durch Roulettespielen oder Würfeln oder dergleichen gewonnen werden. Es ist also Unsinn, die Wahrscheinlichkeit und damit den Zufall durch einen im »Unendlichen« liegenden Limes definieren zu wollen. Die hier vorkommenden Reihen brechen immer, da es sich um wirkliche Versuchs- oder Beobachtungsresultate handelt, im Endlichen ab.

Die einzige Möglichkeit, die beobachteten relativen Häufigkeiten zur Definition eines Wahrscheinlichkeitsbegriffes zu benutzen, bestünde daher darin, tatsächlich im Endlichen zu bleiben und eine ganz bestimmte Anzahl von Fällen, seien es 1000 oder eine Million oder 10 10 10, festzusetzen, die für die Durchschnittsbildung benützt werden soll. Tatsächlich verfährt man auch oft so, allerdings ohne sich auf eine bestimmte Anzahl ausdrücklich geeinigt zu haben. Stillschweigend sind gewisse Anzahlen zugrundegelegt, die aber je nach der Natur der Fälle im allgemeinen ganz verschieden und oft nur der Größenordnung nach ungefähr festgelegt erscheinen. Ausdrücklich trifft man freilich nie eine derartige Bestimmung, um stets die Möglichkeit offen zu halten, beliebige spätere Versuchsergebnisse in die Darstellung aufzunehmen.

Hierdurch wird gegenüber der Geometrie eine ganz andere Situation geschaffen, aber es besteht kein Grund zur Verwunderung, denn die besondere Lage ist von uns selbst herbeigeführt worden, in ihr drückt sich die Eigentümlichkeit unserer Begriffsbildung aus, zu der das Verhalten der Natur uns die Anregung gibt, ohne sie uns jedoch aufzuzwingen. Es steht nicht so, daß wir eine in der Welt sozusagen fertig vorliegende Wahrscheinlichkeit nicht definieren könnten, sondern wir wollen keine definieren, um eventuell auf den Fall vorbereitet zu sein, daß uns später doch noch die Aufstellung einer Formel zur exakten Voraussage der Ereignisse gelingt. Es gibt hier keinerlei Rätsel.

Eine falsche Problemstellung wäre es, nach einer Rechtfertigung dieses Verfahrens der offenen Definition zu fragen, ebenso wie es unsinnig ist, nach einer logischen Rechtfertigung des induktiven Verfahrens zu suchen (das ja, wie leicht zu sehen, mit unserer Frage zusammenhängt). Es gibt nur psychologische Ursachen dafür, warum wir nach einer langen Versuchsreihe, die »zufallsmäßige« Verteilung aufwies, bei weiterer Fortsetzung der Reihe wiederum dieselbe »Unordnung« erwarten; aber auch nur psychologische Ursachen dafür, daß wir uns in dieser Erwartung nicht absolut sicher fühlen.

Die Ursachen unserer Erwartungen werden durch frühere Erfahrungen hervorgerufen und können daher auch wirksam werden, ohne daß überhaupt Häufigkeitsbeobachtungen vorliegen. Wenn wir nur die Konstruktion des Roulettes betrachten, werden wir sofort annehmen, daß zwischen dem Auftreten von q und r (schwarz und rot) keine kausale Verknüpfung besteht, daß also ihr Auftreten den »Wahrscheinlichkeitsregeln« folgt. Damit sind wir bei der Betrachtung der zweiten Methode angelangt, die wir zur Entscheidung der Frage »Gesetz oder Zufall?« benützen, und die wir oben vorläufig den »apriorischen Weg« genannt haben.

An dieser Methode, die auf den ersten Blick mit Häufigkeiten gar nichts zu tun hat, können wir uns den Inhalt des Wahrscheinlichkeitsbegriffes so recht klarmachen. Dies hat in vorbildlicher Weise bereits der große Logiker Bernhard Bolzano in seiner »Wissenschaftslehre« getan. Wir tun gut daran, ihm in großen Zügen zu folgen.

Keine einzige Aussage, die wir im Leben oder in der Wissenschaft machen, beschreibt einen Tatbestand so genau, daß es nicht noch unendlich viele voneinander verschiedene Umstände gäbe, von denen jeder einzelne die Aussage wahrmachen würde. Nehmen wir z. B. die Aussage »Herr N. befindet sich im Universitätsgebäude« – wir nennen sie p –, und ferner die Aussagen »Herr N. befindet sich im ersten Stock des Universitätsgebäudes« (q); »er befindet sich im zweiten Stock des Gebäudes« (r); »er befindet sich im Vestibül« (s); »er befindet sich im Sekretariat« (t); – so ist klar, daß wann immer eine der Aussagen q, r, s, t wahr ist, dann auch p wahr ist: jede von ihnen impliziert p. Das Umgekehrte ist nicht der Fall, denn wenn wir nur wissen, daß p wahr ist (daß N. sich in der Universität befindet), so wissen wir noch nicht, welcher der Sätze q bis t wahr ist. Wohl aber pflegen wir zu sagen, daß p jedem dieser Sätze eine gewisse »Wahrscheinlichkeit« gibt, deren Größe wir je nach den Umständen (d. h. je nachdem, welche Sätze sonst noch wahr sind) verschieden annehmen. Gelten z. B. außerdem noch die beiden Sätze: es ist jetzt die Stunde, zu welcher N. Vorlesung hält (u) und, der Hörsaal des N. liegt im 2. Stock (v), so verleihen p, u und v zusammen dem Satze r (der den Aufenthalt des N. im 2. Stock behauptet) eine viel größere Wahrscheinlichkeit als den Aussagen q oder s oder t. Der Satz p allein gibt natürlich, so werden wir sagen, dem Satze r eine viel geringere Wahrscheinlichkeit, vielleicht z. B. eine ebenso große wie dem Satze q.

Es kann nun der Fall eintreten, daß die Menge aller Umstände, die einen bestimmten Satz p wahrmachen, in einem angebbaren Zahlverhältnis steht zu der Menge aller Umstände, die sowohl den Satz p als auch einen anderen Satz q wahrmachen. Ist dann die Maßzahl der ersten Menge Z, die der zweiten (natürlich stets kleineren, im Grenzfall gleichen) z, so nennen wir Formel die Wahrscheinlichkeit, die der Satz p dem Satz q gibt.

Lautet der Satz p z. B. »ich werfe einen normalen Würfel«, und der Satz q »ich werfe eine 1«, so setzen wir z/Z = 1/6 indem wir (ob nun mit Recht oder Unrecht) annehmen, daß die Menge der Umstände, die zu einem Einserwurf führen, gleich ist der Menge der Umstände, die zu einem beliebigen anderen Wurf führen; und da sechs verschiedene Möglichkeiten von Wurfresultaten bestehen, so kommt auf jede von ihnen ein Sechstel der Maßzahl Z, welche die Menge der Umstände mißt, die überhaupt zu einem Wurf mit dem Würfel, also zur Wahrheit von p, führen.

Bedeutet p den Satz »Das Roulette wird in Tätigkeit gesetzt«, und q bzw. r wie oben die Sätze »das Spielresultat ist Schwarz« bzw. »Das Spielresultat ist Rot«, so schreiben wir auf Grund einer analogen Annahme den beiden Wahrscheinlichkeiten denselben Wert zu: Formel. In beiden Fällen bestimmt uns die Betrachtung der geometrischen Gestalt des Würfels und des Roulettes zu diesem Ansatz, denn die »Umstände«, von denen der Ausgang des Spieles abhängt, sind hier räumlich-mechanischer Natur. Verstehen wir aber unter p die Aussage: »N. ist im Universitätsgebäude« und unter q und r die Sätze »N. ist im ersten Stock«, bzw. »N. ist im zweiten Stock«, so werden wir nicht den Ansatz Formel auf Grund des physischen Umstandes machen, daß die Räume des ersten und des zweiten Stockwerks übereinstimmen, sondern die ausschlaggebenden »Umstände« anderswo suchen.

Es ist die Frage der »gleichwahrscheinlichen« Fälle, die hier auftaucht. Sobald man weiß, welche Fälle als gleichwahrscheinlich zu betrachten sind, ist bekanntlich der ganze Aufbau der Wahrscheinlichkeitsrechnung eine rein formale, mechanische Angelegenheit. Auch hier aber geschieht die Entscheidung nicht durch eine tiefsinnige »Lösung« des Problems, nicht durch ein »Prinzip des mangelnden Grundes«, sondern durch eine passende Festsetzung. Wir nennen diejenigen Fälle »gleichwahrscheinlich«, die in den Kalkül als gleichwertig eingesetzt zu praktisch befriedigenden Resultaten führen, d. h. die vorhin beschriebenen Häufigkeitsverteilungen ergeben. Welche Fälle dies sind, stellen wir entweder durch Ausprobieren und Auszählen nachträglich fest: das ist dann der »aposteriorische Weg«, den wir zuerst betrachteten; oder wir lassen uns bei der Beurteilung von früheren Erfahrungen leiten, d. h. wir stützen uns dabei auf bereits bekannte als wahr angenommene Gesetzmäßigkeiten, wie bei den zuletzt geschilderten Beispielen, die den Weg erläutern sollten, den wir vorläufig den »apriorischen« nannten. Wir sehen aber, daß beide Wege nicht prinzipiell verschieden sind. Denn in letzter Linie gehen alle unsere allgemeinen Aussagen über die Wirklichkeit darauf zurück, daß wir gewisse Abfolgen häufig oder immer beobachtet haben. Unsere Überzeugung, daß z. B. bei Roulette und Würfel die Gleichheit der geometrischen Gestalten und Abmessungen mit gleichen durchschnittlichen Häufigkeiten Hand in Hand geht, ist ja sicherlich ein Produkt von Erfahrungen, die wir über die Struktur der Naturprozesse im allgemeinen gemacht haben.

Bei der Definition der Wahrscheinlichkeit mit Hilfe der relativen Häufigkeiten trat eine Schwierigkeit auf, die mit dem Begriff der »großen« Zahlen und des Limes zusammenzuhängen schien; bei der Bolzanoschen (»logischen«) Definition der Wahrscheinlichkeit trat eine Schwierigkeit auf, die den Begriff des »Gleichwahrscheinlichen« betraf. Wir sehen jetzt, daß beide Schwierigkeiten im Grunde auf eine und dieselbe hinauslaufen und daß sie zu keiner philosophischen Beunruhigung Anlaß geben. Es drückt sich in ihnen kein wissenschaftliches Problem aus, sondern eine Eigentümlichkeit unserer Begriffsbildung: wir finden es praktisch, die Entscheidung darüber, wann wir mögliche Ereignisse in der Natur »gleichwahrscheinlich« nennen wollen, niemals endgültig zu fällen, sondern immer darauf gefaßt zu sein, daß unsere Voraussagen nicht eintreffen.

Bestimmten Ereignissen im Vergleich zu anderen eine gewisse relative Häufigkeit zuschreiben, und bestimmten Sätzen in bezug auf bestimmte andere eine gewisse Wahrscheinlichkeit zuschreiben, das sind zwei verschiedene Ausdrucksweisen für einen und denselben objektiven Tatbestand. Es handelt sich dabei um Tatsachen der »kausalen Struktur« der Wirklichkeit, über die in unseren Wahrscheinlichkeitsaussagen – wie in allen übrigen allgemeinen Aussagen – Hypothesen aufgestellt werden. Schematisch geht der Erkenntnisprozeß dabei so vor sich, daß zuerst gewisse relative Häufigkeiten beobachtet werden – d. h. es wird festgestellt, daß in so und so vielen Fällen (wenn möglich, in allen Fällen), in denen gewisse Aussagen p wahr sind, auch gewisse Aussagen q, r, s ... wahr sind; und dies wird dann als ein Indizium dafür betrachtet (das aber auch trügen kann), daß die Spielräume, welche die wirklichen Tatsachen jenen Aussagen geben, im Verhältnis jener Häufigkeiten zueinander stehen. Und hieraus entspringt dann wieder die Annahme, daß auch in Zukunft dieselben relativen Häufigkeiten sich einstellen werden ... Wenn z. B. bei 600 Würfen jede der sechs Seiten eines Würfels ungefähr 100mal auffiel, so betrachtet man dies als Indizium dafür, daß der Würfel nicht gefälscht ist. Daß also alle sechs Seiten des Würfels »gleichberechtigt« sind, kann auch als Aussage über den physikalischen Bau des Würfels aufgefaßt werden; und die beobachteten Häufigkeiten werden als Indizium dafür angesehen, daß er eben diesen regelmäßigen physikalischen Bau besitzt. In dieser Weise hängen die Bolzanosche und die Häufigkeits-Definition zusammen.

Zum Schluß ziehen wir aus dem Gesagten noch zwei wichtige Folgerungen.

Erstens sehen wir die heute wohl allgemein angenommene Auffassung bestätigt, daß die Wahrscheinlichkeitsaussagen vollkommen objektive Bedeutung haben und nicht etwa subjektive Erwartungszustände ausdrücken. Sie sagen etwas aus über das Verhältnis zweier oder mehrerer Sätze zueinander hinsichtlich ihrer Wahrheit; sie haben nichts damit zu schaffen, ob wir an die Wahrheit dieser Sätze glauben oder nicht. Der Irrtum der »subjektivistischen« Auffassung ist aber leicht zu verstehen. Er entsteht dadurch, daß uns in der Praxis nur diejenige Wahrscheinlichkeit eines Satzes interessiert, welche ihm durch solche Sätze gegeben wird, deren Wahrheit wir kennen oder glauben. Ändert sich unser Wissen (sagt man uns z. B., daß eine bestimmte Seite des Würfels belastet ist), so interessieren wir uns für eine andere Wahrscheinlichkeit des Satzes; diese selbst aber hängt nicht von unserem Wissen oder Glauben ab, sondern allein von den Sätzen, auf die sie bezogen wird.

Zweitens lehren uns unsere Betrachtungen, wie verkehrt es ist, die Wahrscheinlichkeit als ein Mittleres zwischen Wahrheit und Falschheit anzusehen. Jede Aussage ist entweder wahr oder falsch (vorausgesetzt, daß wir diese Worte in der im Leben und in der Wissenschaft üblichen Weise verwenden), und Wahrscheinlichkeit ist etwas, das der Aussage außerdem noch zukommt, nämlich in bezug auf andere Aussagen. Wahrheit und Falschheit sind nicht die obere, bzw. untere Grenze der Wahrscheinlichkeit, denn wären sie es, so müßte es ein Widerspruch sein, einem und demselben Satze zugleich Wahrheit und Wahrscheinlichkeit zuzuschreiben. Wenn aber jemand im Nebenzimmer eine Sechs gewürfelt hat, so ist der Satz »es wurde dort eine Sechs geworfen« wahr; dennoch muß ich natürlich sagen: »Die Wahrscheinlichkeit, daß eine Sechs geworfen wurde, ist ⅙ (nämlich in bezug auf den Satz: Es geschah ein Würfelwurf im Nebenzimmer«). Es ist absolut unrichtig, daß der Wahrscheinlichkeitswert 1 dasselbe wäre wie »Wahrheit«. Wenn man sagt, ein Satz q habe in bezug auf p die Wahrscheinlichkeit 1, so bedeutet dies: »q ist wahr, wenn p wahr ist«; das ist aber ganz etwas anderes als »q ist wahr«, denn dies muß gar nicht der Fall sein, denn niemand sagt, daß p wahr ist. Die Wahrscheinlichkeit, mit einem Würfel, der auf jeder Seite eine Sechs trägt, einen Sechserwurf zu machen, ist 1; dennoch muß der Satz »Es wurde mit einem derartigen Würfel eine Sechs geworfen« nicht wahr sein, denn vielleicht gibt es so einen Würfel gar nicht.

Damit ist auch die Frage, ob die Wahrscheinlichkeitsrechnung eine verallgemeinerte Logik sei, beantwortet, und zwar verneinend. Man kann von der Wahrscheinlichkeit mit Hilfe der üblichen Logik Rechenschaft geben und braucht sie nicht als neuen Grundbegriff neben Wahrheit und Falschheit einzuführen. Natürlich kann man beliebige mehrwertige Kalküle ersinnen und die darin vorkommenden Werte auf Grund gewisser formaler Analogien mit den Namen »wahr«, »falsch«, »wahrscheinlich« (oder »möglich«) belegen, aber einen neuen Kalkül als eine neue »Logik« zu bezeichnen, ist entschieden irreführend und durch den Sprachgebrauch nicht zu rechtfertigen.

Die vorstehenden Ausführungen haben keine strengen Formulierungen gegeben, sondern nur den Gebrauch einiger Grundbegriffe an der Hand einfacher Beispiele erläutert. Aber diese Methode genügte, um Antwort auf die beiden eingangs gestellten Fragen zu geben. Wir stellten fest, daß die erste Frage: »Wann spricht die Wissenschaft von einem Gesetz?« auf die zweite Frage zurückgeführt werden kann: »Wie verwendet sie den Begriff der Wahrscheinlichkeit?« Und die Antwort lautete: Die Anwendung des Wahrscheinlichkeitsbegriffes auf die Wirklichkeit ist ganz analog der Anwendung der geometrischen Grundbegriffe; in beiden Fällen handelt es sich um die Aufstellung solcher Definitionen, durch die man zu möglichst bequemen Beschreibungen und Prognosen von Tatsachen gelangt.


 << zurück weiter >>