In diesem Beitrag werden die Grundlagen der modernen Kausalanalyse knapp erläutert. Er richtet sich an Personen, die wissenschaftlich Forschen und dabei bisher nicht mit dieser Methode gearbeitet haben. Es handelt sich dabei weniger um ein reines statistisches Verfahren, wie beispielsweise eine Regression oder einen T-Test, sondern es beschreibt eine Art von Forschungspraxis. Der Artikel gliedert sich in mehrere Teile und wird stetig erweitert.

Alle Wissenschaften sind im Grunde an kausalen Zusammenhängen interessiert. Umso erstaunlicher ist es, dass dieses Konzept lange Zeit stark vernachlässigt wurde und kaum Hilfsmittel geschaffen wurden, um gezielt kausale Zusammenhänge untersuchen zu können. Dabei ist das Verständnis von Kausalität für das Überleben von zentraler Bedeutung. Ohne eine Bedeutung für kausale Zusammenhänge würden wir nicht in der Lage sein, Gefahren zu erkennen oder unsere Bedürfnisse befriedigen zu können. In den Wissenschaften ist es ähnlich: Beschreibungen eines Tatbestandes abzugeben, ist wichtig, aber nicht ausreichend. Möchte man etwas wirklich verstehen ist immer das Wissen von kausalen Zusammenhängen notwendig.

Als Beispiel für die klassischen nicht-kausalen Methoden in den Sozialwissenschaften lassen sich beispielsweise die Regressionsmodelle oder Korrelationen anführen. Hierbei versucht man Modelle zu erstellen, die auf Basis erhobener Daten berechnet werden. So sagt uns eine Korrelation etwas darüber aus, ob zwei Ereignisse oft zusammen auftreten bzw. gemeinsam variieren. Eine Regression ermöglicht es, Vorhersagen über künftige Entwicklungen zu treffen und stellt gewissermaßen eine verbesserte Korrelationsanalyse dar. Mögen diese statistischen Methoden sehr genau sein, sie sagen überhaupt nichts über die kausale Richtung einer Beziehung aus. Zwar kann eine Korrelation sehr deutlich zeigen, dass A und B gemeinsam variieren und irgendwie zusammenhängen zu scheinen - mehr aber auch nicht. Die Methode erlaubt nicht zu bestimmen, ob A auf B wirkt, B auf A, oder ob es eine bisher nicht untersuchte Variable C gibt, die wiederum A und B beeinflusst. Dazu sind dann theoretische Modelle notwendig, die aus der Statistik alleine nie hervorgehen können.

Warum ist das so? Warum haben wir in den letzten 100 Jahren zwar die Entwicklung der statistischen Werkzeuge und der Mathematik sehr stark vorangetrieben, aber warum sind diese Methoden weiterhin nicht in der Lage, das zu bestimmen, was uns wirklich interessiert, nämlich die Kausalität? Der Informatiker und Philosoph Judea Pearl hat diese Frage eingehend untersucht und auch historische Entwicklungen nachvollzogen. Seiner Darstellung nach ist es geradezu peinlich, wie sich viele Jahrzehnte lang führende Mathematiker und Statistiker um diese zentrale Frage der Kausalität gedrückt haben. In vielen Veröffentlichungen wird deutlich, wie unangenehm es war, bestimmte Zusammenhänge aufzuzeigen, sich dabei dabei stets um das Wort Kausalität zu winden, einfach, weil die Methoden solche Schlüsse nicht zulassen. Es scheint, dass eine Übersetzung dieses sehr grundlegenden Konzepts in die Sprache der Statistik, und das ist nun einmal die Mathematik, äußerst schwierig war. Bis heute werden in Grundlagenkursen nur die klassischen Methoden gelehrt, die neuen Konzepte scheinen noch nicht in die Lehrpläne Einzug gehalten zu haben. Das ändert sich langsam, zeigt aber deutlich, dass man noch am Anfang einer Entwicklung steht. Dabei sollte man sich auch bewusst sein, dass auch die neuen Methoden keine Allheilmittel darstellen und alle Probleme endgültig lösen würden. Aber zumindest liefern sie neue Ansätze, die wertvolle Schlussfolgerungen zulassen.

Wir wollen dies hier an einem Beispiel erläutern, wie die "alltägliche" Auffassung von Kausalität ist und wie diese Idee letztlich mathematisch übersetzt werden kann. Der Hahn kräht und die Sonne geht auf. Diese zwei Ereignisse, die man auf einem Bauernhof beobachten kann, treten gemeinsam auf. Würde man eine Beobachtung anstellen und die Ereignisse eine Weile protokollieren, käme man sicher zu dem Schluss, dass der rein deskriptive Zusammenhang als gesichert angenommen werden kann: immer wenn der Hahn am Morgen kräht geht kurze Zeit später die Sonne auf. Statistisch gesehen handelt es sich hierbei dann um eine recht deutlich Korrelation, Krähen (K) und Sonnenaufgang (S) variieren also gemeinsam. Bekannt ist aber: eine Korrelation impliziert noch keine Kausalität! Doch wie findet man nun heraus, was wirklich der Fall ist? Immerhin ist eine Korrelation zwingend notwendig, wenn eine echte Kausalität vorliegt. Kurz, sie ist ein notwendiges, aber nicht hinreichendes Kriterium. Wie würde ein Wissenschaftler weiter vorgehen?

Natürlich sagt uns unser Allgemeinwissen, dass die Erde um die Sonne kreist und Tag und Nacht zyklisch aufeinander folgen. Der Hahn ist ein Lebewesen mit einer inneren Uhr, das auf diesen Zyklus programmiert ist und deshalb recht genau vor Sonnenaufgang sein Krähen starten kann. Dieses Beispiel stellt uns also sicher nicht vor wirkliche Rätsel, illustriert das Beispiel aber gut, denn ohne dieses Allgemeinwissen wären wir recht hilflos, zumindest, was die klassische Statistik angelangt. Die Korrelation wäre sehr deutlich, aber daraus auf einen Zusammenhang schließen könnten wir nicht. Wir könnten ein weiteres klassisches Prinzip heranziehen, nämlich das der Zeitabfolge. Es besagt, dass das auslösende Ereignis immer zeitlich vor der Wirkung erfolgen muss. Wenn der Hahn das Krähen auslöst, dann muss er immer Krähen, bevor die Sonne aufgeht. Dies sei hier der Fall, die Bedingung also erfüllt. K erfolgt immer vor S, also kann theoretisch K die Ursache für S sein. Zwingend ist dieser Schluss natürlich nicht.

An dieser Stelle kommt ein Konzept ins Spiel, das die klassische Statistik lange Zeit vernachlässigt hat, obwohl es alltäglich ist: Manipulation. Der Mensch greift aktiv in ein System ein und schaut, was dann passiert. Lebewesen sind nämlich nie nur Beobachter, jedes Wesen interagiert auch mit seiner Umwelt. Wir führen Handlungen aus, die wiederum Folgen produzieren, kurz, wir probieren aus, testen, spielen und lernen dadurch. Wir können dies auch Lernen aus Versuch und Irrtum nennen. Wir sind nun als Wissenschaftler also angehalten, in die Ordnung des Systems einzugreifen und gewisse Schlüsselvariablen zu beeinflussen. In unserem Fall gibt es theoretisch zwei Möglichkeiten: den Sonnenaufgang oder den Hahn manipulieren. Mit der Sonne haben wir größere Probleme, deshalb wäre es einfacher, zuerst den Hahn zu verändern. Eine rabiate Methode wäre es, ihm einfach in der Nacht den Hals umzudrehen und zu sehen, was passiert. Tatsächlich würde dann irgendwann die Sonne aufgehen, ohne dass er sein Krähen abgegeben hätte. Dies wäre ein deutlicher Hinweis darauf, dass K nicht für S verantwortlich ist, immerhin wäre dann S ohne seine Ursache aufgetreten. Tierfreundlicher wäre der Versuch, den Hahn mitten in der Nacht zu wecken und ihn zum Krähen zu bringen, wie auch immer. In diesem Falle würden wir zwar K erzeugen, aber würde daraus S folgen? Nein, es würde dunkel bleiben. K würde in diesem Falle S nicht verursachen, denn die Ursache wäre vorhanden, die Wirkung aber nicht.

Deutlich wurde damit, dass die Manipulation der Umwelt für alle Tiere eines der zentralsten Wege ist, Informationen über Zusammenhänge kausal zu verstehen. Jeder, der als Kind die Herdplatte angefasst hat wird nie vergessen, wie herum die Kausalität abläuft, denn man hat nicht auf den Herd gefasst, weil man verbrannte Finger hatte. Umso erstaunlicher ist es, dass Pearl wohl der erste war, der versucht hat, dieses Konzept der Manipulation in die Sprache der Mathematik zu übersetzen, damit es, formal und bewiesen, sinnvoll genutzt werden kann. Immerhin ist es der Fall, dass wohl keine Wissenschaft ohne die Methoden der Mathematik auskommt und alles erst dann wirklich überzeugend belegt ist, wenn es sich in Daten und Zahlen messen und analysieren lässt.


 Pearl macht in seiner Darstellung klar: die bisherigen Möglichkeiten der mathematischen Sprache haben nicht ausgereicht, um solch komplexe Zusammenhänge überhaupt ausdrücken zu können. Insofern erscheint es wenig überraschend, dass die Statistik diese Probleme nicht inhaltlich angehen konnte, wenn schon ihre Sprache nicht die Chance bietet, sie überhaupt zu formulieren. Pearl führt deshalb eine Ergänzung ein und nennt dies Do-Calculus. Er entwickelt dabei ein formales System, das mit der bisherigen mathematischen Weise der Formulierung kompatibel ist und alle Anforderungen an Beweisbarkeit erfüllt. Um dies verstehen zu können, muss man sich die bisherige Mathematik bzw. Statistik ansehen. Von zentraler Bedeutung sind dabei konditionale Wahrscheinlichkeiten. Dies bedeutet: wie hoch ist die Wahrscheinlichkeit für Ereignis X, wenn wir wissen, dass zudem (bereits) das Ereignis Y eingetreten ist? Kommen wir auf das Beispiel des Hahns und der Sonne zurück. Wir können zwei Wahrscheinlichkeiten ausdrücken:

P(S) = Wahrscheinlichkeit, dass die Sonne aufgeht. (F#1 = Formel #1)

P(H) = Wahrscheinlichkeit, dass der Hahn kräht. (F#2)

Eine konditionale Wahrscheinlichkeit verknüpft nun diese Ereignisse:

P(S | H) = Wahrscheinlichkeit, dass die Sonne aufgeht, wenn der Hahn kräht. (F#3) Das Ereignis hinter dem Trennstrich gibt immer die Bedingung, also die Kondition an. Wem diese Schreibweise neu ist, kann auf der Wikipedia nachlesen. Wir können nun unser Beispiel inhaltlich weiter ausbauen. Wir wissen aus Erfahrung vom Bauernhof: wenn der Hahn kräht, dann geht demnächst die Sonne auf. Wir wissen also: das Krähen ist ein starkes Anzeichen, dass den Sonnenaufgang ankündigt (wenn nicht sogar auslöst). Wir können also sagen, dass das Krähen uns Informationen über die Situation liefert. Ist es dunkel und der Hahn kräht nicht, wird es wohl nicht hell werden. Die Wahrscheinlichkeit für einen Sonnenaufgang ist also größer, nachdem der Hahn gekräht hat. Formal sieht das so aus:

P(S | K) > P(S | ~K). (F#4) Die Tilde "~" steht dabei für das Logische "NICHT" (Negation).

Diese Darstellung ist bereits sehr alt und in der Statistik Standard. Leider hilft sie uns in keiner Weise bei unserer Suche nach der Kausalität. Wie wir bereits vorher festgestellt haben, können wir den Hahn manipulieren und finden dabei heraus, dass er wohl den Sonnenaufgang nicht auslöst, also in Wahrheit keine Kausalität vorliegt. Dennoch ist die Formel F#4 mathematisch gültig. Sie verknüpft die Ereignisse und zeigt uns an, dass die beiden Ereignisse häufig gemeinsam auftreten, allerdings haben wir keine Möglichkeit, eine kausale Richtung oder Verknüpfung damit anzugeben. Hier behindert die klassische Formulierung die Erforschung der Kausalität. Pearl hat aus diesem Grund einen neuen Operator entwickelt, den Do-Operator. Er versucht mathematisch zu formalisieren, was wir "Manipulation" genannt haben, also, dass eine bestimmte Situation aktiv verändert wird, um zu prüfen, was sich dadurch im Modell ändert. Do(H) soll dabei bedeuten, dass wir den Hahn manipulieren, also ihn beispielsweise zum Krähen bringen. Genauer formuliert:

P(S | H) = Wahrscheinlichkeit, dass die Sonne aufgeht, wenn beobachtet wird, dass der Hahn kräht. (F#5)

P(S | Do(H)) = Wahrscheinlichkeit, dass die Sonne aufgeht, wenn wir den Hahn zum Krähen bringen. (F#6)

Unsere empirischen Beobachtungen werden nun folgende sein: wir werden den Hahn traktieren können wie wir wollen, auch wenn er kräht wird dabei nicht immer die Sonne aufgehen. Wie nun genau dieser neue Operator in die bekannte Sprache übersetzt wird, ist sehr technisch und auf Beweisbarkeit ausgelegt. In der praktischen Anwendung werden wir den Operator an sich auch nicht weiter benötigen, er illustriert aber, dass erst mit ihm gewisse Konzepte der Forschung in die Sprache der Statistik übersetzt werden können. Für genauere Informationen zu der Thematik siehe [Pearl 2000: 85].


 

Neben dem sog. Do-Calculus entwickelt Pearl in seinem Werk ein System das hilft, Zusammenhänge in der Realität kompakt und präzise darzustellen und dabei gleichzeitig kausale Zusammenhänge angeben zu können. Im Prinzip handelt es sich dabei nur um Schaubilder, die bestimmte Variablen miteinander verbinden. Pearl nennt diese Art Graphen Directed Acyclic Graphs (DAG). Dies bedeutet, dass diese Graphen gerichtet sind, also jeder Pfeil nur eine Spitze hat und sie nicht zyklisch sein dürfen, also ein Graph der Form A --> B --> C --> A ist verboten. Auch dürfen Variablen nicht auf sich selbst verweisen, also der Form nach A --> A. Ein Beispiel für ein DAG sieht man hier:

DAG

Die Kreise mit Zahlen stehen dabei für die Variablen des Modells. Man sieht, dass dieses Modell bereits recht komplex ist, meistens wird man in Anwendungen weniger komplexe Modelle entwickeln wollen. Die Pfeile haben dabei die intuitive Bedeutung von Ursachen und Wirkungen. Beispielsweise würde hier Variable 5 die Variable 11 auf irgendeine Weise beeinflussen. Grundsätzlich sind diese Modelle schlichtweg deshalb sinnvoll, weil sie komplexe Zusammenhänge vieler Variablen knapp darstellen und daher auch ohne jede besondere Theorie Forschung erheblich erleichtern. Ein solches Modell wie oben rein sprachlich darstellen zu wollen wäre sicherlich sehr schwer zu verstehen.

Ein direkter Zusammenhang liegt vor, wenn zwei Variablen nur durch einen Pfeil verbunden sind, beispielsweise 5 und 11. Dann findet eine direkte Beeinflussung statt. Von einem Mechanismus spricht man, wenn zwischen Variablen andere Variablen liegen. Beispielsweise beeinflusst in dem Bild Variable 7 Variable 2, der Mechanismus dabei ist Variable 11. Von einem Collider spricht man, wenn zwei (oder mehr) Variablen eine andere Variable beeinflussen. In diesem Beispiel wäre Variable 9 ein Collider, da sie von 11 und 8 beeinflusst wird. Deutlich wird hierbei, dass man Wirkungszusammenhänge nur aufgrund des Bildes beurteilen kann. Pearl entwickelt in seinem Buch ein mathematisches Modell, das hinter dieser Logik steckt. Wir werden uns hier auf Schaubilder beschränken, da dies der übliche und sinnvolle Weg in der Praxis ist. Wir wollen ein weiteres Beispiel kurz inhaltlich Erläutern, dazu siehe folgenden DAG:

DAG

Urheber: Milgesch

Dabei stehen die Zahlen für folgende Variablen:

1: Sturm
2. Nässe
3. Sicht
4. Autounfall

Die Erklärung: gibt es einen Sturm, führt dies zu Nässe auf den Straßen durch Regen, zudem wird die Sicht schlechter, da es regnet und Blätter aufgewirbelt werden. Diese beiden Faktoren führen dazu, dass die Wahrscheinlichkeit für Autounfälle ansteigt. Autounfälle können also demnach durch Stürme erklärt werden, wobei Glätte und schlechte Sicht Mechanismen sind. Dies ist natürlich ein sehr einfaches Beispiel, es ist nicht erschöpfend und erklärt nicht alle Ursachen für Autounfälle. Es veranschaulicht aber, wie solche Diagramme zu lesen sind. Wie man an dem Wort "wahrscheinlich" sieht, handelt es sich bei dem Beispiel um eine probabilistische Hypothese bzw. ein solches Modell. Dies bedeutet, dass gewisse Ursachen nicht zwingend Wirkungen nach sich ziehen, sondern nur mit einer gewissen Wahrscheinlichkeit. In den Sozialwissenschaften sind quasi alle Hypothesen so aufgebaut, da sich fast immer min. ein Gegenbeispiel finden lässt, sodass man nicht von einem streng deterministischen Zusammenhang reden kann. Wenn man genauer nachdenkt kann man auch argumentieren, dass letztlich alle Gesetze so aufgebaut sind, da sich fast immer Ausnahmen finden lassen, selbst in den Naturwissenschaften.

Wie sind DAGs nun in der Praxis zu verwenden? Als Ratschlag kann gelten, dass man sich immer zuerst theoretisch fundierte Modelle und Hypothesen überlegen sollte, die man anschließend graphisch aufzeichnet. Man entwickelt dabei also, beispielsweise auf eigener Erfahrung oder nach dem bisherigen Stand der Forschung ein Modell, dass gewisse prüfbare Hypothesen enthält. Somit kommt man am Ende zu einer Zeichnung, die alle Variablen beinhalten sollte, die eine Rolle spielen. Die Pfeile geben die vermuteten Zusammenhänge an. Dabei sollte man nicht sparsam sein, sondern versuchen, möglichst alle wichtigen Einflüsse herauszufinden. Fehlen später Schlüsselvariablen oder Mechanismen kann das gesamte Modell unzureichend sein. Man denke daran, wir wollen hier kausale Zusammenhänge untersuchen, meistens nur einen einzigen. Beispielsweise: wie wirkt sich Arbeitslosigkeit auf die Zufriedenheit einer Person aus? Es ist klar, dass dies ein komplexes Modell sein wird, das viele Variablen enthält. Denn nicht nur das Beschäftigungsverhältnis wird unsere Zufriedenheit beeinflussen, sondern etwa auch Gesundheit, Beziehung, Familienstatus, Vermögen, Freundeskreis, etc... wir werden also ein komplexes Graphmodell entwickeln. Vergessen dürfen wir dabei nur nicht, was uns eigentlich interessiert.


 

Nachdem wir kurz erläutert haben, wie man Zusammenhänge graphisch veranschaulichen kann, soll nun das eigentliche Modell vorgestellt werden, mit dem anschließend Berechnungen durchgeführt werden können. Es handelt sich dabei um das kontrafaktische Modell. Wie der Name bereits sagt betrachtet man dabei Zustände, die so nicht realisiert werden, es handelt sich sozusagen um ein Gedankenexperiment. Diese Grundannahme ist recht alt, mathematisch konkretisiert wurde es jedoch erst in den letzten 50 Jahren. Das Modell fragt dabei immer, wie sich ein Ergebnis verändert hätte, wenn ein anderer Zustand eingetroffen wäre. Beispiel: wir wissen, dass Person A im Jahre 2010 geheiratet hat. Wir können nun das Zufriedenheitslevel dieser Person messen. Nun fragen wir: wie hoch wäre die Zufriedenheit dieser Person heute, wenn sie 2010 nicht geheiratet hätte? Wir interessieren uns also für einen Zustand, der nicht tatsächlich eingetroffen ist. Wäre es möglich, die Vergangenheit zu beeinflussen und die Heirat zu verhindern, so könnten wir den Zufriedenheitswert heute erheben und vergleichen. Würden wir feststellen, dass die Person im Modell mit der Heirat einen höheren Zufriedenheitswert hätte, so könnte man aussagen, dass die Heirat für die höhere Zufriedenheit verantwortlich ist (unter der Annahme, dass sich ansonsten keine Bedingungen verändert haben). Wie man feststellt, ist ein solches Vorgehen in der Realität nicht möglich, da eben eine Person nur immer einen Zustand realisieren kann und niemals mehrere. Wir haben also ein Missing Data Problem. Jedoch ist es möglich dieses Problem zu umgehen, wenn man nicht eine, sondern viele Personen untersucht. Dann lassen sich mit statistischen Methoden kausale Effekte berechnen. Die folgenden Beispiele wollen wir möglichst simpel halten. Wir nehmen an, dass es zwei Variablen gibt, wobei die eine die andere kausal Beeinflussen soll. Aus historischen Gründen nennen wir die verursachende Variable D und die beeinflusste Variable Y. Formal:

D --> Y

D soll eine Variable mit nur zwei Ausprägungen, also dichotom sein. Alle Fragen, die man mit Ja oder Nein beantworten kann, lassen sich etwa so anwenden: ist eine Person verheiratet? Besucht eine Person eine Fortbildung? Nimmt eine Person ein Medikament ein? Man nennt D auch Treatment-Variable, da sie angibt, ob eine Person ein Treatment, also eine gewisse Behandlung erfährt oder nicht. Wird das Treatment "gegeben", so erhält die Variable den Wert 1, ansonsten den Wert 0. Die Y-Variable nennt man auch Outcome-Variable. Sie wird meistens als metrisiert betrachtet und gibt das Ergebnis der Behandlung an. Beispielsweise kann dies das Zufriedenheitslevel sein, das Einkommen oder eine andere stetige Variable. Für die Outcomevariable werden ebenfalls zwei Zustände unterschieden: das Outcome mit dem Treatment (Y1) und das Outcome ohne das Treatment (Y0). Folgt man diesem Schema, kann man eine Vier-Felder-Tafel aufstellen:

  Y0
Y1
D = 0 Beobachtbar Kontrafaktisch
D = 1 Kontrafaktisch Beobachtbar

Deutlich wird dabei, dass es immer zwei Möglichkeiten gibt, die realisiert werden können und weitere zwei, die nicht realisiert werden können. Zur besseren Veranschaulichung ein Beispiel:

Y0 Y1
Heirat = Nein Wie hoch ist die Zufriedenheit einer nicht verheirateten Person? Wie hoch wäre die Zufriedenheit einer nicht verheirateten Person, wenn sie geheiratet hätte?
Heirat = Ja Wie hoch wäre die Zufriedenheit einer verheirateten Person, wenn sie nicht geheiratet hätte? Wie hoch ist die Zufriedenheit einer verheirateten Person?

Für eine Person i kann man also stets nur jeweils einen Zustand beobachten, aber niemals beide gleichzeitig. Man kann eben nicht gleichzeitig verheiratet sein auch nicht. Es ist demnach nicht ausreichend, nur eine einzige Person zu betrachten, da man so immer fehlende Werte haben wird. Das Konzept des kontrafaktischen Modells beruht nun darauf, viele Personen zu betrachten und die Effekte durch statistische Methoden berechnen zu können. Die tatsächliche Vorgehensweise hängt dann von den verfügbaren Daten ab, beispielsweise, ob man Querschnitts- oder Längsschnittdaten benutzt. Theoretisch kann man jedoch viele Effekte definieren, die dann in allen Anwendungen benutzt werden können. Dazu zählt beispielsweise der individuale Kausaleffekt, also der Effekt eines Treatments für eine bestimmte Person i. Dieser Wert ist definiert als δi=Yi1-Yi0. Wie bereits bemerkt ist dieser Wert jedoch nicht berechenbar, da immer einer der Outcomewerte fehlen wird.

 


 

Pearl, Judea: Causality: Models, Reasoning, and Inference, Cambridge 2009.

Dieses Werk stellt eine wichtige Basis der modernen Kausalanalyse dar und erschien erstmals im Jahre 2000. Pearl leitet dabei sein Modell der kausalen Begründung von Ereignissen her und beweist es mathematisch. Das Buch ist größtenteils der technisch und richtet sich hier vor allem an Mathematiker, für Sozialwissenschaftler und die praktische Anwendung sind diese Teile weniger gut zu gebrauchen. Dennoch sind sie natürlich wichtig, da sie das gesamte Konzept überhaupt erst herleiten und theoretisch fundieren. Einige Kapitel beziehen sich direkt auf Beispiele und Anwendungen und sind absolut lesenswert, besonders der Epilog richtet sich an Einsteiger und ist sehr zu empfehlen. Ebenfalls begründet Pearl in dem Buch sein Modell von kausalen Graphen, die von großer Bedeutung sind.