Beitragsseiten

In diesem Beitrag werden die Grundlagen der modernen Kausalanalyse knapp erläutert. Er richtet sich an Personen, die wissenschaftlich Forschen und dabei bisher nicht mit dieser Methode gearbeitet haben. Es handelt sich dabei weniger um ein reines statistisches Verfahren, wie beispielsweise eine Regression oder einen T-Test, sondern es beschreibt eine Art von Forschungspraxis. Der Artikel gliedert sich in mehrere Teile und wird stetig erweitert.

Alle Wissenschaften sind im Grunde an kausalen Zusammenhängen interessiert. Umso erstaunlicher ist es, dass dieses Konzept lange Zeit stark vernachlässigt wurde und kaum Hilfsmittel geschaffen wurden, um gezielt kausale Zusammenhänge untersuchen zu können. Dabei ist das Verständnis von Kausalität für das Überleben von zentraler Bedeutung. Ohne eine Bedeutung für kausale Zusammenhänge würden wir nicht in der Lage sein, Gefahren zu erkennen oder unsere Bedürfnisse befriedigen zu können. In den Wissenschaften ist es ähnlich: Beschreibungen eines Tatbestandes abzugeben, ist wichtig, aber nicht ausreichend. Möchte man etwas wirklich verstehen ist immer das Wissen von kausalen Zusammenhängen notwendig.

Als Beispiel für die klassischen nicht-kausalen Methoden in den Sozialwissenschaften lassen sich beispielsweise die Regressionsmodelle oder Korrelationen anführen. Hierbei versucht man Modelle zu erstellen, die auf Basis erhobener Daten berechnet werden. So sagt uns eine Korrelation etwas darüber aus, ob zwei Ereignisse oft zusammen auftreten bzw. gemeinsam variieren. Eine Regression ermöglicht es, Vorhersagen über künftige Entwicklungen zu treffen und stellt gewissermaßen eine verbesserte Korrelationsanalyse dar. Mögen diese statistischen Methoden sehr genau sein, sie sagen überhaupt nichts über die kausale Richtung einer Beziehung aus. Zwar kann eine Korrelation sehr deutlich zeigen, dass A und B gemeinsam variieren und irgendwie zusammenhängen zu scheinen - mehr aber auch nicht. Die Methode erlaubt nicht zu bestimmen, ob A auf B wirkt, B auf A, oder ob es eine bisher nicht untersuchte Variable C gibt, die wiederum A und B beeinflusst. Dazu sind dann theoretische Modelle notwendig, die aus der Statistik alleine nie hervorgehen können.

Warum ist das so? Warum haben wir in den letzten 100 Jahren zwar die Entwicklung der statistischen Werkzeuge und der Mathematik sehr stark vorangetrieben, aber warum sind diese Methoden weiterhin nicht in der Lage, das zu bestimmen, was uns wirklich interessiert, nämlich die Kausalität? Der Informatiker und Philosoph Judea Pearl hat diese Frage eingehend untersucht und auch historische Entwicklungen nachvollzogen. Seiner Darstellung nach ist es geradezu peinlich, wie sich viele Jahrzehnte lang führende Mathematiker und Statistiker um diese zentrale Frage der Kausalität gedrückt haben. In vielen Veröffentlichungen wird deutlich, wie unangenehm es war, bestimmte Zusammenhänge aufzuzeigen, sich dabei dabei stets um das Wort Kausalität zu winden, einfach, weil die Methoden solche Schlüsse nicht zulassen. Es scheint, dass eine Übersetzung dieses sehr grundlegenden Konzepts in die Sprache der Statistik, und das ist nun einmal die Mathematik, äußerst schwierig war. Bis heute werden in Grundlagenkursen nur die klassischen Methoden gelehrt, die neuen Konzepte scheinen noch nicht in die Lehrpläne Einzug gehalten zu haben. Das ändert sich langsam, zeigt aber deutlich, dass man noch am Anfang einer Entwicklung steht. Dabei sollte man sich auch bewusst sein, dass auch die neuen Methoden keine Allheilmittel darstellen und alle Probleme endgültig lösen würden. Aber zumindest liefern sie neue Ansätze, die wertvolle Schlussfolgerungen zulassen.

Wir wollen dies hier an einem Beispiel erläutern, wie die "alltägliche" Auffassung von Kausalität ist und wie diese Idee letztlich mathematisch übersetzt werden kann. Der Hahn kräht und die Sonne geht auf. Diese zwei Ereignisse, die man auf einem Bauernhof beobachten kann, treten gemeinsam auf. Würde man eine Beobachtung anstellen und die Ereignisse eine Weile protokollieren, käme man sicher zu dem Schluss, dass der rein deskriptive Zusammenhang als gesichert angenommen werden kann: immer wenn der Hahn am Morgen kräht geht kurze Zeit später die Sonne auf. Statistisch gesehen handelt es sich hierbei dann um eine recht deutlich Korrelation, Krähen (K) und Sonnenaufgang (S) variieren also gemeinsam. Bekannt ist aber: eine Korrelation impliziert noch keine Kausalität! Doch wie findet man nun heraus, was wirklich der Fall ist? Immerhin ist eine Korrelation zwingend notwendig, wenn eine echte Kausalität vorliegt. Kurz, sie ist ein notwendiges, aber nicht hinreichendes Kriterium. Wie würde ein Wissenschaftler weiter vorgehen?

Natürlich sagt uns unser Allgemeinwissen, dass die Erde um die Sonne kreist und Tag und Nacht zyklisch aufeinander folgen. Der Hahn ist ein Lebewesen mit einer inneren Uhr, das auf diesen Zyklus programmiert ist und deshalb recht genau vor Sonnenaufgang sein Krähen starten kann. Dieses Beispiel stellt uns also sicher nicht vor wirkliche Rätsel, illustriert das Beispiel aber gut, denn ohne dieses Allgemeinwissen wären wir recht hilflos, zumindest, was die klassische Statistik angelangt. Die Korrelation wäre sehr deutlich, aber daraus auf einen Zusammenhang schließen könnten wir nicht. Wir könnten ein weiteres klassisches Prinzip heranziehen, nämlich das der Zeitabfolge. Es besagt, dass das auslösende Ereignis immer zeitlich vor der Wirkung erfolgen muss. Wenn der Hahn das Krähen auslöst, dann muss er immer Krähen, bevor die Sonne aufgeht. Dies sei hier der Fall, die Bedingung also erfüllt. K erfolgt immer vor S, also kann theoretisch K die Ursache für S sein. Zwingend ist dieser Schluss natürlich nicht.

An dieser Stelle kommt ein Konzept ins Spiel, das die klassische Statistik lange Zeit vernachlässigt hat, obwohl es alltäglich ist: Manipulation. Der Mensch greift aktiv in ein System ein und schaut, was dann passiert. Lebewesen sind nämlich nie nur Beobachter, jedes Wesen interagiert auch mit seiner Umwelt. Wir führen Handlungen aus, die wiederum Folgen produzieren, kurz, wir probieren aus, testen, spielen und lernen dadurch. Wir können dies auch Lernen aus Versuch und Irrtum nennen. Wir sind nun als Wissenschaftler also angehalten, in die Ordnung des Systems einzugreifen und gewisse Schlüsselvariablen zu beeinflussen. In unserem Fall gibt es theoretisch zwei Möglichkeiten: den Sonnenaufgang oder den Hahn manipulieren. Mit der Sonne haben wir größere Probleme, deshalb wäre es einfacher, zuerst den Hahn zu verändern. Eine rabiate Methode wäre es, ihm einfach in der Nacht den Hals umzudrehen und zu sehen, was passiert. Tatsächlich würde dann irgendwann die Sonne aufgehen, ohne dass er sein Krähen abgegeben hätte. Dies wäre ein deutlicher Hinweis darauf, dass K nicht für S verantwortlich ist, immerhin wäre dann S ohne seine Ursache aufgetreten. Tierfreundlicher wäre der Versuch, den Hahn mitten in der Nacht zu wecken und ihn zum Krähen zu bringen, wie auch immer. In diesem Falle würden wir zwar K erzeugen, aber würde daraus S folgen? Nein, es würde dunkel bleiben. K würde in diesem Falle S nicht verursachen, denn die Ursache wäre vorhanden, die Wirkung aber nicht.

Deutlich wurde damit, dass die Manipulation der Umwelt für alle Tiere eines der zentralsten Wege ist, Informationen über Zusammenhänge kausal zu verstehen. Jeder, der als Kind die Herdplatte angefasst hat wird nie vergessen, wie herum die Kausalität abläuft, denn man hat nicht auf den Herd gefasst, weil man verbrannte Finger hatte. Umso erstaunlicher ist es, dass Pearl wohl der erste war, der versucht hat, dieses Konzept der Manipulation in die Sprache der Mathematik zu übersetzen, damit es, formal und bewiesen, sinnvoll genutzt werden kann. Immerhin ist es der Fall, dass wohl keine Wissenschaft ohne die Methoden der Mathematik auskommt und alles erst dann wirklich überzeugend belegt ist, wenn es sich in Daten und Zahlen messen und analysieren lässt.