Natürlich sind die anormalen Einflüsse der Zukunft auf gegenwärtige Entscheidungen sehr klein. Wären sie es nicht, man würde sie ja im Alltag bemerken. Die geringe Stärke dieser Effekte zwingt einen allerdings dazu, statistische Rechnungen durchzuführen, um zu entscheiden, ob der beobachtete Effekt bloßer Zufall ist, oder echte "Psi-Kräfte" am Werk sind. Am einfachsten zeigt sich dies am ersten Experiment des Artikels. Dort sollen Probanden vorhersagen, in welchem von zwei Feldern auf dem Bildschirm ein Bild auftauchen wird. Nach der Wahl des Probanden wählt ein Zufallsgenerator das Feld aus, auf dem das Bild dann gezeigt wird. Wäre nur der Zufall am Werk, man sollte im Mittel 50% richtige Vorhersagen erwarten. Wenn es aber um Pornobilder geht, lag die Trefferquote bei 53,1%, also leicht über der erwarteten Trefferrate durch Zufall. Ist das nun ein Beweis für eine rätselhafte Vorhersage der Zukunft? Um das zu entscheiden, braucht man die Statistik. Denn wenn man nur wenige Versuche durchführt, wird es nicht unwahrscheinlich sein, vom theoretischen Mittelwert abzuweichen, auch wenn nur purer Zufall im Spiel ist. Wenn man etwa eine Münze nur zwanzig mal wirft, wird es nicht besonders verdächtig erscheinen, wenn man 12 mal "Kopf" und nur 8 mal "Zahl" geworfen hat. Wenn man aber zwei Million mal die Münze wirft, und man 1,2 Mio. mal "Kopf" und nur 800 000 mal "Zahl" bekommen hat, dann würde vieleicht doch der Verdach aufkommen, daß die Münze leicht manipuliert wurde. Und so muß man auch im Artikel entscheiden, was noch normaler Zufall ist, und was schon ein echter Effekt. Und dazu werden vom Autor des Artikels auch eine ganze Reihe statistischer Testmethoden herangezogen, deren Ergebnisse fast durchgängig lauten, daß die Wahrscheinlichkeiten für ein rein zufälliges Zustandekommen der Versuchsergebnisse bei so um die 1% für die einzelnen Experimente liegen. Für ein Experiment mag das noch nicht so beeindruckend sein, aber bei neun Experimenten? Das ist dann schon bemerkenswert, und man möchte die Ergebnisse gerne mal genauer ansehen! Aber da beginnen dann die Probleme.
Denn im Artikel werden die tatsächlichen Versuchsergebnisse fast gar nicht präsentiert, und es ist kaum möglich, die angegebenen Wahrscheinlichkeitswerte für das zufällige Zustandekommen der Ergebnisse nachzurechnen. Das einzige, was für manche Versuche möglich ist, ist das überprüfen der "Binomialtests", die der Autor durchgeführt hat. Und da begegnen einem kleine Merkwürdigkeiten...
Fangen wir mit Experiment 1, dem mit den Pornobildern, an. In der Versuchsbeschreibung steht, daß einmal 40 Testpersonen je zwölf Rateversuche mit Pornobildern, als negativ empfundenen Bildern und neutral wirkenden Bildern ausgeführt haben. Weitere 60 Testpersonen haben je 18 Versuche mit Pornobildern und nichterotischen, aber positiv belegten Bildern vorgenommen. Also sollten insgesamt 40 mal 12 plus 60 mal 18, d.h. 1560 Versuche mit erotischen Bildern durchgeführt worden sein. Von allen Versuchen mit erotischen Bildern sollen in 53,1% richtige Vorhersagen gemacht worden sein. Das wären also 828 oder 829 Treffer, genau läßt sich das bei der Rundung auf eine Nachkommastelle nicht sagen. Dieses Ergebnis hat der Autor einem Binomialtest gegen die Hypothese, daß das Versuchsergebnis nur Zufall ist, getestet. Dabei gibt er einen z-Wert von 2,30 und eine Wahrscheinlichkeit p dafür, daß man 828 (oder 829?) Treffer oder mehr bei 1560 Rateversuchen hat, von 1.1% an.
Rechnen wir nach. Den z-Wert erhält man, indem man den gemessenen Wert (hier: 828 oder 829) auf eine Normalverteilung mit Mittelwert 0 und Standardabweichung 1 umrechnet. Die Umrechnung sollte im vorliegenden Fall sehr einfach sein, denn die Meßergebnisse sollten, wenn nur der Zufall im Spiel ist, einer Binomialverteilung mit p = 0,5 folgen. Bei n Versuchen (hier ist n = 1560) ist der Erwartungswert dann n/p und die Varianz ist die Quadratwurzel aus np(1-p). Um zum z-Wert zu gelangen, muß vom Wert der Erwarungswert abgezogen werden, und durch die Varianz geteilt werden. Mit den angegeben Zahlen (p = 0,5, n = 1560) kommt man damit auf einen z-Wert von 2,43 (für 828 Treffer) oder 2,48 (für 829 Treffer), aber nicht auf 2,30, wie im Artikel genannt. Keine Ahnung, was hier falsch ist.
Die Wahrscheinlichkeit p läßt sich direkt aus der kumulativen Binomialverteilung bestimmen. Für 828 Treffer wäre die 0,81%, für 0,70%, aber nicht 1,1% wie im Artikel. Allerdings erhält man die angegeben 1,1%, wenn man den z-Wert von 2,30 nimmt, und eine Normalverteilung annimmt. Offensichtlich sind alle Wahrscheinlichkeiten im Artikel nicht aus der Binomialverteilung direkt, sondern über den z-Wert aus einer Normalverteilung berechnet worden. Das ist vieleicht nicht sehr elegant, verursacht aber nur einen kleinen Fehler.
Woher nun die Abweichungen zwischen dem obigen Nachrechnen und dem Artikel kommen, weiß ich leider nicht (Kommentare erwünscht!). Aber es gibt noch einige wenige weitere Fälle im Artikel, bei denen man den Binomialtest nachrechnen kann. Und da sind die gefundenen Abweichungen nur sehr klein, dafür aber umso merkwürdiger.
Nehmen wir erst mal Tabelle 2. In der zweiten Spalte sind da die Ergebnisse für Experiment 2 angegeben. Unter insgesamt 5400 Versuchen waren 2790 Treffer, d.h. die Trefferrate lag bei 51,7% (richtig). Der z-Wert dazu wird mit 2,44 angegeben. Rechnet man selber nach, so findet man 2,45. Das ist noch nicht sehr dramatisch, und den Wert für p von 0.7% ergibt sich aus der Normalverteilung sowohl für 2,44 als auch für 2,45. Vieleicht nur ein kleiner Rundungsfehler.
Gehen wir zur Tabelle 3. Hier finden sich 963 Treffer für 1800 Versuche, also eine Rate von 53,5% (richtig). Der angegebene z-Wert liegt bei 2,95. Wenn man nachrechnet, findet man aber 2,97. Das ist schon merkwürdiger. Der Wert von p von 0.2% muß dann auch mit z = 2,95 ausgerechnet worden sein, denn mit z = 2,97 würde man einen Wert von p=0.1% erhalten.
Noch merkwürdiger wird es, wenn wir in Tabelle 6 des Artikels gehen und dort die Zahlen des Binomialtests nachrechnen. Hier finden sich bei insgesamt 2304 Versuchen 1105 Treffer, also eine Rate von 48,0%, und nicht 47,9% wie im Artikel. Als z-Wert wird -1.94 angegeben, und p ist mit diesem z-Wert ausgerechnet worden. Wenn man nachrechnet findet man dagegen ein z von -1.96.
Fazit:
Die Wahrscheinlichkeiten p sind nicht aus den Versuchsergebnissen direkt ausgerechnet worden, sondern aus den z-Werten. Die z-Werte passen nicht zu den angegebenen Versuchsergebnissen. Die Abweichungen sind sehr klein, an der letzten angegebenen Stelle, aber nicht nur eine, sondern auch zwei Ziffern daneben, was gegen einen simplen Rundungsfehler spricht.
Woher diese Abweichungen kommen, weiß ich natürlich nicht. Aber wir können ja ein kleines Gedankenspiel machen. Angenommen, ich habe n Versuche durchgeführt. Nehmen wir weiter an, ich interessiere mich gar nicht so sehr für die tatsächliche Anzahl von Treffern, die erreicht wurde, sondern ich will lieber einen bestimmten z-Wert haben, der ein Versuchsergebnis durch puren Zufall unwahrscheinlich macht. Dann suche ich mir einen z-Wert aus, den ich gerne hätte. Mit dem berechne ich dann die Wahrscheinlichkeit p. Nur muß ich jetzt noch die richtige Anzahl von Treffern finden, die ich experimentell bestimmt haben müßte. Also rechne ich mit n und dem z-Wert zurück auf die Zahl der Treffer. Nur muß die Zahl der Treffer natürlich eine ganze Zahl sein, also runde ich mein Ergebnis durch Rückrechnen auf die nächste ganze Zahl. Würde ich so vorgehen, käme ich für Tabelle 6 mit meinem z von -1.94 auf 1105,44 Treffer, also 1105, wie angegeben. Für Tabelle 3 gibt das mit festem z = 2,95 dann 962,58, also 963 Treffer, wie angegeben. Und für Tabelle 2, mit z = 2,44, bekomme ich 2789,65 Treffer, zu Runden auf 2790, wie angegeben. So hätte ich dann exakt die Trefferzahlen, z-Werte und Wahrscheinlichkeiten p, die in den Tabellen der Arbeit angegeben sind.
Die winzigen Abweichungen zwischen den nachgerechneten z-Werten und den im Artikel angegeben z-Werten lassen sich also problemlos verstehen, wenn man annimmt, daß die Schlußfolgerungen der Arbeit nicht aus den Versuchsergebnissen bestimmt wurden, sondern die Versuchsergebnisse aus den Schlußfolgerungen.
Und wieder einmal bin ich froh, mein Blog anonym zu betreiben... ;-) Aber vieleicht mache ich ja auch einen Fehler. Auf jeden Fall traue ich dem spektakulären Nachweis von Psi-Kräften erst mal kein winzig kleines bisschen! Und ob sich das in Zukunft noch ändern wird, dieses Wissen muß wohl noch in meinem Unterbewußten versteckt sein.