Wissenschaft und Forschung

Experiment

Gleiche Daten, andere Ergebnisse? Wie unterschiedlich Forscher interpretieren

Ein Experiment zeigt, wie Wissenschaftler identische Forschungsdaten höchst unterschiedlich interpretieren. Fazit: Sie sollten möglichst transparent arbeiten und Daten miteinander teilen.
Forscher am Mikroskop

Was passiert, wenn 70 Forschungsteams aus aller Welt unabhängig voneinander denselben Datensatz analysieren, um dieselben Hypothesen zu prüfen? Diese Frage beantwortet erstmals eine internationale Studie, die von den Ökonomen Michael Kirchler, Jürgen Huber und Felix Holzmeister vom Institut für Banken und Finanzen der Universität Innsbruck mitinitiiert wurde.

Die Forschungsteams haben die Daten von Gehirnscans während eines ökonomischen Experiments mit verschiedenen Methoden analysiert und verglichen. Sie kamen nicht immer zum gleichen Ergebnis.

Gemeinsam mit Forschern des California Institute of Technology, der Stanford University, der Stockholm School of Economics und der Universität Tel Aviv haben die Initiatoren rund 200 Wissenschaftlerinnen und Wissenschaftler eingeladen, den gleichen MRT-Datensatz zu analysieren und neun Forschungshypothesen zu überprüfen. Die Daten stammen aus einem Experiment in Tel Aviv, bei dem die Hirntätigkeit von 108 Probanden mit Hilfe von Funktioneller Magnetresonanztomographie aufgezeichnet wurde, während sie ökonomische Entscheidungen trafen.

Das Verfahren zeigt mit hoher räumlicher Auflösung jene Hirnareale an, die während der Messung aktiv sind. Die neurowissenschaftlichen Forschungsteams wurden gebeten, diese Daten mit ihren etablierten Analyseverfahren dahingehend zu untersuchen, ob es Hinweise für einen Zusammenhang zwischen der Aktivität von Teilen des Gehirns und bestimmten Aspekten ökonomischer Entscheidungssituationen gibt.

Ergebliche Abweichungen bei Antworten auf Hypthesen

Die Forschungsteams hatten drei Monate Zeit, um die Daten zu analysieren und den Studienautoren ihre Ergebnisse sowie detaillierte Informationen über ihre Methoden zukommen zu lassen. Für fünf der Hypothesen wichen die Schlussfolgerungen der Teams erheblich voneinander ab, für die restlichen vier herrschte tendenziell Übereinstimmung.

„Interessanterweise zeigen die den Analysen zugrundeliegenden von den Teams aufbereiteten Datensätze noch eine relativ große Übereinstimmung zwischen allen Teams", erläutert Felix Holzmeister. „Die ähnlichen Zwischenergebnisse führten aber am Ende zu zum Teil sehr unterschiedlichen Resultaten." Eine Metaanalyse auf Basis der Zwischenergebnisse der verschiedenen Teams erbrachte hingegen ein einheitlicheres Bild. Dabei ließ sich zeigen, dass manche Aspekte der Datenanalyse einen gewichtigeren Einfluss auf das Ergebnis haben als andere, und eher zu positiven Ergebnissen führen. „Hier deuten sich bereits Wege an, wie der Forschungsprozess in solch komplexen Fragestellungen weiter verbessert werden kann: Forschungsprozesse sollten möglichst transparent gehalten und Daten und Methoden gemeinsam geteilt werden", betont Michael Kirchler. Sein Kollege Jürgen Huber ergänzt: „Diese internationale Studie unterstreicht auch, wie wichtig es ist, dass wir Wissenschaftler uns dieser möglichen Diskrepanzen bei komplexen Fragestellungen immer bewusst sind."

Zu optimistisch

Gemeinsam mit einem Team um Anna Dreber und Magnus Johannesson von der Stockholm School of Economics sowie Colin Camerer vom California Institute of Technology führten die Innsbrucker Ökonomen Prognosemärkte mit Expertinnen und Experten aus dem Gebiet der Neurowissenschaften durch, um deren persönliche Erwartungen hinsichtlich der Ergebnisse herauszufinden. Die Wissenschaftler erhielten Geld, das sie auf unterschiedliche Resultate zu den untersuchten Thesen setzen konnten. „Dabei zeigte sich, dass die Marktteilnehmer überoptimistisch hinsichtlich der Wahrscheinlichkeit von signifikanten Ergebnissen waren, selbst dann, wenn sie die Daten zuvor selbst analysiert haben", erläutert Felix Holzmeister.

„Die Tatsache, dass hier fast 200 Forscher bereit waren, Dutzende von Stunden in eine solche kritische Selbstüberprüfung zu investieren, unterstreicht die große Bereitschaft der Wissenschaftler in diesem Gebiet, die Qualität ihrer Datenanalysen weiter zu verbessern. Dieser Prozess der Selbstreflexion und der kontinuierlichen Verbesserung der eigenen Methoden ist einzigartig und zeichnet die Wissenschaft aus", betonen Michael Kirchler und Jürgen Huber. Die Studie NARPS (Neuroimaging Analysis, Replication and Prediction Study) wurde unter anderem vom österreichischen Wissenschaftsfonds FWF (SFB F63) finanziell gefördert und ihre Ergebnisse sind nun in der Fachzeitschrift Nature erschienen.

(Donnerstag, 21.05.20 - 11:54 Uhr   -   972 mal angesehen)

WERBUNG:

blog comments powered by Disqus
WERBUNG: