„Horizonte“ – Das Schweizer Forschungsmagazin – Santina Russo
Welches Forschungsprojekt bekommt Geld? Sechs klassische und alternative Formen, wie darüber entschieden wird.
Forschung ohne Peer-Review? Heute kaum vorstellbar. Dabei gibt es das Verfahren noch gar nicht so lang: Bis ins frühe 20. Jahrhundert publizierte die damals noch kleine Forschungsgemeinde mehrheitlich, was sie selbst als würdig empfand, und die Vergabe von Geldern war mehr Mäzenatentum und Vetternwirtschaft als unabhängiges Verfahren. Erst nach dem Zweiten Weltkrieg fingen die damals noch jungen staatlichen Förderorganisationen an, das sogenannte Peer-Review einzusetzen – etwa die Deutsche Forschungsgemeinschaft oder die National Science Foundation in den USA.
Zwar bestimmte auch zuvor häufig ein Gremium aus Forschenden mit, welche Projekte finanziert wurden. Aber erst im Peer-Review legte man klare Bewertungskriterien und -verfahren fest und sorgte damit dafür, dass die Projekte aufgrund ihrer Qualität und Relevanz ausgewählt wurden – unabhängig von persönlichen Interessen. «Das funktionierte eine Weile ganz gut», sagt Stephen Gallo, der unter anderem am American Institute of Biological Sciences Peer-Review-Verfahren erforschte. Er betont einen weiteren Vorteil des Systems: Wenn ein Förderantrag abgelehnt wird, begründen dies die Gutachtenden, meist inklusive Empfehlungen, um Forschungsprojekt und Antrag zu verbessern. «Dadurch können besonders jüngere Forschende für das nächste Mal dazulernen.»
Doch inzwischen steht dieses System unter Stress. In den letzten Jahrzehnten sei die Forschungsinfrastruktur weltweit gewachsen und damit auch die Anzahl an Forschenden und Projektanträgen – schneller als die Geldtöpfe der Förderinstitutionen, erklärt Gallo. So wird ein immer kleinerer Anteil der Anträge finanziert. «Lange konnten die Gutachtenden zwischen guten und mangelhaften Anträgen auswählen. Heute müssen sie häufig zwischen hervorragenden und ausgezeichneten Projekten entscheiden.»
Damit steigt das Risiko, dass die Evaluation voreingenommener und konservativer wird, wie Studien zeigen. Die Gutachtenden neigen dann etwa dazu, solide Methodik höher zu bewerten als spannende Ansätze sowie männliche Forschende und solche von prominenten Hochschulen vorzuziehen. Mit verschiedenen Ansätzen versuchen Förderorganisationen, diese Entwicklung zu entschärfen. Für Gallo ist indessen klar: «Sobald Fördergelder nicht mehr so knapp sind, funktioniert auch Peer- Review besser.»
Drei Millionen US-Dollar – so viel erhält, wer den Breakthrough- of-the-Year-Award von Science gewinnt. Ebenfalls hoch dotiert sind der niederländische Spinoza-Preis mit 2,5 Millionen Euro oder der in Hongkong verliehene Shaw- Preis mit 1,2 Millionen US-Dollar. Daneben gibt es zahlreiche mittlere und kleine Preise. Entschieden wird auch hier per Peer-Review – nur werden nicht zukünftige Projekte, sondern die schon erreichten wissenschaftlichen Erfolge bewertet. «Preisgeld soll innovativen und produktiven Forschenden ein Stück wissenschaftliche Freiheit verleihen», erklärt Peer-Review-Forscher Stephen Gallo. Dann gibt es noch Förderprogramme für die Karriereleiter, bei denen die Forschenden bestimmte Vorgaben erfüllen müssen, wie etwa bereits erreichte Titel, Geschlecht, Alter, Anzahl Jahre in der Forschung, Anstellungsart an der Hochschule und so weiter.
Wenn Fördergeld nicht an ein Projekt gebunden ist, können Forschende damit etwas riskieren. Funktioniert eine Idee nicht, können sie je nachdem rasch umschwenken. «Das ist näher an der Art und Weise, wie Forschung in der Realität funktioniert, als die kurzfristige und vergleichsweise starre Projektförderung», sagt Gallo.
Interessanterweise entpuppen sich Preise aber nicht nur als individuelle Förderung: Verglichen mit anderen Sparten ziehen preisgekrönte Felder über 35 Prozent mehr neue Forschende an und veröffentlichen 40 Prozent mehr Publikationen.
Die Kehrseite der Medaille sei die enorme Einseitigkeit, sagt Gallo. Oft werden für die hoch dotierten Preise sowie für beliebte Karriereprogramme Forschende ausgewählt, die sehr produktiv sind, die also schon in der Vergangenheit erfolgreich Geld beantragt haben. So liegt in dieser Art der Forschungsförderung eine inhärente Chancenungleichheit: Wer einmal reüssiert, wird es wieder tun – und dies mehr wegen früherer als aktueller Erfolge.
Ein fairer Wettbewerb bietet allen die gleiche Chance, richtig? Wie etwa beim Loseziehen. Tatsächlich nutzen manche Förderorganisationen, darunter auch der Schweizerische Nationalfonds SNF, König Zufall bei der Evaluation von Anträgen. Und zwar genau dort, wo Peer-Review an seine Grenzen stösst. Einerseits kann das bei der Kreativität der Fall sein. Denn je mehr Antragstellende sich um einen Fördertopf streiten, desto konservativer wird das Peer-Review. Um dies zu durchbrechen, nutzen gewisse Förderorganisationen Losverfahren, etwa der Österreichische Wissenschaftsfonds in seinem 1000-Ideen- Programm. Darin werden zunächst zwölf Projekte per Peer- Review ausgewählt, danach aus den restlichen qualitativ guten Anträgen zwölf weitere ausgelost.
Andererseits sollen diese Lotteriesysteme grundsätzliche Voreingenommenheit minimieren. «Solcher Bias schleicht sich eher ein, wenn die evaluierten Anträge qualitativ nah beieinanderliegen», erklärt James Wilsdon, Direktor des Research on Research Institute des University College London, der Losverfahren untersucht hat. Tatsächlich seien die Entscheidungen manchmal haarscharf, findet auch Marco Bieri, wissenschaftlicher Mitarbeiter beim SNF: «Manche Anträge lassen sich innerhalb der Bewertungskriterien nicht qualitativ unterscheiden.»
Bieri leitete einen Pilotversuch, bei dem der SNF im Förderinstrument Postdoc Mobility ein Losverfahren für solche knappen Fälle testete. 2021 hat der SNF die Methode dann für all seine Instrumente eingeführt – als weltweit erste Förderorganisation. Das Zufallssystem wird aber längst nicht immer angewandt. «Es ist einfach eine Option, falls eine Gruppe von Anträgen nahe der Fördergrenze qualitativ nicht voneinander zu unterscheiden ist», erklärt Bieri. Bisher hat der SNF über 4,5 Prozent der Anträge per Los entschieden.
Macht nun ein solches Teil-Zufallsverfahren die Evaluation tatsächlich fairer? James Wilsdon drückt sich vorsichtig aus: «Aus ersten Untersuchungen sehen wir zumindest gewisse Anzeichen, dass das so ist, ja.»
Wussten Sie, dass 30 Prozent der besten Arbeiten von Nobelpreisträgerinnen und Nobelpreisträgern in Medizin und Chemie nicht von Förderorganisationen finanziert wurden? Dies, weil es sich dabei meist um Ideen handelte, die gängige Ansichten infrage stellten, noch nicht auf wissenschaftlichen Daten fussten und unerprobte Methoden nutzten. «Für die Förderorganisationen ist das risikoreiche Forschung, weil sie womöglich ergebnislos ins Leere läuft», sagt Vanja Michel, wissenschaftlicher Mitarbeiter beim Schweizerischen Nationalfonds (SNF).
Allerdings: In den letzten Jahren haben verschiedene Förderorganisationen diese Zurückhaltung als Manko erkannt und angepackt. Beispielsweise führten die amerikanischen National Institutes of Health schon 2004 den Director’s Pioneer Award ein. Dieser schüttet für fünf Jahre grosszügige 700 000 US-Dollar pro Jahr aus, und zwar gezielt an Nachwuchsforschende für risikoreiche Ideen. Die Antragstellenden müssen keine Daten aus Vorstudien vorlegen, dafür aber zeigen, dass sie aussergewöhnlich kreativ und innovativ sind.
Ähnlich ist der ERC Starting Grant des europäischen Forschungsrats ausgelegt. Beim SNF ist seit 2019 das Programm Spark darauf ausgerichtet, unkonventionelle Forschungsvorhaben zu unterstützen. Die Antragstellenden benötigen lediglich ein Doktorat oder drei Jahre Forschungserfahrung. Evaluiert wird in einem doppelblinden Verfahren: Nicht nur die Gutachtenden, auch die Antragstellenden sind anonymisiert – Geschlecht, Alter oder Forschungsinstitution bleiben unsichtbar.
«So zählt einzig die Forschungsidee », erklärt Vanja Michel, der für Spark zuständig ist. Nach dem ersten Jahr zeigte sich: Die Mehrheit der Antragstellenden war unter vierzig Jahre alt, siebzig Prozent hatten keine Professur, und achtzig Prozent hatten zum ersten Mal beim SNF Fördergeld beantragt. «Wir haben gesehen, dass sich jüngere Forschende mit ihren Ideen gut gegen Erfahrenere durchsetzen konnten», sagt Michel. Mit bis zu 100 000 Franken für maximal zwölf Monate sei die Förderung durch dieses Programm zwar nicht riesig, aber entscheidend als erster Boost für eine Idee, die sonst leer ausgegangen wäre.
T-Shirts aus recyceltem Plastik aus dem Meer, Elche in Alaska beobachten oder gar eine Therapie für eine seltene Knochenkrebsform bei Kindern: Dies sind nur einige der wissenschaftlichen Projekte, die auf der Schweizer Crowdfunding- Plattform Wemakeit Geld sammeln – die meisten erfolgreich. Denn dies vorneweg: Was die Erfolgsquote angeht, ist das Crowdfunding Spitzenreiter. Ganze 65 Prozent der wissenschaftlichen Crowdfunding-Projekte auf Wemakeit erreichen ihr Finanzierungsziel. Das ist eine deutlich höhere Erfolgsquote als bei traditionellen Fördermöglichkeiten. Bei den britischen oder US-amerikanischen Förderorganisationen etwa liegt die Quote meist zwischen 20 und 30 Prozent.
Häufig sind die Crowdfunding-Projekte allerdings vergleichsweise klein. Die angestrebten Beiträge liegen im Schnitt bei etwas mehr als 12 000 Franken. «Auffallend viele Projekte beschäftigen sich mit ökologischer und sozialer Nachhaltigkeit und zielen darauf ab, der breiteren Bevölkerung Zugang zur Wissenschaft zu verschaffen», beobachtet Graziella Luggen, stellvertretende Geschäftsführerin von Wemakeit.
Es gibt also eine Art Bias bei Crowdfunding-Projekten: Was als Thema bekannt und beliebt ist, hat Chancen. Auf grösseren Crowdfunding-Plattformen wie Kickstarter oder Indiegogo dagegen finden sich vor allem technische, produktorientierte Projekte. Für traditionelle Forschungsprojekte bietet dafür Experiment.com eine Option, die Öffentlichkeit weltweit um einen finanziellen Zustupf zu bitten. Auch das kann funktionieren: Bisher haben die fast 1200 Forschungsprojekte auf der Plattform über 11 Millionen USDollar reingeholt. Allen Crowdfunding-Möglichkeiten gemeinsam ist, dass sich über die Finanzierung auch eine Community aufbauen lässt.
Fazit: Verglichen mit der gesamten Forschungsförderung ist das Crowdfunding zwar ein kleiner Fisch – aber eine Alternative, um etwa ein Teilprojekt eines grösseren Vorhabens zu finanzieren, oder als Initialzündung für einen Prototyp.
Klar ist: Das traditionelle Peer-Review muss mit immer mehr Förderanträgen fertig werden. Was liegt da näher, als sich von künstlicher Intelligenz helfen zu lassen? Tatsächlich finden sich online viele Anleitungen, wie Gutachtende etwa den Chatbot Chat-GPT fürs effizientere Evaluieren von Anträgen nutzen können.
Das hat vor allem in den USA zu Diskussionen geführt. «Wichtig ist, dass bei der Evaluation von Projektanträgen die Vertraulichkeit gewahrt bleibt», sagt Peer-Review-Forscher Stephen Gallo. Wer sich beim Bewerten helfen lässt und dafür Texte aus Anträgen in Chat-GPT einspeist, könnte diese Vertraulichkeit verletzen. «Ob das so ist und wie die Mithilfe des Chatbots die Evaluation beeinflusst, wurde meines Wissens noch nicht untersucht. Das wäre spannend zu erfahren.» Inzwischen hat etwa die grosse US-amerikanische Förderorganisation National Institutes of Health ihren Gutachtenden verboten, den Chatbot zu nutzen, andere haben Richtlinien dafür erlassen.
Etwas anderes ist es, wenn Förderorganisationen intern eine KI nutzen, ohne dass Daten weitergegeben werden. Damit experimentieren Förderorganisationen in verschiedenen Schritten des Peer-Review. Einzelne nutzen künstliche Intelligenz, um die schlechtesten Anträge auszusortieren, andere setzen sie ein, um mittels Schlüssel- wörtersuche in den Anträgen und in den Publikationen die passenden Expertinnen und Experten für die Evaluation zu finden. Das geschieht auch beim SNF-Förderinstrument Spark.
Allerdings: Das Spark-Team überprüft die Zuteilungen der KI jeweils und muss diese häufig überstimmen, wie der Verantwortliche Vanja Michel erklärt. Andere Organisationen, etwa die Deutsche Forschungsgemeinschaft (DFG), sind dabei, den Einsatz von KI vorzubereiten. So evaluiert die DFG in einem Pilotprojekt, inwiefern sie einen digitalen Helfer beispielsweise fürs Prüfen von Antragsunterlagen oder Antragsberechtigungen einsetzen möchte. Auch die grosse amerikanische National Science Foundation nutzt derzeit noch keine KI, will aber bis Ende Jahr eine Strategie dazu ausarbeiten. Dass kluge Tools indessen Anträge sogar allein evaluieren könnten, sieht die Branche bisher nicht als seriöse Möglichkeit.
Illustrationen: Arbnore Toska