Forschung-Metriken haben Rivalität in Higher Education DNA gemacht.
Wissenschaftler haben gelernt, mit versuchen zur universitären Forschung messen Leben, aber ist dies der beste Weg, um Richter Erfolg oder Misserfolg?
Viele Wissenschaftler präsentieren nun ihre Arbeit auf eine oder mehrere "Ruf" Websites – Google Scholar, ResearchGate, Academia.edu... Sie sind so vertraut mit ihrem h-Index – eine Zahl, die die Qualität des Outputs des Forschers – Maßnahmen sind mit den dazugehörigen Telefonnummern, und sie schämen sich nicht, sie in Arbeit oder Forschung Anwendungen zu zitieren.
Sie haben gelernt, mit Leben, wenn nicht Liebe, diese Metriken, die bewerten die Anzahl der zitierten Papiere, die eine akademische geschrieben hat. Sie scheinen solide im Vergleich mit der altmodischen Peer Review in welcher eine Charge von Akademikern, natürlich anonym, Kommentare über die Qualität der Arbeit der anderen Menge.
Diese Besessenheit mit Quantifizierung ist kaum eine Überraschung. Universitäten bieten ihre Positionen in verschiedenen Ranglisten, zusammenwerfen inkommensurabel Metriken und Gewichtung sie launig. Sie werden aufgefordert, eine kleine Gruppe von "Key Performance Indicators" – Schwerpunkt Finanz- und akademischen – als Maßnahmen der Erfolg oder Misserfolg. Wenn Unternehmen (und jetzt, leider, Universitäten) ausgeführt werden kann, nach den "Zahlen", warum nicht einzelne akademische Karriere?
In der Regel sind zwei Einwände erhoben. Die erste ist, dass geistige und wissenschaftliche Kreativität nicht, und daher sollte nicht sein, kalibriert – noch weniger sollte es behandelt wie ein Nullsummen - Spiel in dem es immer Gewinner (, gelobt zu werden) und Verlierer (zu beschämt).
Naturgemäß ist Forschung schwer zu messen. Es ist unmöglich, "gute Forschung-plan": Serendipity und Zeitskalen, die unmöglich machen, insbesondere wenn die Ressourcen nicht gerecht verteilt werden. Der neue Minister der Hochschulbildung, Jo Johnson, zugegeben in seiner ersten Rede letzten Monat, als er fragte, ob es wirklich im nationalen Interesse zu einem starken Fokus auf der Oxbridge-London war Goldenes Dreieck.
Und Meinungen darüber, was macht gute Forschung variieren. Ich erinnere mich an einen anderen (konservativ) Minister Fragen mich: "Sicherlich mindestens 25 % der Forschung an Universitäten ist Müll Sie glauben?" Ich konnte nur Antworten, dass selbst wenn ich es tat, wir würden nie sein auf denen 25 % verständigen.
Leider ist es trotz dieser offensichtlich Wahrheit, jetzt fast unmöglich, nicht Forschung in Bezug auf die Konkurrenz zu betrachten. Universitäten drängeln sich für Liga-Tabelle Vorteil, einzelne Gelehrte und Wissenschaftler Schlacht für h-Index ansehen. Rivalität ist jetzt Teil der höheren Bildung DNA.
Der zweite Einwand ist, dass die Metriken zu grob sind. Peer-Review kann nie ersetzt werden. Dies ist im großen und ganzen die Schlussfolgerung, die in einem Bericht für die Higher Education Funding Council für England, die untersucht, ob die nächste Research Excellence Framework (REF) – das Qualitätsmaß für universitäre Forschungsarbeit – vor allem auf Metriken verlassen konnte.
Dieses Argument ist bekannt. Peer-Review ist wie Demokratie – eine lausige System aber besser als alle anderen, obwohl, die interessante Frage aufwirft, wie demokratisch Peer Review wirklich ist.
Es ist zwangsläufig diejenigen mit etablierten – und orthodoxen – Ruf bekommen die Gutachter werden beauftragt. Dann gibt es die Frage, wie "Experten" Peer Reviewer wirklich sind – und wie fair oder auch gewissenhaft. Die meisten Akademiker haben kurze und einseitige Urteile zu Artikeln oder Forschung geboten, über die sie Blut geschwitzt haben, erlebt.
Schließlich gibt es die Frage nach der Skala. Peer-Review funktioniert viel besser für eine Fachzeitschrift mit einem gleichermaßen spezialisierten Stall von Rezensenten, als es tut für große multidisziplinäre Projekte, wo Kritiker können sich müssend Quote Forschung in den Fächern finden sie haben nicht so viel Know-how in.
Die beste Verteidigung des Peer-Review ist ehrlich über diese Mängel zu sein und zu erkennen, dass in vielen Bereichen außerhalb der Geisteswissenschaften, Metriken haben einiges zu bieten. Vielleicht sollten mehr Vertrauen bei der nächsten REF auf Metriken, mit Platten mehr als Moderatoren als als Richter tätig platziert werden. Es macht wenig Sinn, einen entweder-oder-Ansatz zu verfolgen.
Aber vielleicht gibt es ein tiefer liegendes Problem: mehr Peer Review ist professionalisiert (oder jedenfalls systematisiert) und je höher die Einsätze, die mehr unzuverlässig wird es als eine Methode zur Auswahl der "Gewinner". Das gleiche gilt für Metriken. H-Indizes austauschen kann sanfte Rivalität in einem kollegialen Umfeld. Aber in der No-Holds-barred-Wettbewerb jetzt auf Hochschulbildung untergeschoben, Metriken können eine Bedrohung sein, weil sie versuchen, Dinge zu messen, die leicht gemessen werden kann.
Der Krieg zwischen Peer-Review und Metriken ist falsch. Der wirkliche Krieg ist zwischen denen, die glauben, dass Werte von Respekt und Vertrauen, Gegenseitigkeit und Solidarität, sollte das Verhalten von Universitäten und Wissenschaftler leiten, und diejenigen, die entschlossen sind verhängen einer verarmten und Stromwerke Markt-Ideologie im Hochschulbereich.