Die jüngsten hochschulpolitischen Einwendungen ebenso wie die steigenden Nichtbeteiligungen deutscher Unis und ganzer Fachbereiche am renommierten deutschen Hochschul-Ranking CHE (Centrum für Hochschulentwicklung) scheinen einen aktuellen Trend in der öffentlichen Wahrnehmung abzubilden. Demnach sind Hochschul-Rankings kurz und milde gesagt als ambivalent einzuschätzen. Hochschul- und strukturpolitisch längst umstritten, erscheint ihr Wert als Navigationshilfe für angehende Studierende zunehmend fragwürdig, problembelastet. Unter wissenschafts-methodischen Gesichtspunkten sind sie nicht nur aus Sicht der Fach-Soziologie eindeutig zweifelhaft.
Studienanfängern stellen sich berechtigter Weise mehr denn je grundsätzliche Fragen: Wie verlässlich sind die von Hochschul-Rankings publizierten Qualitätsbewertungen von Forschung und Lehre an deutschen Hochschulen? Wie hilfreich für die Studienentscheidung sind standort- und fachbezogene Rangplätze? Und: Wozu und wem dienen Hochschulrankings wirklich?
Scheinbar einfache Hilfe für Orientierungsbedürftige
Seit Anfang der 1990er Jahre auch in Deutschland zunehmend etabliert, verstehen und bewerben Rankings sich selbst als Qualitätsindikatoren und Beförderer des akademischen Wettbewerbs. Sie suggerieren, die deutsche Hochschullandschaft nach Güte-Kriterien gerastert abzubilden. Und sie versprechen wertvolle Informationen für die persönliche Wahl des Studienfachs und der passenden Hochschule – von detaillierten Orientierungen über Arbeitsbedingungen, Forschungsreputation bis hin zu den einzelnen Wohnformen am Studienort. Für mittlerweile über 30 Fächer und mehr als 250 Hochschulstandorte hierzulande liegen Datensätze vor.
Klare Versprechen, divergierende Funktionen
Dass gegenwärtig konkurrierende Rankings mit unterschiedlichen Ergebnissen existieren zeigt bereits, wie sehr der Teufel im Detail steckt. Ranking ist eben nicht gleich Ranking, und wer Orientierung sucht ist gut beraten, sich vor simplifizierenden Lesarten von Hochschul-Vergleichen zu hüten. Das „Hochschulranking“ des CHE will nach eigenen Angaben Schülern und Studienwilligen bei der Wahl der richtigen Hochschule helfen; das „Uniranking 2012“ der WirtschaftsWoche basierte auf einer Umfrage bei Personalchefs schlagkräftiger Unternehmen.
Auch diverse Förderungs- und Forschungs-Rankings sind in Deutschland etabliert. Für Studienanfänger beginnt der ernsthafte Einstieg in den Anfang also mit der Orientierung über die Orientierungsversprecher. Doch was leisten diese, wahlweise über die Medien Der Spiegel, Focus, Handelsblatt, WirtschaftsWoche, FAZ-Hochschulanzeiger oder Die Zeit verbreiteten Leistungsvergleiche (nichts anderes heißt ‚Ranking‘) für den deutschen Hochschulsektor? Und welche Informationen können Nutzer den Rankings entnehmen – im gefährlich blinden Vertrauen darauf, dass die verwendeten Methoden zu sachlich berechtigten Bewertungen führten?
Das Grunddilemma bleibt konstant: Auskünfte und Irreführung
Fakt ist: Wer sich in Rankings orientiert, erhält mittlerweile (wie bei der CHE) ziemlich differenzierte Daten (Punktwerte, Farbsymboliken, Ranggruppierungen) zu vielen Fachbereichen deutscher Hochschulen. Diese Bewertungsdaten bieten innerhalb des Rankings Anhaltspunkte und Vergleichsaspekte zur Qualität von Studium, Lehre, Forschung, Ausstattung und Umfeld ab. Oder, mit den Ranking-Kritikern formuliert: Sie erzeugen diese Werte erst. Naiv wäre es also, von den vielen skalierten Bewertungsparametern (beim jüngsten CHE-Ranking werden bis zu 34 Kriterien herangezogen) eine kompassgetreue Orientierung im Dschungel der Studienangebote zu erwarten oder verlässliche Aussagen über die tatsächliche Qualität von Forschung und Lehre an einem bestimmten Hochschulstandort.
Das Bemühen der Ranking-Ersteller, durch fortschreitende Differenzierung ihrer Verfahren und Bewertungsmethoden mehr Transparenz zu erzeugen, hat in den letzten Jahren manche Einseitigkeit (wie sie etwa noch der methodisch desaströse Hochschul-Vergleich des 2004er Rankings von McKinsey & Company, AOL und Der Spiegel praktizierte) abbauen können. Der grundsätzlichen und vielfach vehementen Kritik am zweifelhaften Wert von Hochschulrankings („Hochschulverrenkungen“) konnten diese ambitionierten Feinschliffe bisher jedoch nicht den Wind aus den Segeln nehmen.
Vor voreiligen Schlüssen muss gewarnt werden
Die fehlende Neutralität und Einhelligkeit in der gesamten Ranking-Debatte (man vergleiche etwa den Wikipedia-Eintrag zum Hochschulranking) ist unter anderem ein Indikator für gegenläufige Interessenstandpunkte. Studierende suchen möglichst schnell informierende Übersichten und primäre Orientierung; Hochschulen haben ein Interesse an möglichst positiver öffentlicher Resonanz und nicht extern erfolgender Skalierung ihrer akademischen Vielfalt; und Ranking-Ersteller, die mit dem Vergleichen und Bewerten erst die Grundlage für die Informations-Verwertung schaffen, verstehen sich erwiesenermaßen auch als Dienstleister für Unternehmen, denen sie akademische ‚Spitzenreiter‘ und ‚Schlusslichter‘ kommunizieren (das „Uniranking 2012“ erfolgte in Zusammenarbeit von WirtschaftsWoche, einer Beratungsgesellschaft und einem Personaldienstleister; im CHE ist die Bertelsmann Stiftung Teilhaber).
Augenmaß empfiehlt sich also insbesondere für angehende Erstsemester und stellt die erste Regel der Orientierungsarbeit dar. Ein Beispiel von vielen für die Problematik: Wählen Studienbeginner ihre Hochschule ausschließlich nach der Top-Position des Ranking-Rasters, tappen sie womöglich in eine Falle und verschlechtern die Studienbedingungen, weil die jeweiligen Fachbereiche dem massenhaften Ansturm plötzlich nicht mehr gewachsen sind.
Rankings: hochschul- und strukturpolitisch brisante Standort-Stigmatisierung
Dass negative Rankingergebnisse für einzelne Standorte erhebliche Kollateralschäden mit sich führen (können) und damit zu einer Spaltung der Hochschullandschaft beitragen, dokumentieren die zahlreichen aktuellen Debatten über Pro und Kontra der akademischen Leistungsvergleiche. Die angebliche Hauptfunktion der Rankings: die Leistungsfähigkeit einer Hochschule für Studierende transparent zu machen (Transparenzbeschaffung) sowie Rekrutierungshilfe für akademisches Personal bei den Unternehmen zu leisten, kann sich schlagartig vom positiven Absichtseffekt zu schlechter Standortpolitik verkehren.
So hat es zuletzt Dieter Lenzen, Erziehungswissenschaftler und Präsident der Uni Hamburg, 2012 auf einer Tagung zum Forschungsrating formuliert: Weil sie die „drei methodischen Grundgütekriterien der Objektivität, der Reliabilität und der Validität“ nicht sicherstellen können, sind Ratings als verlässliches Instrument der Transparenzerzeugung ungeeignet. Schlimmer noch: Mittelfristig produzieren sie eine „Scheinwirklichkeit“, fokussieren sie eine „Mainstreamwissenschaft“, bringen sie den Ranking-Gewinnern „Marktvorteile auf dem Berufungs- und Besoldungsmarkt“. Und weil sie Verlierer erzeugen, sind sie für die scientific community auch aus ethischen Gründen nicht zu rechtfertigen. Denn soviel scheint doch deutlich: Nicht mit Standort-Stigmatisierungen oder ausgezeichneten Eliteschmieden, Konkurrenz und Missgunst, wie sie Rankings letztlich erzeugen, ist der deutschen und europäischen Hochschullandschaft geholfen, sondern: Mit Kooperation, Vernetzung, Förderung auch in der akademischen Vielfalt und Breite.
Wer nicht mitmacht, könnte gewinnen
Die von Lenzen formulierte Generalkritik ist seit langem kein Einzelfall in der Debatte um Wert und Begleiteffekte der Hochschulrankings, und sie bleibt nicht nur theoretisch. Nachdem 2012 auch die Fachgesellschaft der Soziologie ihren deutschen Instituten die Nichtteilnahme am CHE-Ranking empfohlen hat und diverse Boykottaufrufe an die 37 aktuell im Ranking ausgewiesenen Studienfächer ergingen (bereits 2010 hatte sich der Historikerverband vom CHE-Ranking distanziert, die Gesellschaft deutscher Chemiker und die Deutsche Gesellschaft für Erziehungswissenschaft waren 2012 nachgezogen), werden mindestens sechs deutsche Universitäten (darunter Hamburg und Leipzig) beim 2013er Ranking fehlen.
Ob das reichen wird, die öffentliche Geltung von so renommierten und einflussreichen Ratings wie CHE zu beschneiden, darf bezweifelt werden. Denn hinsichtlich ihrer Steuerungsfunktion mit ihren Artgenossen Moodys & Co auf anderem Sektor durchaus vergleichbar, beeinflussen sie als akademische Ratingagenturen mittlerweile längst so wichtige Parameter wie die hochschulpolitische Mittelvergabe (z.B. aufgrund hoch ‚gerankter‘ Unis), hochschulöffentliche Reputation (‚Ruf‘) und nicht zuletzt die studentische Fokussierung auf scheinbar perfekte – weil hoch bewertete – Studienstandorte und Fakultäten.
Auch die zahlreichen Begleiteffekte der Rankings erhitzen die Gemüter, liegen doch die Vorteile auf der Hand, etwa durch Schummelei aller Art das eigene Ranking positiv zu beeinflussen, um nur ja nicht mit der ‚roten Laterne‘ dazustehen. Der Ausstieg aus dem Ranking könnte die Chance eröffnen, neue Verfahren der Kriterienbildung innerhalb der universitären Kommunikation – statt durch externe ‚Evaluationsunternehmen‘ – anzuregen. Der Ausweis ihrer qualitativ guten Arbeit muss letztlich im Interesse jeder Universität und jedes Fachbereiches liegen, und die zunehmende Konkurrenz der privaten Hochschulen ist faktisch ein zusätzlicher Anreiz. Pointierter formuliert: Je besser Standorte und Insitute selbst zu überzeugen wissen, desto unabhängiger machen sie sich von der angemaßten Definitionsmacht der Ranking-Portale.
Studienwahl: Am besten direkt vergleichen. Empfehlungen von GWriters
Für Marcel Kopper, Mitbegründer von GWriters Ghostwriting und Writing Service, steht fest: Bei der Wahl des persönlichen Hochschulstandorts sollte man „am besten mehrgleisig“ vorgehen: „Erstens sich bei dem favorisierten Hochschulstandort persönlich einen direkten Überblick verschaffen über das Angebot, Qualität des Personals, Zulassungsbedingungen und ähnliche Basics; zweitens über Freunde, ehemalige Studierende und Netzwerke herausfinden, ob Schwerpunkte des Fachs, beispielsweise der gesuchte Theorie-Praxis-Bezug, am betreffenden Standort wirklich und aktuell gut bedient werden oder nur eine Sprechblase der Marketingabteilung sind. Und schließlich sollte man sich unbedingt genauer anschauen, welche Wege die jüngsten persönlichen Vorbilder gegangen sind. Es hilft also nichts: Die Transparenz muss man sich selbst beschaffen, besser einmal mehr durch Nachfragen und Hinterfragen statt blindes Vertrauen in Punkte und Tabellen.“
von Glenn Bernhard, GWriters
GWriters ist eine erfolgreiche Web-Plattform für die Vermittlung hochwertiger Dienstleistungen rund um die Erstellung wissenschaftlicher Texte. Anfang 2013 sind schon über 600 freiberufliche Autoren, Lektoren, Ghostwriter, aber auch Übersetzer, Coaches und Berater aus den unterschiedlichsten Fachbereichen in der facettenreichen Plattform vertreten. Durch das mehrstufige Qualitätssicherungssystem mit Supervisoring, mehrfacher Überarbeitung, Teillieferungen und permanenten Kontrollen wird ein hohes Qualitätsniveau jedes einzelnen Produktes sichergestellt. Nicht nur Kunden, sondern auch Freelancer profitieren von der juristischen Absicherung, Anonymität und Sicherheit, die GWriters garantiert.