Accueil🇫🇷Chercher

Classement international des universités

Un classement académique international sélectionne des institutions universitaires selon un nombre restreint d’indicateurs quantitatifs pour établir une hiérarchie selon le modèle d’une ligue des champions. Ils soulèvent des calculs sophistiqués pour tenir compte d’une réalité complexe et diversifiée.

Position géographique des 100 universités les plus réputées selon le Times Higher Education World University Rankings.

Il y a deux types de classements :

  • les classements de rĂ©putation fondĂ©s sur des critères subjectifs ;
  • les classements de performance oĂą l’on compte les rĂ©sultats scientifiques obtenus par les universitĂ©s (publications, diplĂ´mes, prix, etc.)

Généralement, les classements pondèrent ces critères, penchant tantôt plutôt du côté de la réputation, tantôt plutôt du côté de la performance. Ces différences de critères produisent des classements hétéroclites et donnent ainsi lieu à des critiques[1] - [2]. Les universités cherchent à s'ajuster aux classements[3].

Classements

Classement de Shanghai

Le classement de Shanghai compare 1 000 institutions d'enseignement supĂ©rieur sur la pondĂ©ration de six indicateurs, principalement liĂ©s Ă  la recherche : nombre de prix Nobel et mĂ©dailles Fields parmi les Ă©lèves, parmi les professeurs, nombre de citations de chercheurs, nombre d'articles publiĂ©s dans Science et Nature, nombre d'articles dans Science Citation Index et Social Sciences Citation Index. La note obtenue est divisĂ©e par le nombre de chercheurs. La mĂ©thode de calcul favorise les Ă©tablissements de grande taille.

Times Higher Education World University Rankings

Le journal britannique The Times publie depuis 2004 le Times Higher Education World University Rankings dans le mensuel dédié Times Higher Education. Les critères s'intéressent à l'enseignement et la recheche et mêlent des données objectives (notamment bibliométriques) et des éléments subjectifs liés à la réputation de l'établissement.

En 2009, Times Higher Education a annoncé la fin de sa collaboration avec Quacquarelli Symonds et la signature d'un accord avec Thomson Reuters. Quacquarelli Symonds réalise alors le QS World University Rankings, son propre classement.

Classement QS

Le classement mondial des universités QS est un classement annuel des universités publié par Quacquarelli Symonds (en) depuis 2011 à la suite de sa rupture avec le Times. Il utilise des indicateurs similaires à celui du Times.

Classement de Leiden

Le Centre d'étude des sciences et technologies (CWTS) de l'université de Leyde publie chaque année une série de classements issus d'indicateurs bibliométriques.

Les indicateurs concernent l'impact scientifique, la collaboration, le Libre accès et la parité. Les données distinguent cinq domaines scientifiques. Le classement se fonde sur la répercussion des publications.

Center for World University Rankings

Le Center for World University Rankings (CWUR) est né en 2012 en Arabie saoudite. Depuis 2016 il est édité aux Émirats arabes unis[4].

Les critères sont liés à la qualité de vie et à la performance de recherche[5].

Round university ranking

Le Global University Ranking publie un classement sur 800 universitĂ©s depuis 2010, en Russie[6]. Il utilise l'enseignement (40 %), la recherche (40 %), le caractère international (10 %) et le budget (10 %).

Mines ParisTech

Depuis 2007, Mines ParisTech publie son classement international professionnel des établissements d'enseignement supérieur avec pour seul critère le nombre d'anciens étudiants figurant parmi les dirigeants exécutifs des 500 plus grandes entreprises mondiales[7].

Critiques

Le rapport du sénateur Joël Bourdin[8], publié en 2008, distingue des critiques sur la légitimité de la mesure et sur la méthode.

Légitimité

Les classements internationaux (rankings) comparent souvent des institutions difficilement comparables.

Ainsi, ces classements mettent sur un même pied des universités généralistes, des grandes écoles, ou encore Harvard, alors que cette dernière dispose d’un budget annuel de 3 milliards de dollars pour vingt mille étudiants.

Les rankings agrègent des indicateurs difficilement comparables.

Le choix d’indicateurs pour chacune des missions de l’université (enseignement, recherche, services à la cité, …) et leur agrégation pour obtenir un score unique conduit généralement à « additionner des pommes et des poires ». Pour prendre un exemple, le nombre d’articles publiés dans des revues prestigieuses a probablement moins d’importance que le taux d’encadrement des étudiants si vous cherchez une université où étudier, mais elle en aura plus si vous êtes une entreprise désireuse d'entamer un partenariat de recherche. Et l’addition entre ce nombre d’articles et le taux d’encadrement n’a pas grande signification.

Cela explique les grandes variations que l’on peut observer, pour la même université, d’un classement à l’autre et même d’une année à l’autre dans le même classement.

Par construction, les rankings privilégient le monde anglophone et les grandes universités spécialisées telles que les écoles polytechniques.

Pour les raisons évoquées ci-dessus, les rankings sont conçus avec un modèle d’université idéale. Implicitement, ce modèle est bien souvent celui des grandes universités anglo-saxonnes. Il n’est donc pas étonnant de voir que les universités nord-américaines occupent les premiers rangs, suivis des universités anglaises. De même, les universités qui se spécialisent dans un petit nombre de domaines porteurs grimpent plus facilement dans ces classements. Les universités européennes généralistes de service public ne cadrent donc pas forcément avec les critères utilisés pour ces classements.

MĂ©thode

Le chercheur québécois Yves Gingras souligne le peu de pertinence d'un indicateur du classement de Shanghai, qui fait varier de 100 rangs la position de l'université Humboldt de Berlin, en 2008, selon qu'on lui attribue ou non le prix Nobel obtenu par Einstein en 1922[9].

Le rapport Bourdin soulève plusieurs limites méthodologiques :

«

  • Les mesures et pondĂ©rations choisies ne font l'objet d'aucune justification thĂ©orique. Les utilisateurs des classements sont invitĂ©s Ă  partager des choix dont ils ne sont pas toujours bien informĂ©s. De façon gĂ©nĂ©rale, la lĂ©gitimitĂ© des indicateurs synthĂ©tiques est incertaine, d'une part parce qu'ils agrègent des donnĂ©es disparates, et d'autre part, parce qu'ils rĂ©sultent de choix qui placent en fait l'observateur supposĂ© en situation d'acteur.
  • La source des indicateurs est problĂ©matique, dans le cas de donnĂ©es dĂ©clarĂ©es par les universitĂ©s elles-mĂŞmes. Des Ă©tudes menĂ©es aux États-Unis ont montrĂ© que ces donnĂ©es Ă©taient l'objet de manipulations, ou que certaines règles Ă©taient modifiĂ©es par les universitĂ©s en sorte d'amĂ©liorer artificiellement leur place dans les classements[10].
  • Les indicateurs choisis ont parfois un caractère indirect (utilisation de « proxies »). Ainsi par exemple, que mesurent, en rĂ©alitĂ©, les enquĂŞtes de rĂ©putation telles que celles effectuĂ©es dans le cadre du classement du Times (TH-QS) ? Mesurent-elles la sĂ©lectivitĂ© de l'Ă©tablissement, la qualitĂ© de sa recherche, son prestige historique ? Ces mesures crĂ©ent des effets de rĂ©manence, car la rĂ©putation d'un Ă©tablissement dĂ©pend en partie des classements passĂ©s.
  • Les indicateurs retenus sont liĂ©s entre eux, en sorte que la dimension « multicritères » du classement est en partie superficielle. Dans le cas du classement de Shanghai, les critères bibliomĂ©triques se chevauchent (« nombre d'articles rĂ©fĂ©rencĂ©s au niveau international » et « nombre d'articles publiĂ©s dans les revues « Science » et « Nature » » par exemple) ou recoupent indirectement d'autres critères comme l'obtention de distinctions acadĂ©miques (prix Nobel, mĂ©dailles Fields). Dans le cas du classement du TH-QS, la rĂ©putation dĂ©pend aussi de ce qui est mesurĂ© par les autres indicateurs employĂ©s, en sorte que les mĂŞmes Ă©lĂ©ments sont pris en compte plusieurs fois pour la rĂ©alisation d'un classement, dans une mesure qu'il est difficile d'Ă©valuer.
  • Enfin, les Ă©carts statistiques ne sont pas toujours suffisamment significatifs pour qu'un classement Ă©tablissement par Ă©tablissement, par ordre dĂ©croissant de performance soit rĂ©ellement pertinent. Le classement de Shanghai s'effectue d'ailleurs par tranche de 50 puis de 100 Ă©tablissements, Ă  compter du 100e Ă©tablissement. Or les Ă©carts sont-ils vraiment plus significatifs avant qu'après la centième place ?

»

Voir aussi

Articles connexes

Liens externes

Notes et références

  1. Du bon usage des classements universitaires internationaux
  2. Le problème du classement de Shanghai, c’est qu’il existe
  3. Ellen Hazelkorn, « Universities have become isolated from their publics ».
  4. « About | CWUR | Center for World University Rankings », sur cwur.org (consulté le )
  5. CWUR Methodology
  6. http://rankingwatch.blogspot.com/2015/09/looking-inside-engine-structure-of.html Looking Inside the Engine: The Structure of the Round University Rankings University - Ranking Watch (Septembre 2015)
  7. Face à Shangaï, les Mines dégainent leur classement, L'Express, 18 septembre 2008
  8. Enseignement supérieur : le défi des classements, Rapport d'information 442 par Joël Bourdin, juillet 2008.
  9. Yves Gingras, La fièvre de l'évaluation de la recherche, Centre universitaire de recherche sur la science et la technologie, mai 2008
  10. Voir par exemple: Dill, D.D., Soo, M. Academic quality, league tables, and public policy: A cross-national analysis of university ranking systems, Higher Education volume 49, pages 495–533 (2005).

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.