Citer
Imprimer
Partager

« Publish or perish », vers la fin d’un dogme ?

  • Résumé

    De nouveaux outils remettent en cause la mesure de l’impact de la recherche uniquement à partir de la citation des publications. Ces mesures alternatives prennent en compte toutes les contributions scientifiques et leurs interactions sur le web. Plus complet, plus rapide, plus efficace, les « altmétriques » bousculent l’ordre établit par les revues traditionnelles. Ils offrent une autre façon de penser la valeur de la recherche et surtout, de nouvelles perspectives aux chercheurs en management sur le financement de leurs projets, leur carrière et leur réputation.

    Citation : Mamavi, O., & Zerbib, R. (Déc 2019). « Publish or perish », vers la fin d’un dogme ?. Management et Datascience, 4(1). https://doi.org/10.36863/mds.a.9805.
    Les auteurs : 
    • Olivier Mamavi
       (omamavi@gmail.com) - Paris School of Business  - ORCID : https://orcid.org/0000-0002-6421-1048
    • Romain Zerbib
       (romainzerbib@yahoo.fr) - ICD Business School
    Copyright : © 2019 les auteurs. Publication sous licence Creative Commons CC BY-ND.
    Liens d'intérêts : 
    Financement : 
    Texte complet

    Aujourd’hui, la valeur d’un chercheur repose principalement sur le nombre de citations dont il fait l’objet au sein des articles scientifiques. Un ensemble d’indices ont été établis, à l’aune de cette vision de la performance, pour objectiver la productivité scientifique d’un chercheur.

    Le plus connu d’entre eux a été développé en 2005 par Jorge Hirsch : le h-index, ou indice h, mesure à la fois le volume de publications et le nombre de citations par publication.

    Il s’agit de l’indice de référence pour définir la cote d’un chercheur sur le marché mondial. Nous assistons cependant actuellement à la prolifération de nouveaux outils qui bousculent l’ordre établi en appréhendant de manière plus large le rayonnement d’une publication, au-delà du seul cercle des chercheurs.

    Avec ces mesures alternatives (altmetrics), quitterait-on l’ère du « publish or perish », où un chercheur, pour être reconnu, doit impérativement écrire dans les revues uniquement lues par ses pairs ?

    Les limites de l’indice h

    Il est reproché à l’indice de Hirsch d’imposer une vision étriquée de la recherche en considérant, comme symptôme de performance, uniquement ce qui se déroule à l’intérieur d’un cercle fermé de revues scientifiques exclusivement lues par les pairs.

    Dès lors qu’il est érigé en système de gouvernance, l’indice h engendre par ailleurs un ensemble de biais significatifs.

    Une publication d’excellence muscle certes la carrière d’un chercheur en même temps qu’elle renforce le prestige de son institution.

    Mais la « course aux étoiles » – c’est-à-dire l’injonction faite au chercheur de publier toujours plus d’articles scientifiques au sein de revues toujours plus élitistes – entraîne aussi (et surtout) une explosion des budgets de la recherche.

    La « course aux étoiles » entraîne par ailleurs un découplage entre recherche et enseignement (les meilleurs enseignants-chercheurs étant principalement investis dans la publication au détriment de la pédagogie), et un déphasage avec les entreprises (la manière de penser et faire de la recherche en management étant plus adaptée aux éditeurs qu’aux managers).

    On aboutit in fine à un nombre significatif d’écoles et universités qui avancent à reculons, conscientes de l’inflation des coûts et de l’impact somme toute négligeable de ces publications scientifiques.

    Panorama de l’évaluation scientifique et de ses évolutions.

    Mesures alternatives

    L’épuisement d’un nombre croissant d’acteurs face à la tyrannie de l’indice h, conjuguée aux opportunités qu’offre aujourd’hui la transformation digitale, a favorisé l’émergence de mesures reposant sur une approche plus ouverte. Ces altmetrics revendiquent la prise en compte de nouveaux supports, dans le but de favoriser une recherche qui concerne en priorité la société civile.

    Une panoplie d’outils opérationnels (Almetric, ImpactStory, etc.) permettent à cet égard de suivre l’impact d’une publication sur les médias sociaux (Twitter, LinkedIn…), les médias en ligne (The Conversation…), les blogs scientifiques (scilogs,…), les bases bibliographiques (Google Scholar, Crossref…), les gestionnaires de références en ligne (Mendeley, Zotero…), etc.

    Ils mobilisent en résumé toutes les potentialités du web 2.0. pour évaluer la diffusion d’un travail de recherche : nombre de vues de la publication, téléchargements, commentaires, partages, mentions, « likes », tags. L’enjeu étant de mesurer le retentissement auprès des multiples parties prenantes que compte une institution de recherche : décideurs, managers, journalistes…

    Les limites des altmetrics

    Les alternatives à l’indice h ne sont pas exemptes de critiques. La principale d’entre elles étant l’incapacité à prendre en compte la qualité méthodologique d’une publication scientifique. La notoriété, l’engagement, le buzz… ne garantissent pas l’excellence d’une contribution.

    Les almetriccs pourraient en revanche favoriser un communicant au détriment d’un expert, peut-être pas au point de placer Kim Kardashian au-dessus de Mickael Porter, mais on saisit néanmoins la nature des dérives envisageables. Un tel écueil est cependant à modérer dans la mesure où seuls les contenus bénéficiant d’un DOI (digital object identifier) sont éligibles au suivi des mesures.

    Nous savons par ailleurs, depuis la théorie de l’acteur-réseau (Akrich, Callon et Latour, 1988) que la production des faits scientifiques implique une étape de traduction et de controverse.

    Le web constitue à cet égard un point de passage intéressant à observer pour appréhender la nature des interactions qui découlent d’une publication. Les altmetrics offrent autrement dit une alternance aux mesures traditionnelles en englobant les ondes de chocs qui se propagent au-delà des journaux académiques.

    Vers un impact sociétal

    L’évolution des statistiques cybermétriques, ajoutée à la prolifération d’articles, colloques et ateliers qui militent en faveur de mesures alternatives, nous donne une indication assez éloquente du virage que prend actuellement l’évaluation de la recherche.

    Les grands éditeurs ne s’y sont d’ailleurs pas trompés. Nature, Springer, Wiley, Taylor & Francis, etc., ont d’ores et déjà intégré ces nouveaux indicateurs au sein de leurs revues scientifiques au travers de tableaux de bord plus étoffés. Un chercheur devra ainsi, plus que jamais, veiller à produire un contenu scientifique pertinent qui capte l’intérêt de toutes les parties prenantes.

    L’impact sociétal de la publication sera par ailleurs, à terme, de plus en plus déterminant. L’ambition du Business School Impact System (BSIS), initié par la FNEGE et l’EFMD, s’inscrit clairement dans cette démarche. Il s’agit en effet du premier outil d’évaluation de l’impact d’une institution académique qui prend en compte un ensemble de dimensions cruciales (financière, éducative, intellectuelle, territoriale, etc.).

    L’émergence de ces nouveaux indicateurs va profondément modifier le processus de création de la connaissance (choix des thématiques, du moyen de diffusion, du mode de financement, de la finalité opérationnelle, etc.) avec, à la clef, une meilleure compréhension du rôle et de l’utilité fondamentale de l’enseignant-chercheur.

    Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

  • Évaluation globale
    (Pas d'évaluation)

    (Il n'y a pas encore d'évaluation.)

    (Il n'y a pas encore de commentaire.)

    • Aucune ressource disponible.
    © 2024 - Management & Data Science. All rights reserved.