Science ouverte, réplicabilité et reproductibilité : quels enjeux en sciences de gestion ?

Lettre de l'InSHS Autres

#ZOOM SUR…

Héloïse Berkowitz est chargée de recherche CNRS au Laboratoire d'économie et de sociologie du travail (LEST, UMR7317, CNRS / AMU). Chercheuse en sciences de gestion, elle est spécialiste des méta-organisations et de la transition écologique. Depuis 2020, elle a engagé un projet ambitieux sur la gouvernance de la transition écologique et sociale, notamment dans le contexte des océans, qui se décline en plusieurs projets de recherche internationaux. Elle a été lauréate, en 2022, de la médaille de bronze du CNRS.

Ancienne co-rédactrice en chef de la revue diamant M@n@gement1 , qui bénéficie du soutien précieux de CNRS Sciences humaines & sociales, Héloïse Berkowitz a participé avec Hélène Delacour (université de Lorraine) au développement de la politique de données ouvertes de la revue, une première dans le champ des sciences de gestion en France. Elle a également co-fondé Peer Community In Organization Studies (PCI Org Studies) avec Devi Vijay (Institut indien de management de Calcutta) en 2023. Peer Community In (PCI), une initiative de science ouverte créée fin 2016 par trois chercheurs de l'Inrae, permet à des communautés académiques, thématiques ou disciplinaires d'organiser l'évaluation et la recommandation de preprints, des articles académiques qui n’ont pas encore été évalués et publiés, de manière gratuite, transparente et collaborative (voir, par exemple, PCI evolutionary Biology). Dans la lignée des autres PCI, PCI Org Studies vise à rompre avec le système de publication commerciale, à promouvoir la bibliodiversité en sciences de gestion, à être plus inclusif envers les collègues et les recherches des pays des Suds, à mieux répartir la charge de travail en s'appuyant sur une large communauté de recommandeuses et recommandeurs. Il s’agit aussi de décloisonner le champ des études organisationnelles en développant un positionnement pluridisciplinaire (gestion, anthropologie, sociologie, sciences politiques…). Enfin, un objectif essentiel est de rendre transparent le processus d'évaluation en publiant librement, à la fin de ce processus, les décisions éditoriales et les évaluations.

Ces activités ont amené la chercheuse à s’interroger sur les transformations des pratiques de la recherche en sciences sociales en lien avec une conception de la science en tant que bien public global.

En France et à l’international, les plans, engagements et actions ainsi que les expérimentations alternatives en faveur de la science comme bien public global se multiplient : de la Déclaration de San Francisco sur l'évaluation de la recherche (DORA), en passant par les principes FAIR (Findable, Accessible, Interoperable, and Reusable), la cOAlition S, Peer Community In, etc. Ces transformations visent à mettre en œuvre une « science ouverte », ce qui recouvre une variété de phénomènes et de pratiques. De manière générale, la science ouverte décrit la communication transparente et le partage gratuit et sans barrière de la recherche tout au long de son cycle de vie, de la production des données de recherche, en passant par les méthodes, les logiciels, les outils et les publications2 .

Ces transformations récentes de la science vers plus d’ouverture s’enracinent dans des évolutions profondes dans la manière dont les communautés scientifiques, les organisations et les institutions perçoivent la recherche et son accessibilité. D’abord, les technologies de l’information et d’internet ont radicalement transformé la manière dont la recherche académique peut être menée, partagée et diffusée. Ensuite, l’essor de mouvements d’open source dans le domaine des logiciels a montré que les collaborations ouvertes pouvaient fonctionner et générer des modèles alternatifs, des pratiques et des innovations socialement responsables.

En parallèle, se sont révélés de façon de plus en plus criante les problèmes que pose le modèle dominant des revues académiques détenues par des grands groupes commerciaux d’édition scientifique. Les coûts élevés des revues académiques et la restriction de l’accès des publications entravent la diffusion du savoir, en particulier dans les pays du Sud, et rendent en outre le système insoutenable pour la société. Or, ce système de publication académique, caractérisé par sa dimension commerciale et orientée profits (environ 40 % de marge bénéficiaire, soit plus que les Google, Amazon et autres3 ), s’appuie sur le travail invisible et exploité des académiques, comme le rappellent régulièrement les communautés françaises et internationales dans des tribunes ou dans des articles académiques.

En outre, ce système crée, nourrit et perpétue un ensemble de problèmes remettant en question sa capacité à répondre aux besoins des communautés scientifiques et du public en général4 . Un premier problème est celui de la lenteur du processus de publication. En sciences de gestion, le processus peut aller de deux à cinq ans, rendant parfois obsolètes les travaux scientifiques. Cette lenteur résulte notamment de barrières de publication parfois arbitraires. De plus, le système est marqué par une forte opacité, particulièrement perceptible en sciences sociales, notamment en économie et gestion. En effet, dans la majorité des revues dépendantes des grands éditeurs commerciaux, les rapports d'évaluation et les noms des éditeurs ne sont pas publiés. Ce manque de transparence empêche d’identifier les conflits d’intérêt potentiels ou même d’évaluer la qualité des expertises, pouvant être arbitraires ou partiales. Par ailleurs, les revenus des éditeurs dépendent directement du nombre d’articles publiés, générant et aggravant certains effets pervers liés au développement de hiérarchies de prestige déconnectées de la qualité de la recherche, aux proliférations d’indicateurs bibliométriques conduisant à des comportements d’optimisation, pressions à la publication, biais de publication en faveur de résultats novateurs, la dite « crise de la réplicabilité », c’est-à-dire la faible réplicabilité, reproductibilité et reproduction concrète des résultats, et dans un cercle vicieux, fraudes potentielles, scandales, etc.

Les failles de ce système dominant conduisent à des productions de connaissances fragiles. L'invisibilisation de certains savoirs, tels ceux produits dans les pays du Sud, contribue encore à la fragilité des connaissances, en conséquence notamment des hiérarchies de prestige et des formes de gatekeeping, filtrage ou contrôle de l’accès aux revues, qu’il s’agisse de la publication ou de la participation aux comités éditoriaux.

Or, derrière cette fragilité des connaissances académiques, et dont le problème de la réplicabilité n'est qu'une facette, ce qui pose fondamentalement problème est une double perte de confiance : la perte de confiance académique dans le système de publication et sa rigueur, et la perte de confiance que la société dans son ensemble porte à la science, dans un contexte de post-vérité.

En sciences de gestion, les pratiques en matière de réplicabilité et de reproductibilité varient beaucoup, tout comme en matière de science ouverte. Réplicabilité et reproductibilité peuvent prendre différentes formes, différents sens et peuvent remplir différents objectifs : il peut s'agir de transposer à d'autres bases de données, d'autres secteurs ou d'autres terrains, ou bien répéter des protocoles pour arriver ou non aux mêmes résultats. Ces différents sens et objectifs ne sont pas forcément pertinents ni ne s’adaptent toujours aux besoins des sciences sociales et, notamment, à la complexité des méthodologies qualitatives (par exemple en ce qui concerne la recherche-action, l’ethnographie et l’auto-ethnographie).

Néanmoins, trois constats peuvent être faits à cet égard. Tout d'abord, la reproductibilité et la réplicabilité ne reçoivent pas la reconnaissance ni l'encouragement qu'elles méritent. Ceci résulte en grande partie des effets pervers mentionnés précédemment, tels que les biais de publication et les hiérarchies de prestige des revues. Les chercheuses et les chercheurs sont incités à privilégier la publication de résultats perçus comme novateurs au détriment de la consolidation des connaissances existantes ; puisque les revues cherchent à publier en majorité des résultats considérés comme innovants et qui attireront des vues et des citations. Ensuite, des ressources, du temps, des formations et un soutien institutionnel sont nécessaires pour développer des pratiques de réplicabilité et de reproductibilité adaptés aux contextes et aux besoins. Enfin et surtout, renforcer la confiance dans les résultats de recherche passe par de multiples moyens, y compris par la transparence et la qualité de la méthodologie, déplaçant le débat au-delà des seules questions de réplicabilité et reproductibilité. Car il est à craindre qu’instituer des critères de réplicabilité et de reproductibilité comme objectifs vienne encore nourrir le système dominant, aggraver les inégalités existantes, sans résoudre les problèmes fondamentaux.

Or, la science ouverte présente justement un éventail de solutions prometteuses face à ces enjeux majeurs. D’abord, en éliminant les barrières et les frais de soumission, de publication ou de lecture, elle permet un accès large et équitable à la recherche, tout en remédiant aux coûts élevés et aux marges bénéficiaires exorbitantes des grands éditeurs. Elle encourage la publication de données, scripts et codes de recherche, favorisant de fait la transparence mais aussi la reproductibilité des études. Les modèles d’open peer review exigent une divulgation complète des évaluations, des noms des éditeurs et éditrices et des conflits d'intérêts, renforçant la crédibilité des publications, comme c’est le cas à Peer Community In. D’autres pratiques, telles que l'utilisation de registered reports, un type d'article décrivant un protocole de recherche, évalué par les pairs avant sa mise en œuvre, pour améliorer la transparence et tenter de réduire les biais de publications, sont également facilitées par les différentes PCI et PCI Registered Reports.

Il reste un verrou important néanmoins au développement de la science ouverte et de ces nombreuses pratiques : celui de l’évaluation des carrières des chercheuses et chercheurs. En sciences de gestion, malgré des efforts de transformation, portés notamment par la Coalition for Advancing Research Assessment (CoARA), le système dominant d'évaluation repose encore largement sur des critères quantitatifs, liés aux hiérarchies de prestige des revues. Ces critères peuvent décourager la participation à des pratiques de science ouverte, telles que le partage de données.

Comme pour toute transition globale et multi-niveaux, le chemin est long, et de nombreux changements cognitifs, organisationnels, institutionnels et systémiques sont nécessaires pour remettre en question le modèle dominant commercial de publication et pour valoriser la diversité des pratiques de science ouverte. Tout cela dans le but de construire et préserver la science en tant que bien commun intellectuel mondial s'appuyant sur les communautés, comme le promeut la cOAlition S.

  • 1Voir à ce sujet : Berkowitz H., Delacour H. 2022, M@n@gement, revue pionnière en science ouverte, Lettre de l’InSHS n°80.
  • 2Berkowitz H., Delacour H. 2022, Opening Research Data: What Does It Mean for Social Sciences?, M@n@gement, 25(4), 1-15. https://doi.org/10.37725/mgmt.v25.9123
  • 3Voir à ce sujet : Buranyi S. 2017, Is the staggeringly profitable business of scientific publishing bad for science?, The Guardian. https://www.theguardian.com/science/2017/jun/27/profitable-business-scientific-publishing-bad-for-science
  • 4Voir à ce sujet la présentation de Peer Community In (juin 2023).

Contact

Héloïse Berkowitz
LEST