JLE

Hématologie

MENU

L’intégrité scientifique : nouvelle cause internationale Volume 26, numéro 1, Janvier-Février 2020

À la différence de l’éthique de la recherche, qui procède de la discussion et de la délibération autour des grandes questions que posent les progrès de la science dans leurs répercussions sociétales, l’intégrité scientifique est un ensemble de règles qui gouvernent la pratique de la recherche et qui ont pour but de faire adopter par chaque chercheur une conduite intègre et honnête[1]. L’intégrité scientifique, pour nous hématologues, vise à la production de données justes et donc reproductibles qui, in fine, pourront conduire à une amélioration des connaissances sur les maladies et/ou une amélioration de la prise en charge des patients atteint d’hémopathies malignes.

Si l’éthique fait appel à des notions culturelles, l’intégrité, quant à elle, concerne plus volontiers les qualités intemporelles de la science. L’intégrité scientifique peut être définie comme « le respect de l’honnêteté et la transparence dans tous les aspects de la recherche, la rigueur selon les normes et les standards de la discipline, ainsi que le respect de tous les participants et des sujets de recherche » [2].

L’intégrité est un enjeu crucial en médecine, qui est devenu européen il y a bientôt 10 ans[3, 4]. Les manquements ont des retentissements et un impact sociétal plus ou moins grand. Quand il y a tricherie sur les résultats d’un essai clinique, l’impact peut être énorme en termes financiers et de santé publique[5]. Il est donc extrêmement important d’incorporer une formation sur l’intégrité scientifique dans le cursus universitaire des jeunes médecins et tout particulièrement dans notre spécialité, l’hématologie, où la culture de la recherche est enseignée dès l’internat, en développant une prévention primaire et secondaire tout au long de la carrière des praticiens hospitaliers universitaires ou non.

Les inconduites scientifiques

Définitions

Inconduites volontaires

Fraudes, plagiat, falsification

Dès l’école secondaire, peuvent émerger les prémices de comportements qui mèneront ensuite aux inconduites. Ainsi, produire un devoir par copier-coller constitue un cas de plagiat. En médecine, les inconduites scientifiques trouvent leur source dès les premières années : combien d’étudiants ne sont-ils pas tentés – par exemple lors de la rédaction de leur travail de thèse d’exercice – de faire de larges copies de référentiels, de thèses similaires ou encore d’« arranger » des résultats de questionnaires, de recueil de données ou d’expérimentations dans l’objectif d’obtenir la réponse qui semble être attendue par le directeur de thèse ?

Si les inconduites les plus évidentes – comme la fraude, le plagiat et la falsification – sont pénalement condamnées, très peu sont en réalité dépistées et reconnues, en dehors des travaux conduisant à des publications dans les journaux scientifiques. Ces dernières, dont la fréquence augmente, occasionnent des rétractations d’articles de plus en plus nombreuses : elles ont été multipliées par 10 depuis 1975[6].

Embellissement des résultats

D’autres inconduites sont beaucoup plus subtiles, et il devient très difficile de les pénaliser. De l’utilisation sélective des données à l’omission ou à la sélection de résultats en passant par leur présentation avantageuse au travers d’un graphique incomplet, de nombreuses pratiques existent, qui sont questionnables et influencent la production de la « vérité scientifique »[7].

<i>P-hacking</i>

Pour de nombreuses raisons, les tests statistiques sont trop souvent produits par des non-professionnels. Les exemples de p-hacking sont nombreux : ajouter ou retirer des patients, des données ou des variables, sélectionner des comparaisons à publier, essayer plusieurs méthodes statistiques pour retenir la plus plaisante, etc. Ces manipulations, qu’on peut considérer comme encouragées par les politiques de publication de certains éditeurs, participent grandement à la production de données erronées[8, 9].

Inconduites involontaires

Dans le langage commun, le terme d’erreur scientifique fait plus souvent référence à l’erreur expérimentale, laquelle peut par exemple amener le chercheur à répéter les expériences, ou encore à l’erreur d’interprétation, qui le pousse à l’autocritique ainsi qu’à la critique des travaux de ses collègues. À ce propos, la commission éthique de la Société française d’hématologie avait tracé un parallèle entre la restitution des résultats de recherche et la restitution des résultats d’examen auprès des patients, et avait rappelé les garde-fous – le partage de l’incertitude, l’explication des variations de mesure, de la reproductibilité des résultats expérimentaux, etc. – qui permettent de se protéger de telles erreurs, que ce soit dans la méthodologie ou dans la présentation des résultats[10, 11].

Il existe cependant une autre forme d’erreur scientifique, moins souvent abordée : l’erreur inconsciente, celle qui s’ignore elle-même. Elle commence par les erreurs de recueil manuel de données, qui sont évaluées à 3-4 % en moyenne. Aussi, à l’ère d’une science qui se veut de plus en plus complexe, peu de sensibilisation à ce sujet existe. Dans de nombreux domaines, nous sommes poussés à générer et à traiter une multitude de données à caractères variés (biologie moléculaire et cellulaire, bio-informatique et statistiques, modèles animaux, etc.) et l’impossibilité de l’omnicompétence amène a fortiori à la survenue d’erreurs[2]. Ces « inconduites inconscientes », bien que souvent commises par manque de rigueur plutôt que par malhonnêteté, demeurent néfastes et portent à conséquences. L’un des moyens d’éviter en partie les conflits d’intérêt est de dissocier le recueil des données, par des professionnels de santé formés à un recueil rigoureux, et l’interprétation des résultats, par l’investigateur.

Constats

Les écarts aux règles de bonne pratique peuvent s’installer très tôt, comme en témoigne l’enquête effectuée en 2019 par des chercheuses d’un important institut de recherche auprès d’étudiants en thèse ou de jeunes post-doctorants via les réseaux sociaux, les écoles doctorales et les instituts de recherche, pour évaluer l’impact ressenti dans l’environnement de la recherche : encadrement, perception de l’utilité de son propre travail et pression vis-à-vis de la publication. Il ressort des 482 réponses recueillies que l’indice psychologique (niveau de stress du chercheur) augmente à mesure des années de thèse, majoré plus encore pour les chercheurs étrangers, le départ du pays d’origine ajoutant un stress supplémentaire. De même, il existe une forte corrélation entre un indice psychologique faible et la qualité du travail avec un bon niveau de satisfaction personnelle[2].

Or, pour tout scientifique et encore plus pour les hématologues confrontés à des maladies graves et mortelles, le besoin de progresser collectivement est une impérieuse nécessité. Au niveau des écoles doctorales, il est demandé au jeune chercheur de publier un ou plusieurs articles dans des revues à fort facteur d’impact pour obtenir sa thèse d’université – d’où le fameux adage publish or perish. Dans ce cadre, la recherche n’a plus pour objectif d’améliorer la connaissance sur une maladie ou les soins qu’il est possible d’apporter à un malade, mais est essentiellement mise au service du chercheur, en favorisant sa carrière, sa renommée ou la reconnaissance de son statut d’expert sur son sujet de recherche. Ainsi, les jeunes médecins sont soumis à une forte pression pour obtenir à tout prix un résultat positif, ce qui pourrait les pousser à certains manquements. Un faible pourcentage d’entre eux pourrait être tenté par la recherche de scoops, de nouveaux paradigmes. Il existe d’ailleurs une corrélation entre le facteur d’impact d’une publication et le taux de fraudes et de rétractations d’articles dont elle est l’objet. Ceci montre bien les limites de l’incitation à publier dans des journaux à fort facteur d’impact[12, 13].

Il faut noter qu’il y a en moyenne dix valeurs de p par article, lesquelles sont souvent < 0,05[14, 15]. Dans les plus grandes revues, il n’y a quasiment pas d’essai négatif, ayant un p > 0,05. En ne retenant que les journaux les plus importants, 87 à 99 % des articles présentent des p < 0,05[16]. Il existe une réelle cassure entre les valeurs < 0,05 et ≥ 0,05, ce qui ne devrait pas être le cas si les pratiques étaient globalement intègres. Malheureusement, lorsque les p ne sont pas significatifs, les chercheurs ne prennent parfois pas la peine d’écrire l’article[17]. D’après le comité d’éthique du Centre national pour la recherche scientifique (COMETS), seule une minorité des travaux scientifiques sont finalement publiés, la plupart de l’argent public qui y est investi n’étant donc pas converti en résultats scientifiques. L’abandon, le biais de publication et l’ajustement sont trois causes expliquant l’observation sur les p dans la littérature scientifique[18]. En pratique, on conçoit que la multiplication des tests statistiques soit une menace pour la recherche, à laquelle il est très difficile de résister quand on est chercheur, car la responsabilité de ce phénomène est sociétale plus qu’individuelle et est à attribuer à tous les acteurs, humains et institutionnels, impliqués dans la recherche et la publication. Il est important de reconnaître que de plus en plus d’essais négatifs apparaissent en bonne place dans des revues à facteur d’impact élevé. Cependant, si les essais négatifs sont peu publiés, la responsabilité en incombe beaucoup moins aux politiques éditoriales des revues à facteur d’impact élevé, sous réserve d’une méthodologie rigoureuse, qu’aux chercheurs qui ne les soumettent pas car très peu font l’objet d’une rédaction. Cette prise de conscience éditoriale quant aux essais négatifs est très importante, ces publications se trouvant ainsi valorisés, pour ce qu’elles permettent des « désimplantations » de pratiques parfois historiques et sans niveau de preuve suffisant.

Il ne faut pas ignorer que le chercheur – qu’il soit biologiste ou clinicien – est premièrement mu par le besoin de crédits pour faire avancer sa recherche. Cette course aux fonds est à double tranchant car l’obtention de crédits importants pour une étude suppose désormais que des essais, attribués au chercheur, aient été préalablement publiés et référencés sur clinicaltrial.gov ; cela participe à la publication de tous les résultats obtenus, ce qui est positif. Il existe également un besoin de reconnaissance du scientifique, que ce soit pour asseoir sa notoriété ou son expertise sur son thème de recherche. Arithmétiquement, l’augmentation du nombre de publications est associée à l’augmentation du risque d’inconduites scientifiques[19].

Concernant les erreurs involontaires, elles sont amenées à se multiplier de par la complexité et la complexification de nos pratiques de recherche. Par leur nature, elles ne sont pas évidentes à encadrer légalement : l’erreur fait également partie du processus scientifique et peut survenir sans même que l’on ne le sache. Pour cette raison, il est important que s’opère une prise de conscience éthique concernant ces questions. Une des réponses à donner à ces problématiques dans la recherche clinique serait par exemple de ne financer que des projets multicentriques qui, par leur méthodologie (reproduction inter-centre), comportent leur propre contrôle. Cependant, aucune méthodologie, aussi excellente soit-elle, ne peut dispenser d’une formation à l’éthique en recherche et à l’intégrité scientifique[20-22] des plus jeunes hématologues.

Conséquences scientifiques, financières et sanitaires

Les conséquences des inconduites sont de plusieurs ordres. Tout d’abord, il existe une retombée négative sur la réputation du scientifique et/ou de son équipe : ainsi, il s’est déjà produit qu’un scientifique soit exclu d’un recrutement en université après qu’il avait été accusé de fraude[23, 24]. Ensuite, ces fraudes engendrent un réel péril sanitaire, que ce soit pour le chercheur ou pour les patients. Sur le plan financier, on estime à 28 milliards par an la perte budgétaire pour le système de santé aux États-Unis occasionnée par des résultats non reproductibles en clinique. Le seul retrait d’une publication pour fraude engendre un coût estimé par le National Institue of Health à 425000$/article, en frais d’instruction et de traitement global du dossier[25].

Les victimes de telles inconduites sont non seulement la « vérité scientifique » et ceux qui financent la recherche, mais aussi la communauté scientifique qui s’appuiera sur des données erronées, les personnes victimes de plagiat et, finalement, les patients. Il en va de la confiance entre les différents scientifiques, entre une équipe de recherche et son hôpital ou son université, entre les scientifiques et les laboratoires pharmaceutiques et surtout entre les chercheurs et le grand public.

Les garde-fous

Éducation scientifique et devoir éthique de l’intégrité

Un certain nombre d’universités dispensent, depuis quelques années maintenant, des cours d’éthique scientifique, dès la première année de licence afin que, dès le plus jeune âge, les étudiants apprennent à éviter les manquements à l’intégrité scientifique et à mieux comprendre et utiliser les biostatistiques. Si cette formation commence en licence, elle se poursuit en master, où l’acculturation des valeurs d’intégrité se réalise peu à peu : une éthique de l’évaluation est mise en place, en faisant évaluer les étudiants par d’autres étudiants, ceci dans le but d’éveiller les consciences sur l’intégrité[2, 26].

Certaines universités délivrent également cette formation à tous les entrants, bien que chercheurs déjà aguerris, pour éveiller sur les problématiques du coût des manipulations, de la fraude scientifique, de la psychologie de la recherche (ne pas faire subir de pression au n - 1 et ne pas en subir du n + 1) et de la métrologie[7]. Des référents intégrité sont désormais nommés dans les universités, qui veillent au respect de ces règles, et peuvent même devenir des lanceurs d’alertes[27].

Il existe par ailleurs une charte nationale de la déontologie des métiers de la recherche[28], qui recense un certain nombre de principes de bonne conduite : respect des dispositifs législatifs et réglementaires, fiabilité du travail de recherche, communication de tous les résultats des travaux de recherche, responsabilité dans le travail collectif, impartialité et indépendance dans l’évaluation et l’expertise, travaux collaboratifs et cumul d’activité – le lien d’intérêt n’est pas le problème principal, il est même nécessaire à l’expertise : c’est le conflit d’intérêt qui doit être prévenu –, formation en déontologie.

Il est souvent répété – et à juste titre – que le premier devoir éthique est la compétence. En recherche, compétence doit rimer avec intégrité[21]. Au-delà des heures de formation obligatoires et des signatures de chartes, il en va de l’honnêteté intellectuelle du chercheur de ne pas contribuer à des inconduites scientifiques.

Revue par les pairs après publication

De par la hiérarchie universitaire et la ligne éditoriale des grandes revues, il est toujours malvenu de critiquer publiquement des articles publiés dans des revues à haut facteur d’impact. Il est donc fondamental de permettre aux lecteurs d’un article de pouvoir échanger sur la véracité des expériences ou des chiffres exposés et d’alerter les chercheurs et le public en cas de doute sur l’intégrité de l’étude. Plusieurs plateformes réunissent aujourd’hui les chercheurs et servent de lieu de débats sur ce qui a été publié (ResearchGate, PubPeer, etc.) : dans ce nouvel environnement, réputation ne vaut plus protection[29].

Contrôle qualité des unités de recherche clinique et des laboratoires

En termes de recherche, les accréditations nécessaires aujourd’hui aux laboratoires constituent des garde-fous indispensables, tant sur la sécurité des résultats que sur la traçabilité. Il existe aussi plusieurs procédures de certification pour les hôpitaux, les biobanques, les laboratoires de recherche, etc. Concernant les laboratoires de biologie médicale, les chefs de laboratoire doivent tout d’abord signer une lettre d’engagement du respect d’une conduite éthique par ses chercheurs permettant une qualité de la recherche et un respect minimum de l’intégrité scientifique. Ceci implique aussi un engagement financier dans des outils de contrôle. Le responsable de l’unité de recherche clinique (URC) ou le directeur de laboratoire doit en outre documenter les qualifications du personnel, évaluer la compétence de l’ensemble du personnel et la réévaluer à intervalle régulier. Le laboratoire doit avoir une démarche qualité avec des procédures documentées pour l’étalonnage des équipements de recherche, une traçabilité métrologique des résultats de mesure et un contrôle des documents requis par le système de management de la qualité. De même, dans les URC, la démarche qualité nécessite la mise en place de procédures, d’audits externes des recueils de données et de formations régulières aux bonnes pratiques de recherche. Enfin, concernant les données, de nombreux outils avec contrôle interne sont à disposition, avec verrouillage des tableurs, réalisation – si possible – d’une double saisie manuelle, contrôles des données sources par des monitorings externes et conservation des données dans un local protégé. Les reviewers demandent de plus en plus couramment une copie des données sources lors de la soumission d’un article. La démarche qualité est lourde, coûteuse, mais elle améliore l’organisation des lieux de recherche, en devient rassurante et instaure une confiance entre le laboratoire et les cliniciens.

Place des éditeurs de revues scientifiques

Classiquement, l’auteur soumet l’article via un site internet qui est analysé par un editorial manager, qui, d’une part, vérifie que l’article est en conformité avec les consignes de format imposées par le journal, et d’autre part, soumet l’article à un logiciel d’analyse pour détecter le plagiat quand il est grossier. L’article est ensuite orienté vers les rédacteurs (editors en anglais) dont le rôle est de déterminer s’il mérite d’être publié ou s’il doit être d’emblée rejeté (e.g., pour plagiat, publication redondante, etc.) puis, le cas échéant, de transmettre l’article aux experts (reviewers) qui vont émettre un rapport rendu anonymement afin que les auteurs retravaillent l’article et l’améliorent. Par la suite, en cas d’acceptation de l’article retravaillé, il est soumis finalement à l’éditeur (publisher) pour publication. Le temps de tout ce processus peut être extrêmement variable en raison du nombre d’intervenants participant à ce processus.

Il existe cependant d’autres manières de traiter les articles scientifiques. Un exemple en est ce qu’on appelle les revues « prédatrices », c’est-à-dire à but lucratif aux dépens des chercheurs voulant publier. Dans ces revues, le processus de reviewing est presque ou totalement inexistant et la transparence n’est pas un principe recherché. Tout papier peut donc y être publié si l’auteur accepte de payer pour l’être. Ces revues prédatrices sont identifiées sur un site qui est régulièrement actualisé : predatoryjournals.com.

Au total, auteurs, rédacteurs et experts sont en interaction au cours d’une publication. Le respect de l’authorship, la non-utilisation des résultats d’autrui, le refus du plagiat ou de l’autoplagiat, l’absence de falsification des résultats et la non-soumission d’article à plusieurs journaux constituent des règles nécessaires pour l’édition d’articles réellement originaux et pour assurer la meilleure efficience du processus de publication. Idéalement, chaque travail de recherche devrait donner lieu à une publication.

La science ouverte : solution durable ?

L’open access dès aujourd’hui

Dès 1942, Merton définissait dans son article « The Normative Structure of Science » les valeurs qui devraient régir le travail scientifique :

  • communalisme : production d’une connaissance constitutive du bien commun,
  • universalisme : validité des connaissances, reproductibilité, disponibilités des données,
  • désintéressement : échappement aux intérêts particuliers et culture du partage,
  • scepticisme organisé : peer review.

Or, l’accès payant est une restreinte à l’accès aux publications. Il contribue de plus à un paradoxe, qui est que les auteurs cèdent gratuitement les droits sur leur propre production, et qu’ils devront donc payer pour pouvoir lire leur propre article. Le processus de publication est extrêmement long, ce qui devient de plus en plus anachronique. Le peer review est finalement aussi très aléatoire, puisque deux à trois personnes seulement jugent de la qualité d’un travail. Dans ce champ de bataille, émerge le principe d’open access : le libre accès aux publications scientifiques. Cette idée est réalisée, d’une part, par les archives ouvertes (lieu de préservation et de mise à disposition des articles) et d’autre part par les revues en open access, dans lesquelles c’est l’auteur qui paye pour paraître dans un journal, en contrepartie de quoi il conserve ses droits sur son article.

L’open access est la mise à disposition immédiate, gratuite et permanente sur Internet de publications scientifiques issues de la recherche et de l’enseignement. La « voie verte » (green open access) est l’autoarchivage ou dépôt par l’auteur du travail scientifique dans une archive ouverte (comme HAL [pour hyperarticles en ligne] en France) ; ce dernier conserve alors ses droits d’auteur et ce dépôt peut être contraint par un éditeur scientifique qui aurait soumis la publication à un embargo (entre six et 12 mois). La « voie dorée » (gold open access) est quant à elle proposée par les éditeurs qui acceptent de donner immédiatement le libre accès à leurs publications. Il en découle que des modes de financement, autres que l’abonnement, se développent : modèle auteur-payeur, prise en charge par une institution ou un organisme de recherche, modèle mixte – comprenant une base restreinte gratuite et un accès payant, sur abonnement, à tous les articles (freemium) –, la souscription ou encore la levée de fonds (crownfunding).

Intégrité et science ouverte touchent toutes les deux à la méthode scientifique : l’une pour la consolider, l’autre pour contribuer à son accessibilité. L’open access rend plus difficile de plagier, mais facilite en revanche la succion de données (data mining). Il favorise également la peer-review ouverte (sujet complètement occulté aujourd’hui) et la mise en relation de publications issues de champs différents, favorisant ainsi la multidisciplinarité.

Concernant la relecture par les pairs, des auteurs proposent de lever l’anonymat des relecteurs, de rendre accessibles les commentaires des relecteurs et de les reconnaître comme un produit de recherche à part entière, de rendre le travail des relecteurs collaboratifs, de promouvoir des critères plus objectifs pour les experts (concept de sound science), et de mettre en place une relecture spécifique des données et des méthodes[30].

Le plan national pour la science ouverte

Depuis octobre 2016, les auteurs français disposent du droit de déposer leur travail dans une archive ouverte à partir du moment où celui-ci est financé pour plus de la moitié par des fonds publics, et ce dès la publication ou avec embargo dont la durée varie de six mois (science, technique et médecine) à 12 (sciences humaines)[31].

Un plan national pour la science ouverte[32] a été mis sur pied, dont le premier axe concerne la généralisation de l’accès ouvert aux publications avec la création d’un fonds pour la science ouverte et le soutien de l’archive ouverte nationale HAL. Le deuxième axe concerne l’ouverture de données de recherche, de façon « aussi ouverte que possible et aussi fermée que nécessaire ». Le plan propose la création d’un administrateur des données et d’un réseau associé au sein des établissements. Un travail doit aussi être mené sur la propriété intellectuelle pour éviter que celles-ci soient restreintes par les éditeurs. Le troisième axe est de s’inscrire dans une dynamique durable, européenne et internationale. Cela passe par le développement des compétences grâce à la formation, par l’engagement des opérateurs de recherche à se doter d’une politique de science ouverte et par la participation active à des projets internationaux pour l’intégrité (plan S,GO FAIR, European Open Science Cloud).

Le plan S

En septembre 2018, une coalition d’agences de recherche a lancé un plan d’action en faveur de la science ouverte qui a été par la suite signé par de nombreux pays de l’union européenne. Ni les États-Unis ni la Chine n’y ont encore adhéré, mais il semble déjà établi qu’un changement de l’ensemble de l’Union européenne influencera de façon certaine le modèle d’édition sur les autres continents[33].

Le plan S requiert la publication en open access (journaux, plateformes, archives) de tous les résultats de recherche financée par des fonds publics. La date de mise en place des principes du plan S était le 1er janvier 2020 et la date de son application par l’ensemble des membres de la coalition S est le 1er janvier 2021. Cependant, de nombreuses questions émergent : comment la science ouvertes’articule-t-elle avec l’intégrité scientifique ? La prépublication des articles est-elle obligatoire avant ou après l’expertise par les pairs ? Peut-on continuer à publier dans les revues hybrides des éditeurs privés ? Si ces dernières sont amenées à disparaître, comment aider les sociétés savantes, pour lesquelles une partie importante du budget provient de ce type de journaux et qui fournissent les experts relecteurs d’articles ? S’il n’existe plus que des journaux en accès libre (open access), qui devra régler les frais de soumission et publication (article processing charges) ?

Une manière d’être en accord avec le plan S est désormais de déposer une version autorisée par son éditeur (voir le site Sherpa/Romeo créé par l’université de Nottingham) dans une archive ouverte nationale, telle que HAL. Pour les instances signataires du plan S, deux injonctions coexistent : donner au chercheur le moyen de publier dans un journal de très haut niveau et, en même temps, lui permettre d’être lu dans le cadre de la science ouverte. Le facteur d’impact étant trop prégnant à ce jour pour que les jeunes chercheurs puissent s’en détourner, un long travail de pédagogie sur l’intégrité scientifique sera à mener pour arriver à un vrai changement de paradigme.

La question de l’évaluation des universitaires et des équipes de recherche

Système d’interrogation, de gestion et d’analyse des publications scientifiques : la course aux points

Le facteur d’impact

Le facteur d’impact est le rapport du nombre de citations des articles d’un journal lors d’une année n sur le nombre cumulé d’articles publiés au cours des années n-1 et n-2. Le facteur d’impact d’un journal pour 2020 est donc calculé sur les articles publiés en 2018 et 2019. Son avantage majeur est qu’il est facile à calculer et qu’il est censé refléter la qualité d’un journal. Cependant, il présente de nombreux inconvénients :

  • selon le champ d’investigation du journal (e.g., oncohématologie en général versus thérapie cellulaire ou soins palliatifs en hématologie), il concernera une communauté plus ou moins grande de chercheurs, ce qui affecte mécaniquement le nombre des citations,
  • le facteur d’impact ne reflète pas la qualité du travail publié, mais celle de la revue,
  • le biais de diffusion favorise systématiquement les revues anglophones aux dépens des autres (dont les journaux francophones),
  • la fenêtre temporelle de deux ans est courte alors qu’un travail publié peut avoir un impact réel quatre ans après sa publication sans pour autant avoir eu de l’effet sur facteur d’impact du journal.

Système d’interrogation, de gestion et d’analyse des publications scientifiques : la course aux points Système d’information et de gestion de la recherche et des essais cliniques

Le système d’interrogation, de gestion et d’analyse des publications scientifiques (Sigaps) est un logiciel de bibliométrie servant au recensement des publications scientifiques référencées sur PubMed. Pour chaque publication, un score Sigaps est calculé automatiquement, prenant en compte le facteur d’impact de la revue et la position de l’auteur ou sa participation en tant qu’investigateur.

Au fil de sa carrière, chaque chercheur alimente son score Sigaps global, qui devient un élément clé de son évaluation dans l’habilitation à diriger des recherches et dans l’accession aux titres de maître de conférence et de professeur. Il en découle naturellement une course aux points Sigaps incitant les chercheurs à courir après des publications quantitatives (de nombreux travaux dans des journaux de petite réputation) et/ou la recherche du plus haut facteur d’impact possible. Dans cette quête, qu’elle soit quantitative et/ou de facteur d’impact, la tentation est grande pour les chercheurs de dissimuler des inconduites scientifiques en sélectionnant les résultats, en démultipliant les tests statistiques, voire en copiant-collant des résultats d’expériences d’autres équipes.

Le système d’information et de gestion de la recherche et des essais cliniques (Sigrec) est un outil de gestion informatisée des essais cliniques institutionnels et industriels réalisés dans les établissements de soins éligibles aux missions d’enseignement, de recherche, de référence et d’innovation (Merri). Sa finalité est de quantifier et de cartographier l’ensemble des recherches biomédicales réalisées dans les établissements de soin, pour calculer la part de financement recherche pour les établissements de santé. Il existe là un biais important qui pourrait – par défaut d’intégrité scientifique –, conduire l’hématologue à inclure par excès des patients dans les protocoles de recherche clinique.

Course aux financements

L’évaluation des laboratoires par le Haut Conseil de l’évaluation de la recherche et de l’enseignement supérieur (HCERES) dépend en grande partie de l’activité de ses chercheurs, au travers des points Sigaps et Sigrec cumulés. C’est de cette évaluation que découle le financement des équipes de recherche pour mener à bien ses travaux. Notons qu’à sa création, l’Agence nationale de la recherche finançait 25 % des projets de recherche qui lui étaient soumis. Ce pourcentage s’est effondré depuis, conduisant à la fermeture d’un certain nombre de laboratoires. A contrario, il a pu être constaté d’importants efforts de financement de la recherche clinique, via les projets hospitaliers de recherche clinique (PHRC) ou de recherche infirmière (PHRI), ou encore des projets de recherche organisationnelle ou épidémiologique. Cependant, l’évaluation de l’impact de ces recherches en termes de publications a été extrêmement décevante, avec un faible ratio de publications dans des revues à facteur d’impact élevé et avec des délais très longs. La limitation des financements et l’explosion des coûts de la recherche sont des facteurs favorisant la survenue de manquements à l’intégrité scientifique.

La question du choix des coauteurs dans les articles scientifiques

S’il est une question éminemment sensible et difficile à résoudre, c’est l’établissement des critères qui justifieraient la présence de tel ou tel chercheur dans la liste des coauteurs, ainsi que de leur place dans cette liste (celle-ci influençant le score Sigaps individuel). S’il ne fait aucun doute que celle-là doit accueillir les chercheurs ayant participé activement à l’expérimentation, au recueil de données, à l’élaboration méthodologique du projet, à l’analyse statistique ou encore à la rédaction de l’article, comment décider lesquels seront les deux premiers et le dernier auteur ?

Dans les cas de protocoles multicentriques, où un recrutement concurrentiel entre les différentes équipes est entretenu et favorisé par les promoteurs industriels mais aussi les institutions, du fait des indicateurs Sigrec (nombre de patients inclus par service et par établissement), il y a réellement un risque de pression à l’inclusion au niveau des patients. De nombreux biais sont à déplorer quotidiennement, avec des délais d’ouverture des différents centres de plusieurs mois, favorisant tel ou tel investigateur d’un centre donné, lui offrant de facto une bonne position dans les coauteurs de la publication.

Dans certaines publications, en raison des biais de sélection de grands journaux, les chercheurs peuvent être tentés d’inclure dans cette liste de coauteurs une personnalité éminente leur permettant de gagner en crédibilité auprès des éditeurs. Il en résulte que de nombreux experts peuvent être désignés comme coauteurs plus de 100 fois par an, ce qui équivaudrait à rédiger un article tous les trois jours.

La normalisation des profils de chercheur

La HCERES évalue actuellement les équipes sur un score d’aptitudes qui intègrent majoritairement des indicateurs individuels et quantitatifs : notoriété du chef de laboratoire, production annuelle, valorisation de cette production, nombre d’heures de formation, vie du laboratoire, stratégie communautaire avec les autres laboratoires, etc. Selon certains auteurs, il existerait une analogie entre l’évaluation des chercheurs et le principe évolutionniste, celui-ci impliquant deux mécanismes : la génération d’une diversité et la survie d’espèces en fonction de leur adaptation au milieu[34]. Deux modèles d’évaluation deviennent alors possibles :

  • le modèle actuel, dans lequel l’évaluation est systématisée et conduirait à une normalisation des profils de chercheurs,
  • un modèle dans lequel ce sont les profils de chercheurs, plutôt que leur nombre de publications, qui seraient évalués, ceci permettant de promouvoir la diversité des projets et favorisant des approches innovantes[2].

Il incomberait donc à l’évaluateur de promouvoir la diversité, de garantir une liberté de recherche, une diversité des équipes et des programmes – s’il existait un budget minimum récurrent. Pour autant, dans l’état actuel des choses, c’est une pression de sélection forte qui s’exerce et favorise l’uniformisation ainsi que la diminution de la diversité. C’est le contournement de la pression de sélection qui mène aux inconduites scientifiques.

Les maux dans les mots

La sémantique en recherche : l’omniprésence des superlatifs

La communication des résultats vers le grand public s’est développée au cours des dernières décennies. L’État étant le principal financeur de la recherche publique, il relève du devoir du scientifique de l’informer de ses avancées. Or, réduire la communication à un simple acte de transmission serait occulter la possible dimension politique de la communication, envisagée dès l’Antiquité par les sophistes comme un art de manipulation. De ce point de vue, la communication scientifique, et en particulier auprès du grand public, n’échappe pas au risque de l’exagération et de la survalorisation des résultats[35]. Pour le journaliste ou l’éditeur, il s’agit d’être lu, parfois au prix du sensationnalisme. Pour le chercheur ou son institution, il s’agit d’obtenir des fonds. Ce risque peut être spécifiquement accru de par la nécessité de vulgariser auprès du grand public des résultats souvent complexes. Mal faite, la vulgarisation des résultats scientifiques pourrait occulter des nuances dans les résultats scientifiques, par volonté de simplification. Dans le cas des molécules anticancéreuses, une équipe a mis en évidence que l’usage de superlatifs était leee fait du chercheur lui-même dans 30 % des cas[36]. D’autres chercheurs ont également démontré qu’une survalorisation des résultats dans les communiqués de presse émis par les institutions de recherche était positivement associée à une survalorisation de ces mêmes résultats dans la presse généraliste[37, 38].

Réseaux sociaux et marketing : place de l’irrationnel dans l’exposition de résultats scientifiques

Les réseaux sociaux ont envahi la sphère de l’information il y a plusieurs années déjà. De nombreux scientifiques promeuvent leurs travaux sur ces réseaux, de même que de nombreuses firmes pharmaceutiques les utilisent à des fins publicitaires. De par la levée de toute barrière entre scientifique et patient, il en découle que n’importe quel chercheur, quelle que soit son envergure scientifique, peut devenir aussi bien procureur que publicitaire pour telle thérapie ou telle recherche[39]. Il relève donc de l’intégrité de chacun de publier des contenus qui soient les plus justes – les moins faux – possibles, sans quoi le lien de confiance entre chercheurs et grand public risque de se fragiliser, sous l’effet des illusions engendrées et des déceptions qui s’ensuivent.

Conclusion

Le progrès de la recherche scientifique s’appuie sur l’intégrité scientifique qui engendre reproductibilité des résultats produits et confiance partagée entre les différents acteurs (chercheurs, instituts, hôpitaux, patients, médias). L’optimisation des dépenses de recherche et les modes d’évaluation ont poussé les chercheurs, cliniciens autant que fondamentalistes, à une obligation de résultats. Cette obligation contre-nature en recherche incite certains chercheurs à manquer – de manière volontaire ou non – à l’intégrité scientifique. Alors que les États européens nous engagent vers la science ouverte avec le plan S, il devient urgent de repenser l’écologie de la recherche et de prioriser ses raisons d’être : la compréhension la plus juste des maladies hématologiques, la poursuite de la vérité scientifique, le meilleur soin des patients de tous.

Les vigilances de la commission éthique de la Société française d’hématologie

Les questions que je dois me poser avant de débuter mon sujet de thèse d’exercice.

  • Ma question de recherche est-elle pertinente au vu de l’état actuel des connaissances (bibliographie) ? Quelle est mon hypothèse de travail et quelles en seraient ses émanations ?
  • Mon encadrement : puis-je m’appuyer sur un encadrant disponible pour m’orienter et répondre à mes interrogations ?
  • Ma méthodologie me permet-elle de répondre à la question (nombre de malades ou d’échantillons incluables dans un temps défini, etc.) ?
  • Mon recueil de données me permettra-t-il de répondre aux questions posées ?
  • Ma base de données est-elle en mesure d’apporter une réponse fiable à la question posée ? Ma population est-elle représentative ? Quel est son effectif nécessaire ?
  • Mes statistiques : qui va réaliser les analyses ?
  • Mes objectifs : ai-je anticipé toutes les questions a priori ? Dois-je stratifier ou prévoir une analyse en sous-groupes prédéfinis en objectifs principal et secondaires ?
  • Mes obligations juridiques : si je réalise un travail impliquant des personnes malades ou témoins, quelles sont mes obligations juridiques au regard de la loi Jardé ?
  • Mes obligations légales : en cas de travail prospectif, ai-je déclaré mon étude ?
  • Ma recherche, une fois publiée, sera-t-elle reproductible par un autre investigateur ?

Remerciements

les auteurs remercient Joël Ceccaldi, Chantal Bauchetet, Alice Polomeni et Dominique Jaulmes

Liens d’intérêt

Les auteurs déclarent n’avoir aucun lien d’intérêt en rapport avec cet article.

Licence Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution - Pas d'Utilisation Commerciale - Pas de Modification 4.0 International