Les bonnes recettes du Dr Raoult. SNCS Hebdo 16 n°3 du 8 février 2016
Mais là n’est pas le plus important. Après tout, les expériences positives sont toujours bonnes à prendre, d’où qu’elles viennent, y compris de nos amis transalpins pour qui j’ai le plus grand respect.Jean-François Agnèse, membre du SNCS, président de la CSS Sciences des systèmes écologiques de l’IRD
La question de fond est celle du niveau, jugé trop faible, de la recherche française et la manière de l’améliorer. Didier Raoult affirme que la faiblesse est réelle et l’impute à un mode de recrutement inadéquat des chercheurs en France, qui retiendrait les moins bons plutôt que les meilleurs. La faute à la « méthode » ! Non seulement cette vision est simpliste mais elle est erronée. Depuis un certain temps, on sait que le point faible de notre système n’est pas l’évaluation des chercheurs mais la diminution des crédits accordés à la recherche. D. Raoult n’a, semble-t-il, jamais entendu parler de ces baisses de crédits dont l’accumulation affaiblit année après année la recherche française. Ainsi l’Académie des sciences, répétant ce qu’elle écrivait déjà en 2012, émettait-elle, dans un « Cri d’alarme» lancé en décembre 2013, un avertissement solennel sur la situation financière critique de la recherche française. Aujourd’hui un grand nombre de chercheurs, en France, passe plus de temps à chercher des financements qu’à produire des données scientifiques, avec de surcroît des résultats souvent très aléatoires. Par exemple, en moyenne moins d’un projet sur dix soumis à l’Agence nationale de la recherche est financé. A l’évidence, ce n’est pas la qualité des chercheurs recrutés qui met la recherche française en péril mais bien le manque de moyens, devenu permanent.
Concédons à Didier Raoult, même si ses recettes n’auraient aucune chance de relancer la recherche française, que son souci de recruter les meilleurs en priorité est louable. Mais force est de constater, tant son texte est parsemé d’approximations voire d’inexactitudes, qu’il n’a qu’une idée fort imprécise des méthodes de recrutement des organismes de recherche français, notamment celles qu’applique l’Institut de recherche pour le développement (IRD).
Didier Raoult rapporte par exemple avoir « présenté un candidat » … Les candidats, naturellement, se présentent tout seuls, d’abord devant un jury dit « d’admissibilité », qui les auditionne et, s’il les juge aptes à occuper le poste, transmet leurs dossiers à un second jury, dit « d’admission », qui décide in fine. Ces deux jurys qui agissent successivement, sont différents, indépendants et constitués d’au moins 50 % d’experts extérieurs à l’établissement recruteur. Cette situation rend très difficile, voire impossible, le lobbying que redoute, à bon droit, D. Raoult.
Aucune de ces commissions n’a, non plus, le droit de révéler la teneur des débats ayant eu lieu lors d’un concours. Il est donc impossible, contrairement à ce qu’affirme Didier Raoult, qu’une commission ou qu’un jury d’experts se soit expliqué sur les raisons de son choix lors d’un recrutement.
Quant à la bibliométrie, présentée par D. Raoult comme la solution miracle, elle ne saurait, même si l’activité de publication est consubstantielle au métier de chercheur, constituer l’alpha et l’oméga de l’évaluation. Le contexte du travail, les prises de risques, l’originalité des recherches, les activités d’encadrement, de formation, d’enseignement, l’animation d’équipe, la recherche de financements, les prises de responsabilités administratives dans les unités de recherche, doivent être aussi appréciés. C’est bien sûr le cas à l’IRD, où en particulier les chercheurs, devant se consacrer à des recherches en partenariat avec le sud, voient leur mérite jaugé autant d’après leurs qualités scientifiques intrinsèques que selon l’intérêt de leur programme de recherche pour le sud et selon leur aptitude à travailler en expatriation. On est loin de l’addition pure et simple de quelques données chiffrées !
Last but not least, utiliser des indices bibliométriques pour l’évaluation des chercheurs suppose qu’on ait établi la corrélation de ces indices aux qualités qu’on prétend mesurer. Que mesure-t-on exactement lorsqu’on compte un nombre de citations ? On s’en soucie si rarement que F. Laloë et R. Mosseri ont pu pertinemment écrire « qu’actuellement, leur utilisation relève plus de la pseudo-science, comme l’astrologie, que d’une démarche scientifique »†.
Heureusement en France, à l’IRD comme dans les autres organismes de recherche et les universités, les jurys ont bien conscience de ce problème et savent mener des évaluations beaucoup plus subtiles que celles qui consistent à ranger des chiffres dans des tableaux. J’en veux pour preuve l’étude de P. Jensen et al. (2009)‡ qui a montré que les indices couramment utilisés en bibliométrie ne sont pas de bons prédicteurs des promotions au CNRS ! Didier Raoult y verra peut être du lobbying, voire de la corruption … Pour mon compte j’y vois surtout du discernement.
† L’évaluation bibliométrique des chercheurs : même pas juste… même pas fausse, Franck Laloë (laloe@lkb.ens.fr) et Rémy Mosseri, Reflets de la physique, 13 (2009) 23.
‡ Testing bibliometric indicators by their prediction of scientists promotions, P. Jensen, J.-B. Rouquier and Y. Croissant, Scientometrics, 78 (2009) 467.