Les bonnes recettes du Dr Raoult. SNCS Hebdo 16 n°3 du 8 février 2016

lundi 8 février 2016
par  SNCS

Le fameux chercheur à 2000 publications Didier Raoult a encore frappé ! Dans une tribune publiée le mois dernier, il signe une étonnante prescription pour le recrutement des chercheurs.
D’après lui, pour faire progresser la recherche française, point n’est besoin d’appuyer le recrutement sur le travail de « commissions scientifiques subjectives, objets de lobbying et au fonctionnement coûteux ».
La recette du Dr Raoult est simple : il faut examiner uniquement la production scientifique des candidats. L’évaluation d’un chercheur se résumerait ainsi à trois chiffres : son nombre de publications, la qualité des revues dans lesquelles elles sont publiées, le nombre de fois où elles sont citées par d’autres études. L’Italie est donnée en exemple, qui, ayant appliqué ce système de sélection depuis 2011, connaît une « croissance scientifique » de 15,7 % contre seulement 7,5 % pour la France.
Relativisons d’entrée cette comparaison : l’Italie est – si l’on veut prêter attention aux chiffres - loin derrière la France dans le classement de Shanghai. Quand 3 universités italiennes y prennent place parmi les 100 premières (pour 5 disciplines, donc parmi 500 classés), la France en a 12. Le bon Dr Raoult eût été mieux inspiré de regarder du côté de l’Allemagne (19) ou du Royaume Uni (51) pour chercher des exemples à suivre.
Mais là n’est pas le plus important. Après tout, les expériences positives sont toujours bonnes à prendre, d’où qu’elles viennent, y compris de nos amis transalpins pour qui j’ai le plus grand respect.

Jean-François Agnèse, membre du SNCS, président de la CSS Sciences des systèmes écologiques de l’IRD

PDF - 366.9 ko
SNCS-Hedbo 16 n°6 version PDF

La question de fond est celle du niveau, jugé trop faible, de la recherche française et la manière de l’améliorer. Didier Raoult affirme que la faiblesse est réelle et l’impute à un mode de recrutement inadéquat des chercheurs en France, qui retiendrait les moins bons plutôt que les meilleurs. La faute à la « méthode » ! Non seulement cette vision est simpliste mais elle est erronée. Depuis un certain temps, on sait que le point faible de notre système n’est pas l’évaluation des chercheurs mais la diminution des crédits accordés à la recherche. D. Raoult n’a, semble-t-il, jamais entendu parler de ces baisses de crédits dont l’accumulation affaiblit année après année la recherche française. Ainsi l’Académie des sciences, répétant ce qu’elle écrivait déjà en 2012, émettait-elle, dans un « Cri d’alarme » lancé en décembre 2013, un avertissement solennel sur la situation financière critique de la recherche française. Aujourd’hui un grand nombre de chercheurs, en France, passe plus de temps à chercher des financements qu’à produire des données scientifiques, avec de surcroît des résultats souvent très aléatoires. Par exemple, en moyenne moins d’un projet sur dix soumis à l’Agence nationale de la recherche est financé. A l’évidence, ce n’est pas la qualité des chercheurs recrutés qui met la recherche française en péril mais bien le manque de moyens, devenu permanent.


Concédons à Didier Raoult, même si ses recettes n’auraient aucune chance de relancer la recherche française, que son souci de recruter les meilleurs en priorité est louable. Mais force est de constater, tant son texte est parsemé d’approximations voire d’inexactitudes, qu’il n’a qu’une idée fort imprécise des méthodes de recrutement des organismes de recherche français, notamment celles qu’applique l’Institut de recherche pour le développement (IRD).


Didier Raoult rapporte par exemple avoir « présenté un candidat » ... Les candidats, naturellement, se présentent tout seuls, d’abord devant un jury dit « d’admissibilité », qui les auditionne et, s’il les juge aptes à occuper le poste, transmet leurs dossiers à un second jury, dit « d’admission », qui décide in fine. Ces deux jurys qui agissent successivement, sont différents, indépendants et constitués d’au moins 50 % d’experts extérieurs à l’établissement recruteur. Cette situation rend très difficile, voire impossible, le lobbying que redoute, à bon droit, D. Raoult.


Aucune de ces commissions n’a, non plus, le droit de révéler la teneur des débats ayant eu lieu lors d’un concours. Il est donc impossible, contrairement à ce qu’affirme Didier Raoult, qu’une commission ou qu’un jury d’experts se soit expliqué sur les raisons de son choix lors d’un recrutement.


Quant à la bibliométrie, présentée par D. Raoult comme la solution miracle, elle ne saurait, même si l’activité de publication est consubstantielle au métier de chercheur, constituer l’alpha et l’oméga de l’évaluation. Le contexte du travail, les prises de risques, l’originalité des recherches, les activités d’encadrement, de formation, d’enseignement, l’animation d’équipe, la recherche de financements, les prises de responsabilités administratives dans les unités de recherche, doivent être aussi appréciés. C’est bien sûr le cas à l’IRD, où en particulier les chercheurs, devant se consacrer à des recherches en partenariat avec le sud, voient leur mérite jaugé autant d’après leurs qualités scientifiques intrinsèques que selon l’intérêt de leur programme de recherche pour le sud et selon leur aptitude à travailler en expatriation. On est loin de l’addition pure et simple de quelques données chiffrées !


Last but not least, utiliser des indices bibliométriques pour l’évaluation des chercheurs suppose qu’on ait établi la corrélation de ces indices aux qualités qu’on prétend mesurer. Que mesure-t-on exactement lorsqu’on compte un nombre de citations ? On s’en soucie si rarement que F. Laloë et R. Mosseri ont pu pertinemment écrire « qu’actuellement, leur utilisation relève plus de la pseudo-science, comme l’astrologie, que d’une démarche scientifique »†.


Heureusement en France, à l’IRD comme dans les autres organismes de recherche et les universités, les jurys ont bien conscience de ce problème et savent mener des évaluations beaucoup plus subtiles que celles qui consistent à ranger des chiffres dans des tableaux. J’en veux pour preuve l’étude de P. Jensen et al. (2009)‡ qui a montré que les indices couramment utilisés en bibliométrie ne sont pas de bons prédicteurs des promotions au CNRS ! Didier Raoult y verra peut être du lobbying, voire de la corruption ... Pour mon compte j’y vois surtout du discernement.


L’évaluation bibliométrique des chercheurs : même pas juste… même pas fausse, Franck Laloë (laloe@lkb.ens.fr) et Rémy Mosseri, Reflets de la physique, 13 (2009) 23.
Testing bibliometric indicators by their prediction of scientists promotions, P. Jensen, J.-B. Rouquier and Y. Croissant, Scientometrics, 78 (2009) 467.

PDF - 366.9 ko
SNCS-Hedbo 16 n°6 version PDF

Annonces

Comment nous contacter

  PNG - 1.5 ko   PNG - 1.2 ko