Academia.eduAcademia.edu

Eval en SHS Baslé version courte mars 2013

Emiettement et besoin de pluralisme dans l’activité d’’EVALUATION EN SCIENCES SOCIALES. Où sont les principes a minima ? Maurice Baslé Mars 2013. Une réflexion sur les piliers du développement durable devrait faire apparaitre le quatrième pilier, le développement des cultures. Si les cultures et les sciences sociales sont utiles, il reste à justifier un peu plus précisément que par une rhétorique générale, ses fins et sa logique de moyens nécessaires. Les coûts sont à peu près appréciables par des méthodes de contrôle de gestion. Par contre, il ne s’agit pas de considérer ici des rendements faciles à estimer, les « résultats » ou l’impact de la recherche en SHS sont difficilement monétarisables. Au total, l’évaluation de la recherche en sciences sociales est donc un domaine où l’on rencontre toutes les controverses habituelles sur l’évaluation (évaluation des institutions ou autres) et sur l’évaluation des politiques publiques, des programmes publics, des services collectifs publics et des services publics rendus par des individus fournisseurs. Le domaine de l’évaluation de la recherche est donc controversé et il l’est d’autant plus qu’il s’agit de la recherche, de l’effort de recherche, de résultat de la recherche dans les sciences sociales (même si toutes les sciences sont « sociales », la spécificité du domaine restreint par exemple de la sono-économie n’a échappé à personne depuis au moins trois siècles !). La référence est presque uniquement ici faite au cas français même si ce sont les communautés internationales des chercheurs qui sont confrontées aux « filtres » des évaluations1. Sans souci d’exhaustivité, après avoir rappelé quelques généralités pour ce domaine controversé, l’article présente les questions vraiment urgentes dans le cas de la France. 1) Généralités sur les biais et controverses dans les évaluations de la recherche en sciences sociales. Biais communs à toutes les sciences. Biais plus spécifiques aux SHS. - 1 Controverses générales sur l’évaluation de la recherche. Recherche fondamentale sans temporalité figée. Recherche sans finalité prévisible (comme innovation). Recherche avec des actions de recherche mais sans résultat. Résultats et impact comme bien commun. Voir par exemple aux pays bas, Netherland organisation for scientific research (2009). Standard evaluation protocol 2009-2015. Protocol for research assessment in the Netherlands. VSNU, KNAW and N WO Académie des sciences et AERES. - Controverses sur les « peer reviews », la démarche « scientométrique » et les biais des éditeurs scientifiques, des citations et des indices d’impact. Peer reviews et chercheurs concurrents. Mauvais referees. Stratégies éditoriales des revues, biais de prestige. Flou dans les plateformes de science ouverte. Biais de genre, de langue. Auto-citations et citations dans les journaux « amis ». - Evaluation des grands équipements. Méthodes standards de calcul « avantagescoûts ». Possibilités de classements des options concurrentes. Valorisation pas impossible des retombées. - Problèmes d’évaluation des chercheurs et des équipes en SHS. En SHS, peu d’inputs, des outputs surtout textuels, des résultats problématiques. Distinction plus compliquée entre Evaluation individuelle et travail en équipe. Difficulté à enlever la part des Stratégies individuelles de prédation des ressources de laboratoires. Ressources du laboratoire et productivité individuelle du chercheur. - Evaluations des établissements ambidextres avec composantes recherche. Evaluation des Universités comprenant des SHS. Faut-il les considérer comme un tout ? Comme servant des objectifs plutôt indépendants ou même contradictoires ? Evaluation des enseignants-chercheurs par des enseignants-chercheurs ou par des experts externes. - Rédactions des Standards et référentiels. Question des hautes autorités. Question des agences indépendantes. Déontologie, respect des règles. Conflits d’intérêt, transparence. - Charte de l’évaluateur scientifique. Déclaration de Singapour et adoption par le comité d’éthique du CNRS. Compétence, impartialité, confidentialité, « redevabilité » (« accountability ») des argumentations. Responsabilité dans l’utilisation des résultats de l’évaluation. Adaptabilité complète ou pas aux SHS ? 2) Les éléments de consensus faible en SHS. La construction d’une stratégie d’évaluation repose sur l’évaluabilité » de la recherche en sciences sociales. Cette évaluabilité existera lorsque trois conditions seront réunies : la convention autour des objectifs et des priorités d’objectifs de la recherche (convention d’arborescence des objectifs) ; la convention autour des parties prenantes (sociogramme des acteurs, choix des instances d’évaluation, sélection des agents de renseignements) ; les conventions décrivant la logique de l’action de recherche (chaines de valeur ayant du sens depuis les intentions d’actions, les efforts (« inputs »), les réalisations (« outputs ») jusqu’aux résultats (« outcomes ») et à l’impact sociétal (« impact »)) 2. La connaissance de l’organisation du milieu de la recherche est évidemment un préalable3. Concernant les conventions d’objectifs, il faut les regarder comme gouvernées à plusieurs niveaux : européen, national, régional et établissement. Les objectifs considérés ne sont pas seulement les résultats scientifiques ou l’impact sociétal. Des objectifs de performance, d’efficience sont également posés. La spécificité du domaine des SHS est ici l’importance de l’activité individuelle de recherche. Le chercheur individuel échappe au contrôle de gestion. Concernant les sociogrammes des acteurs, la question reste compliquée : les instances sont multiples avec des protocoles pas toujours officiels et affichés (OPECST, CSRT, conseil national de la science, comité national du développement des sciences humaines en 1998, conseil de coordination des SHS en 2001, « advisory board » pour les SHS à la commission européenne pour chaque PCRD, CNE en 1994, CNESER depuis 1985, MST depuis 1994, MSU puis MSTP depuis 2 Comité National d’ Evaluation de la recherche (2006). Pour une meilleure évaluation de la recherche publique en SHS. Tome 2. Linda HANTRAIS. La documentation française. 352 pages. 3 Le CNRS distinguait, en 2006, 11 sections tandis que le CNU en comptait 30. 2003, CNU, AERES, ANR.)4. On pourrait aussi réfléchir sérieusement au couplage de l’auto-évaluation et de l’évaluation externe.5 Le résultat et l’impact en sciences sociales sont généralement non mesurables. Le sous-objectif à atteindre est alors seulement la gestion de la carrière par les conseils scientifiques locaux ou nationaux (CNU, jurys de concours). La caractéristique commune qui semble faire consensus a minima est cependant le « consentement » d’universitaires pour évaluer plus ou moins bénévolement les travaux des collègues. Les organismes de recherche ont poussé plus loin la réflexion sur les instances d’évaluation (conseils scientifiques des départements du CNRS)6 avec des mécanismes électoraux à faible participation et le principe du contradictoire7. 3. Moins d’émiettement mais du pluralisme . CNRS, AERES, CNU, MSTP, ANR, Comités de programmes spécifiques, comités de lecture, instances internes, instances externes aux Universités, chaque angle d’attaque est un regard d’ « autrui » sur le travail du chercheur. On pourrait demander a minima le respect de la charte de la société française d’évaluation, avec application au secteur de la recherche en SHS8. Plus précisément, en SHS, il importerait de souscrire aux principes de pluralité, fiabilité, objectivité, transparence, utilité ou pertinence au sens large de l’apport aux cultures dans une vision de développement durable. Pluralité. 4 Sur les faiblesses de ces démarches, voir jean-Luc Gaffard. « Il arrive certes que la MSTP parvienne à obtenir qu’il soit effectivement tenu compte de son travail d’expertise et d’évaluation, mais cela résulte avant tout de l’opiniâtreté et de l’autorité scientifique de ses membres. D’une manière générale, la multiplicité des échelons et l’opacité qui en résulte ne peuvent que favoriser des comportements opportunistes jouant sur les défauts d’information. La conséquence de cette organisation de l’évaluation est triple. Il existe une forte inertie des décisions qui tendent à reproduire l’existant en termes de reconnaissance et de financement modulo des changements ponctuels qui peuvent être le fruit d’interventions parallèles (en dehors des règles) auprès des instances d’évaluation ou de décision correspondant à des réseaux politiques, corporatistes, voire simplement personnels. Il arrive, en effet, que des écarts de dotation injustifiés apparaissent qui traduisent ce type d’interventions. Il est certes possible de les corriger, mais ce ne peut être que de manière brutale et souvent conflictuelle compte tenu du rythme quadriennal des contrats. L’inertie qui prévaut généralement conforte la formation et la pérennité de rentes de situation, petites ou grandes, dont bénéficient des laboratoires ou des unités de formation dont le résultat est une allocation inefficace des ressources financières et humaines. Finalement, l’évaluation est sans conséquences, positives ou négatives, pour les évalués ». Rap. CAE 66 Ref. de l'Etat.pmd 81 15/05/2007, 12:358 2 CONSEIL D’ANALYSE ÉCONOMIQUE 5 Voir par exemple, AERES. http://www.aeres-evaluation.fr/Evaluation/Evaluation-desetablissements/Principes-d-evaluation : l’autoévaluation et l’évaluation externe intégrée 6 Pour les SHS, voir rapport GRUNBERG. 2003. Document interne au CNRS Voir les cas spécifiques de l’INED ou du CEMAGREF ou de l’INRA ou des EPA 8 Les principes SFE sont : Pluralité. Distanciation. Compétence. Respect des personnes. Transparence. Opportunité. Responsabilité. Voir aussi AERES : http://www.aeres-evaluation.fr/Agence/Organisation/Experts-de-l-AERES 7 Vu l’état nécessairement controversé de la connaissance en sciences sociales, la pluralité des points de vue est nécessaire. Ce qui est probablement le plus en cause est l’émiettement des démarches, l’absence de bases de connaissances, de documents ouverts sur l’activité de recherche tant en inputs qu’en outputs ou en outcomes, et l’impression de double ou triple ou quadruple saisie qui en résulte dès qu’un chercheur a à présenter ses références et son projet de recherche ou de publication. Des documents pro-format sont en cours de constitution9. D’une manière générale, il importerait de se référer, pour l’analyse de ces documents moins éparpillés et plus utilisables, aux grands principes des évaluations. C'est par rapport aux trois dimensions (dimensions cognitive, normative et instrumentale) que doit être appréciée la qualité d'une évaluation. Fiabilité : l'évaluation doit être "digne de confiance" (« trustworthiness »). Cela renvoie à l'exactitude des informations collectées et à la valeur scientifique des imputations causales sur lesquelles se fonde le jugement évaluatif. Il convient en particulier d'être attentif aux biais que les techniques de collecte et de traitement des informations peuvent introduire dans la production des conclusions. Objectivité : l'objectivité s'entend comme le fait que les conclusions de l'évaluation n'ont pas été influencées par les préférences personnelles ou les positions institutionnelles des responsables de l'évaluation (évaluateurs experts ou membres de l'instance), ou du moins que ces préférences ont été suffisamment explicitées ou contrôlées pour que l'on puisse supposer qu'une autre évaluation répondant aux mêmes questions et utilisant les mêmes méthodes conduirait aux mêmes conclusions. Il s'agit notamment d'apprécier la rigueur et l'honnêteté du travail de qualification et d'interprétation des données qui permet de passer de l'observation au jugement. Transparence : outre l'exigence d'un exposé complet et rigoureux des méthodes mises en œuvre, ce critère inclut l'idée que l'évaluation doit expliciter son propre "mode d'emploi" et ses limites : positionnement par rapport à d'autres évaluations possibles sur le même sujet, rappel des questions auxquelles il n'est pas ou incomplètement répondu, anticipation des objections possibles, etc . Cet effort de lucidité et de réflexivité est d'autant plus nécessaire que les évaluations sont généralement imparfaites, qu'elles laissent de nombreuses 9 Ceci est une condition sine qua non. Dans un autre domaine, l’évaluation de l’aide au développement, les engagements de Busan prévoient un signal de respect mutuel : « Depuis quelques années, les demandes de meilleures informations sur les résultats se multiplient, dans un souci d’évaluation plus précise de l’impact de la coopération pour le développement et de ses impacts sur la croissance inclusive et sur la lutte contre la pauvreté. Des éléments anecdotiques montrent que cette situation génère une demande de données telle que les systèmes statistiques nationaux ne sont plus en mesure de la satisfaire. Cela débouche sur de nombreux exemples de par le monde où la collecte de données ad hoc se passe des systèmes nationaux et affaiblit ainsi les capacités nationales, ce qui suscite des interrogations sur la qualité et l’intégrité des données ». http://www.afd.fr/home/AFD/L-AFD-s-engage/efficacite-aide/mise-en-oeuvre/forum-de-busan questions dans l'ombre, et que les résultats auxquels elles parviennent n'ont pas tous la même portée ni la même robustesse. Utilité-pertinence : c'est le fait que l'évaluation produise de l'information compréhensible et utile pour la recherche évaluée, non seulement pour les chercheurs mais aussi pour les autres protagonistes de la politique de recherche. Les réflexions produites par l'évaluation peuvent en effet contribuer de manière diffuse à former le jugement de l'opinion publique sur la recherche évaluée et à son information sur les problèmes de société. La réforme en cours ne saurait se dispenser du respect de tous ces principes. La culture de l’évaluation devrait pouvoir se diffuser largement sans engendrer l’image ou l’effet bureaucratique déresponsabilisant, sans consommer non plus trop d’énergie en temps d’analyse, réunions d’instances, rédactions de rapports. L’évaluation de la recherche en Sciences sociales devrait donc être le produit d’une volonté et d’une activité principalement orientées vers la livraison de connaissances potentiellement utilisables et utiles tant aux financeurs qu’aux managers et à toutes les parties prenantes des politiques publiques de la recherche et des programmes (autres scientifiques, bénéficiaires, citoyens, co-financeurs), bref à tous ceux qui se questionnent à propos de la valeur publique ajoutée par ces politiques et ces programmes de recherche 10. Bibliographie - - 10 AERES. Charte de l’évaluation. Principes de Compétence, professionnalisme, d’impartialité (équité de traitement, indépendance, intégrité des experts, collégialité, prise en compte de la diversité, respect de l’autonomie, transparence et publicité, confidentialité). En 2010, l'AERES est entrée dans un processus d'évaluation externe mené par des pairs et a obtenu le renouvellement de son adhésion comme membre de plein droit de l'ENQA (European Association for Quality Assurance in Higher Education). Elle a également été évaluée, en 2011, pour son inscription à l'EQAR (European Quality Assurance Register for Higher Education), lui permettant d'asseoir sa crédibilité à l'étranger http://www.aeres-evaluation.fr/Agence/Organisation/Experts-de-l-AERES Comité National d’ Evaluation de la recherche (2006). Pour une meilleure évaluation de la recherche publique en SHS. Tome 2. Linda HANTRAIS. La documentation française. 352 pages. Baslé, M. (2010). Connaissance et action territoriale. Editions Économica. Paris. - Netherland organisation for scientific research (2009). Standard evaluation protocol 2009-2015. Protocol for research assessment in the Netherlands. VSNU, KNAW and N WO. - Evaluation : practical guidelines. A guide for evaluating public engagement activities research councils UK. - Gaffard, J.L. 2007. L’évaluation de l’enseignement supérieur et de la recherche : un éclairage à partir du cas d’école de la réforme des études de licence, master et doctorat », in Performance, incitations et gestion publique, Rapport du CAE 66, D. Bureau et M. Mougeot. - Reid, A, cough, S. (2000). Guidelines for reporting and evaluating qualitative research : what are the alternatives. Environmental education research vol. 6 n°1. - Société française de l’évaluation. Charte de l’évaluation des politiques publiques et des programmes. Site internet : www.sfe.asso.fr