Un document historique (et introuvable) : Arvanitis, Callon et Latour (1986). Evaluation des politiques publiques de la recherche et de la technologie

Il s’agit du rapport :

Arvanitis, R., Callon, M. et Latour, B. (1986). Evaluation des politiques publiques de la recherche et de la technologie. Analyse des programmes nationaux de la recherche., Paris : La Documentation Française.

Ce rapport est aussi celui qui proposait, officiellement, la création de l’Observatoire des Sciences et des Techniques

Cette idée trainait depuis longtemps, plus précisemment depuis l’élection de Mitterand en 1981.

J’avais eu l’occasion, grâce à mon premier boulot, de rencontrer le directeur de la « science indicators unit », Bob Wright, un homme extraordinaire qui m’a reçu longtemps et m’a expliqué dans le détail ce qu’il faisait. C’était le seul endroit, à l‘époque, où s’élaboraient les statistiques et indicateurs sur la R&D aux USA. C’est ce même Bob Wright, par exemple, qui commanditait les travaux de Francis Narin et Mark Carpenter qui furent des pionniers d’une bibliométrie intelligente. J’ai rapporté tout ça dans un rapport en rédigé en 1983 (dispo sur le site Horizon pleins textes de l’IRD). [1] qui m’avait été demandé par Philippe Roqueplo pour le Centre de Prospective et d’Evaluation. Dans ce centre, créé à et dirigé par Thierry Gaudin, Philippe Roqueplo dirigeait la partie « évaluation » et c’est sur ce thème qu’il m’a offert mon premier travail, ma première mission aux USA et l’occasion d’une première réflexion autonome sur « évaluations et indicateurs ». J’avais obtenu le job grâce à une recommandation de Michel Callon (c’était l’époque où Bruno venait juste de passer au CSI et j’avais naturellement suivi le maître !).

INtellectuellement le lien entre indicateurs et évaluation provenait des discussions sur la bibliométrie, notre découverte collective au début des années quatre-vingt des travaux de Solla Price. Cela ne concernait pas uniquement la France, comme en témoigne l’ouvrage de Elkana et autres [2] En fait, ce thème a été celui où se réfugièrent les mertoniens assiégés par les nouveaux sociologues des sciences !

Finalement le rapport de 86, publié alors que j’avais changé de travail et surtout de pays (j’étais au Vénézuéla alors) a été utilisé par Hubert Curien pour décider de la création de l’OST.

Cette petite histoire ne dit pas tout. Michel Callon a été aussi un directeur très généreux car, alors que je n’étais qu’un jeune chercheur, à peine sorti de l’université et sans autre bagage sociologique que la petite enquête menée aux Etats-Unis, il a voulu que je figure comme auteur de ce rapport avec Bruno Latour et lui-même. Il est vrai que je participais au projet et à ce titre j’avais effectué un grand nombre d’interviews et je participais aux discussions que nous avions au Centre de Sociologie de l’innovation. Bruno avait fini la rédaction de « Science in Action » dont le manuscrit avait circulé dans nos séances de discussion au CSI. Michel avait obtenu ce contrat sur la programmation de la recherche qui comportait trois volets : l’analyse de la programmation de la recherche, à proprement parler, les indicateurs pour piloter la recherche (qui sont une des annexes du rapport) et les relations entre recherche et production (je ne me souviens pas de la terminologie exacte mais on parlait souvent des « mobilités » ). A cette occasion, dans le cadre du projet on s’était partagé la tâche empirique : Michel interrogeait les gens du ministère et des programmes nationaux, avec Bruno lequel réflechissait sur la dynamique de la programmation et je faisais les interviews sur les « mobilités » recherche-industrie et élaborait la liste des indicateurs. Nous avions aussi décidé de proposer une « Science indicators unit » à la française, en nous fondant sur mon rapport de 1983. Après les interviews et nos séances de travail (assez amusantes), et après quelques matinées de travail, Michel est venu au CSI avce le manuscrit fini !

Le rapport a été ensuite légèrement amélioré, Bruno y a ajouté les graphiques rigolos qui illustraient le « mouvement tourbillonaire » de la programmation de la recherche, bon compris entre la vision dynamique de « Science in action » et les schémas rigides des managers, graphiques issus directement du Macintosh de Bruno. Surtout, ça nous permettait de dire que la dérive par rapport aux objectifs inititaux des programmes de recherche était une nécessité et qu’elle devait être gérée comme telle par les porgramme.

La programmation n’obéit pas à une logique linéaire (fig. 1) mais a une logique « tourbillonnaire » (fig. 2) qui permet d’introduire et de gérer des dérives. En un mot elle est un processus itératif.
Comme le montre la figure 2, une fois les premières opérations lancées, une nouvelle boucle doit être rapidement amorcée qui remet en chantier l’analyse stratégique, la définition des buts et des objectifs. Chaque boucle nouvelle rend possible l’adaptation au contexte et permet aux responsables du programme de gérer et de maîtriser une dérive librement consentie.

[1Arvanitis, R. (1983). L’évaluation de la recherche aux Etats-Unis et l’utilisation de mesures quantitatives de la science (Rapport de recherche pour le Centre de Prospective et d’Evaluation (CPE), Ministère de l’Industrie et de la Recherche). Paris : Centre de Sociologie de l’Innovation, Ecole des Mines de Paris.http://horizon.documentation.ird.fr/exl-doc/pleins_textes/pleins_textes_7/divers2/22757.pdf (voir en particulier le chapitre 5)

[2Elkana, Y., Lederberg, J., Merton, R. K., Thackray, A. et Zuckerman, H. (Eds.). (1977). Toward a metric of science : The advent of science indicators. New York : John Wiley and Sons.

Posté le 22 janvier 2015