Les membres de l’Afas publient régulièrement des articles. Ils sont à retrouver ici :
Jeanne Brugère-Picoux
Professeur honoraire de pathologie médicale du bétail et des animaux de basse-cour (Ecole nationale vétérinaire d’Alfort), membre de l’Académie nationale de médecine, ancienne présidente de l’Académie vétérinaire de France
Le 5 avril 2016, l’Institut vétérinaire norvégien (Norwegian Veterinary Institute) d’Oslo a confirmé le diagnostic d’une maladie du dépérissement chronique (MDC) chez un renne (Rangifer tarandus tarandus)[1]. Il s’agissait d’une femelle adulte observée dans un parc dans le sud de la Norvège et ayant présenté un amaigrissement. A sa mort, son encéphale a été prélevé, conformément au plan de surveillance national de la MDC chez les cervidés âgés de plus de 18 mois. La maladie a été confirmée par des examens biochimiques et histo-chimiques. Il s’agit du premier cas déclaré de MDC en Europe.
En effet, la maladie du dépérissement chronique est une encéphalopathie spongiforme transmissible (EST) qui n’est rencontré qu’en Amérique du Nord (à l’exception d’un cas importé du Canada en Corée du Sud) chez certaines espèces de cervidés : Cerf hémione ou Cerf mulet (Odocoileus hemionus), cerf de Virginie (Odocoileus virginianus), Wapiti des montagnes Rocheuses (Cervus elaphus nelsoni) et Orignal ou Elan d’Amérique (Alces alces shirasi). Cette affection est rencontrée chez des espèces sauvages élevés en liberté ou dans des fermes d’élevage.
L’Europe s’était inquiétée dès le début des années deux mille du risque de MDC chez les cervidés européens et j’avais participé au premier rapport d’expertise sur ce sujet[2]. Dès 2004, l’EFSA (European Food Safety Authority) a mis en place un plan de surveillance européen pour cette maladie. Les résultats[3] des enquêtes réalisées entre 2006 et 2010 en Europe ont démontré la difficulté de déceler cette affection dans une population animale surtout sauvage avec seulement 13 000 prélèvements effectués, les résultats négatifs obtenus ne permettant pas d’exclure son existence sous une forme sporadique.
Contrairement à l’Europe, l’Amérique du Nord est particulièrement inquiète de la présence de la MDC sur son territoire du fait de son caractère endémique. Celle-ci a été décrite pour la première fois en 1967 dans le Colorado, puis identifiée en tant que maladie à prion en 1978. Au début, la MDC semblait localisée uniquement dans les Etats du Colorado et du Wyoming. La mise en place d’une surveillance nationale a permis de découvrir que la maladie était plus fréquente qu’on ne le pensait : 20 Etats sont actuellement touchés aux Etats-Unis (ainsi que deux provinces au Canada). Par ailleurs, la surveillance réalisée entre 1996 et 1999 avec l’aide des chasseurs permet d’estimer un taux d’incidence dans le Colorado et le Wyoming de 5% chez le Cerf mulet, 2% chez le Cerf de Virginie et de <1% chez le Wapiti des montagnes Rocheuses[4].
Les aspects cliniques de la MRC sont souvent discrets, un amaigrissement progressif étant le principal signe clinique. Les autres symptômes pouvant être signalés sont une apathie, une agressivité, une sialorrhée, des grincements de dents et une polyurie, l’évolution de la maladie durant environ quatre mois. Comme dans le cas de la tremblante, on a pu observer que dans les troupeaux atteints, le taux d’incidence de la MDC dans les cohortes augmentait alors qu’inversement, l’âge des animaux au moment de la mort déclinait, montrant ainsi l’adaptation progressive du prion à la génétique de l’hôte, avec une diminution du temps d’incubation de la maladie dans l’élevage atteint.
La forte prévalence de la maladie dans les élevages en captivité ou dans les parcs a justifié de nombreuses études sur la MDC pour comprendre les modes de transmission. Il s’avère que la répartition de l’agent infectieux dans l’organisme des cervidés est comparable à celle observée dans la tremblante du mouton. La présence du prion dans la salive, dans l’urine et dans les fèces des cervidés atteints a permis de suspecter une transmission horizontale par contact direct ou du fait d’une contamination de l’environnement (sol ? plantes ?). Ceci n’est pas sans rappeler «les champs à tremblante» permettant d’expliquer la pérennisation de cette maladie chez le mouton. Une transmission maternelle est également fortement suspectée, ce qui n’est guère étonnant puisque nous avons eu l’occasion, avec l’équipe de notre confrère Claude Couquet à Limoges, de démontrer cette possibilité chez une brebis née d’une mère atteinte de tremblante naturelle il y a plus d’une dizaine d’années.
En Amérique du Nord, l’éradication de la MDC est impossible. Si le risque zoonotique lié à la MDC semble très faible (mais des recommandations sont faites aux chasseurs), l’extension de la maladie chez les cervidés en Amérique du Nord reste inquiétante. Seules des mesures peuvent être préconisées pour diminuer le taux d’incidence de la maladie. Elles reposent sur une diminution de la densité animale chez les cervidés, notamment en éliminant les mâles, plus souvent infectés que les femelles.
En ce qui concerne l’Europe, il importe de comparer la souche du prion norvégien avec les souches américaines de MDC. Enfin, la découverte d’un seul cas malgré la mise en place dans certains pays européens depuis plus de 10 ans d’un système de surveillance, démontre l’aspect sporadique de cette affection au même titre que l’ESB, qu’il s’agisse de la souche classique ou des souches atypiques.
Alain Delacroix
Ancien professeur titulaire de la chaire "Chimie industrielle - Génie des procédés" du Conservatoire national des arts et métiers
Une explosion est le résultat d’une réaction physicochimique dont la vitesse est très élevée et qui génère une importante quantité d’énergie dans un temps très court. La brusque montée de pression correspondante crée une onde de choc dont la vitesse est un indicateur de sa puissance de destruction. Si cette vitesse est inférieure à la vitesse du son, c’est une déflagration, si elle est supérieure, c’est une détonation et dans ce cas, les effets brisants sont très importants. Les explosifs militaires ont une vitesse de détonation qui peut être supérieure à 9000 m/s. Un explosif est alors une molécule ou un ensemble de molécules qui libèrent une grande quantité de gaz en un temps très court.
De très nombreux produits peuvent exploser. On distingue ceux qui sont occasionnels, tel le nitrate d’ammonium, et ceux qui sont intentionnels, les explosifs civils (mines, travaux publics) et militaires. Il existe des dizaines de groupes explosophores dont la présence dans une molécule peut conduire à la rendre explosive, par exemple NO2, -O-O-, etc. Des méthodes existent permettant de prévoir et de calculer la dangerosité d’une molécule.
La poudre noire était connue des Chinois depuis le début de l’ère chrétienne mais c’est au XIVe siècle que commence son utilisation balistique. C’est un mélange de nitrate de potassium KNO3, de soufre et de carbone. En réagissant, ce mélange fournit une grande quantité de gaz selon la réaction :
2 KNO3 + S + C -> K2S + 3CO2 + N2
En dehors du soufre et du charbon trouvés à l’état naturel, le nitrate, appelé salpêtre, était recherché jusqu’au XVIIIe siècle au fond des étables puisqu’il constitue les efflorescences caractéristiques sur les pierres calcaires humides. Le mélange, difficile à réaliser, était obtenu par un broyage très fin dans des moulins situés dans les poudreries. Ceux-ci explosaient souvent et le poudrier devait marcher avec des chaussons de cuir et sans cogner le sol. C’était le célèbre pas du poudrier ! (le pétardier, qui faisait sauter les portes des forteresses au XVIe siècle, avait, lui aussi, une durée de vie fort limitée). En 1794, un stock de 1000 tonnes de poudre a explosé au château de Grenelle faisant des centaines de morts. On en a déduit à l’époque qu’il fallait éloigner les poudreries des villes. La poudrerie de Grenelle est alors transférée à Meudon !
Compte tenu de l’instabilité de la poudre noire, les chimistes ont commencé, dès le XVIIIe siècle, à chercher des produits plus sûrs. Berthollet, avec du sucre et du chlorate de potassium, a inventé les cheddites. En 1846, Bottger et Schonbein fabriquent la nitrocellulose (coton poudre), stabilisée plus tard par Paul Vieille. La même année, Sobrero découvre les propriétés du nitrate de glycérol, d’où la nitroglycérine stabilisée par Alfred Nobel, ce qui a conduit à la dynamite.
A la fin du XIXe siècle et pendant la guerre de 14-18, compte tenu des quantités énormes impliquées, on a développé une industrie chimique lourde. En France, on a utilisé l’acide picrique et en Allemagne, le trinitrotoluène (TNT). Ces deux produits ont les formules simples suivantes :


Entre les deux guerres, on a découvert l’hexogène et la pentrite, produits qui commencent à avoir des formules sophistiquées et sont difficiles à fabriquer. L’hexogène a une vitesse de détonation de 8700 m/s. Un explosif moderne est maintenant l’association de groupes oxydants tels que NO2 avec un squelette carboné instable associé à une structure solide complexe.
Cependant, de très nombreuses molécules ou mélanges peuvent exploser et sont faciles à produire. Il suffit souvent de mélanger un produit très oxydant : nitrate, perchlorate, eau oxygénée, avec un produit réducteur : soufre, sucre, hydrocarbure, acétone, etc. Un explosif bien connu est un mélange de fioul et de nitrate d’ammonium.
Quant au TATP, de sinistre réputation, c’est un peroxyde, le triacétone triperoxyde, découvert en 1895 par Richard Wolffenstein. Il se prépare à partie d’acétone et d’eau oxygénée en milieu acide. C’est un solide blanc dont la vitesse de détonation est de l’ordre de 5000 m/s. Ses matières premières étant très accessibles et sa préparation étant relativement facile par un chimiste, il est maintenant souvent utilisé par les terroristes. Sa formule développée sous la forme trimère est la suivante :

Il existe donc de très nombreuses molécules ou mélanges de produits susceptibles de conduire à des explosions occasionnelles ou intentionnelles. Même un kilogramme de farine pulvérisé dans l’air et enflammé peut donner une forte déflagration. Des personnes mal intentionnées et pas forcément bonnes chimistes disposent donc malheureusement d’un large éventail de méthodes et produits pour perpétrer leurs forfaits.
Jean Audouze
Astrophysicien, directeur de recherche émérite au CNRS
Le 4 juillet 2012, le CERN de Genève annonçait la mise en évidence expérimentale, grâce à son Large Hadron Collider (LHC), du fameux boson de Higgs, la particule élémentaire qui confère leur masse aux autres, dont l’existence, imaginée en 1954 par Robert Brout (1928-2011), François Englert et Peter Higgs (les deux derniers furent lauréats du prix Nobel de physique 2013), vient donc compléter le tableau «standard» des particules. Pour les physiciens de toutes nationalités travaillant dans ce domaine, cette annonce était considérable et justifiait a posteriori les efforts budgétaires, technologiques et intellectuels ayant permis cette découverte.
Environ trois ans et demi après, à savoir le 11 février 2016[1], se tint au siège de la National Science Foundation (NSF) à Washington une conférence de presse suivie par le monde entier, annonçant la première mise évidence expérimentale par l’observatoire américain à ondes gravitationnelles LIGO (décrit plus loin) d’une forte émission de telles ondes (fig. 1).
Le phénomène responsable de la production de ces ondes est la coalescence de deux trous noirs stellaires de masses respectives de 29 et 36 masses solaires en un seul objet, également un trou noir de 62 masses solaires – les 3 masses solaires de différence ayant été dissipées sous forme d’énergie véhiculée par les ondes gravitationnelles ainsi détectées. La distance par rapport à nous de ce phénomène grandiose a été évaluée à 1,2 milliards d’années-lumière ; on ne connaît pas précisément la direction dudit phénomène car deux antennes sont insuffisantes pour accomplir la triangulation appropriée. Les astrophysiciens qui procédèrent à ces détections seront en meilleure situation quand l’instrument européen VIRGO, qui est situé à côté de Pise en Italie et qui est de taille comparable (3 km pour VIRGO et 4 km pour les antennes de LIGO), sera lui aussi en opération, ce qui est prévu pour la fin de cette année.
L’émission de telles ondes gravitationnelles correspond à une brusque mais infinitésimale oscillation de l’espace induite par le mouvement de grandes masses telles que celles de trous noirs dits massifs (quelques dizaines de masses solaires) ou supermassifs[2] (quelques millions voire quelques milliards de masses solaires) ou encore celles des étoiles à neutrons encore appelées pulsars. La théorie de la relativité générale d’Einstein établie il y a cent ans, qui relie la géométrie de l’espace-temps à la gravité induite par le contenu matériel de l’Univers prédit de telles émissions.
Mais Einstein croyait que leur caractère particulièrement ténu[3] empêcherait que l’on puisse les détecter un jour ! Pour comprendre la raison du caractère infime de ces ondes, il faut se souvenir que l’intensité relative de l’interaction gravitationnelle par rapport à celle de l’électromagnétisme est dans un rapport 1 / 1 suivi de 35 zéros. L’impression de leur apparente égalité vient du fait que la force électromagnétique s’exerce entre des éléments pouvant porter des charges électriques (ou magnétiques) positives (ou négatives) alors qu’il n’y a pas d’antigravité et donc que cette force gravitationnelle n’est pas «écrantée» comme peut l’être l’électromagnétisme.
Si la détection de cette émission d’ondes gravitationnelles par des instruments dédiés au sol constitue une découverte d’une importance considérable, il convient de rappeler que les astrophysiciens Russel A. Hulse et Joseph H. Taylor (tous les deux récipiendaires du prix Nobel de physique 1993) ayant découvert en 1974 le système binaire de pulsars PSR B1913+16 avaient mesuré alors leur ralentissement et interprété également ce phénomène en termes d’émission de telles ondes.
L’annonce de février 2016 concernait un événement dont la détection eut lieu le 14 septembre 2015 grâce aux instruments de LIGO (pour Laser Interferometer Gravitational Wave Observatory), quelques jours après sa remise en service effective ayant eu lieu après une amélioration de sa sensibilité qui s’était étalée sur plusieurs années. Cet observatoire LIGO, d’un genre très particulier, est constitué de deux interféromètres optiques de 4 km de long chacun situés à 3000 km de distance l’un de l’autre : une station est localisée à Hanford dans l’Etat de Washington et l’autre fut construite à Livingstone en Louisiane. Il s’agit dans les deux cas d’interféromètres Michelson, dont le schéma optique est reproduit figure 2.
Le 14 septembre donc, un signal (reproduit figure 1) qui dura 0,3 secondes fut d’abord détecté par l’antenne de Livingstone puis 7 millisecondes après, un signal de forme strictement identique fut repéré par celle de Hanford. La différence entre ce délai de 7 millisecondes et les 10 millisecondes que mettrait un signal lumineux pour aller de Livingstone à Hanford permet de déterminer la distance à laquelle se trouve le phénomène émetteur. Comme les astrophysiciens travaillant à se convaincre que ce signal correspond bien à l’émission d’ondes gravitationnelles étaient «échaudés» par une annonce du même type proclamée un peu à tort à partir d’observations de la polarisation du rayonnement diffus cosmologique (le fameux rayonnement à 2,7 K) effectuées à l’aide du télescope BICEP 2 installé au pôle Sud, ils prirent cinq mois pour ce faire, ce qui fait que la publication de cette détection, signée par 1000 scientifiques (dont 75 Français), apparut en février dans la revue Physical Review Letters.
L’idée d’utiliser des interféromètres optiques et de mesurer des variations minuscules de leur base en observant la perturbation correspondante des franges d’interférence fut proposée dès les années soixante par le physicien Jo Weber, alors professeur à l’université du Maryland. Mais ses dispositifs étaient loin d’avoir la sensibilité requise pour de telles détections. Cet astrophysicien ne cachait pas son amertume quand on avait la chance, comme ce fut mon cas, de converser avec lui. De fait, ayant été l’étudiant de thèse de George Gamow, il reprochait à sa mémoire de ne pas lui avoir suggéré de découvrir le rayonnement radio fossile à 3K, détecté de façon fortuite en 1965 par A. Penzias et R. Wilson. En 1992, Kip Thorne et Ronald Drever du California Institute of Technology (Caltech) et Rainer Weiss du Massachussets Institute of Technology (MIT) convainquirent la National Science Foundation (NSF) de financer la construction de LIGO avec un budget d’environ 620 millions de dollars.
Plus de 23 ans se sont donc écoulés entre la décision de construire ces instruments et l’obtention de ce résultat magnifique ! Les agences de recherche comme la NSF, le CERN ou celles qui opèrent dans l’espace sont donc obligées de parier sur le succès des instruments qu’ils financent et ce, pendant des temps très longs sans aucune commune mesure avec la périodicité des rendez-vous électoraux.
Egalement au début des années quatre-vingt-dix, une équipe constituée principalement d’astrophysiciens français et italiens conçut le programme VIRGO (du nom du superamas de galaxies auquel appartient notre Voie lactée) qui fut, lui, financé par un consortium comprenant le CNRS, le Centre national de la recherche d’Italie, et des contributions plus modestes en provenance de la Hongrie, des Pays-Bas et de la Pologne. Il en résulta un interféromètre situé à côté de la ville de Pise dont les bras mesurent 3 km. Pour que VIRGO atteigne la sensibilité requise pour pouvoir détecter ces émissions, il faut attendre la fin des opérations d’amélioration des détecteurs, prévue à l’été ou à l’automne de cette année. A ce moment-là, le partage des données obtenues par les deux antennes de LIGO et par VIRGO permettra de déterminer la position de l’événement émetteur des ondes gravitationnelles ainsi détectées.
Les porte-parole de LIGO qui se sont exprimés au cours de la conférence de presse de février ont pu dire très justement que les astronomes voient s’ouvrir une ère nouvelle de leur discipline avec ce type de détection, un peu comparable à celle qui débuta en 1609 lorsque Galilée pointa sa lunette astronomique en direction de la Lune : nous avons désormais accès à des phénomènes tout à fait nouveaux comme la fusion de deux trous noirs trop distants pour que la lumière qui les entoure soit perceptible avec nos télescopes. D’ailleurs LIGO et VIRGO n’ont pas vocation à demeurer les seules installations en mesure d’accomplir des observations en astronomie gravitationnelle. La figure 3 montre la distribution géographique de ces différents observatoires d’un genre nouveau.
La fréquence des ondes gravitationnelles susceptibles d’être détectées par ces observatoires au sol se situe dans l’intervalle de 10 à 1000 Hz. Depuis plusieurs années, l’ESA (maintenant seule car la NASA a mis fin à cette collaboration précise en 2011) travaille à la conception d’un projet spatial très ambitieux appelé eLISA qui consistera en un ensemble de trois satellites formant un triangle équilatéral d’un million de kilomètres de côté ayant deux bras chacun et qui évoluera dans un plan faisant un angle de l’ordre de 20° avec celui de l’écliptique ; cet ensemble de trois interféromètres Michelson étant capable de détecter des ondes gravitationnelles dont la fréquence est comprise entre 0,001 et 1 Hz. (fig. 4). Les astrophysiciens prédisent que cet instrument spatial, dont le lancement est prévu en 2034, doit être capable de détecter les ondes gravitationnelles émises par les trous noirs supermassifs se trouvant au centre de la plupart des galaxies spirales proches de la nôtre. Pour qualifier cette mission très ambitieuse, un prototype à une seule antenne intitulée LISA Pathfinder a été lancé le 3 décembre 2015 vers le point de Lagrange L1 (un point situé entre le Soleil et la Terre où les forces de gravité imprimées par ces deux astres s’annulent). Cette mission a pour objectif de tester les instrumentations et les systèmes technologiques qui seront embarqués sur eLISA. Les procédures de présélection de cette mission qui fait partie du programme «lourd» intitulé «Cosmic Vision» de l’ESA doivent débuter cette année.
Entre l’existence théorique du boson de Higgs et sa mise en évidence expérimentale, il a fallu attendre 58 ans. Un siècle s’est écoulé entre la formulation de la théorie de la relativité générale par A. Einstein et cette quasi miraculeuse détection de septembre 2015. Dans les deux cas, les physiciens impliqués dans ces efforts expérimentaux ont dû d’abord convaincre les agences de financement de la recherche de consacrer des budgets conséquents à leurs projets ; ensuite surmonter de nombreux problèmes technologiques ; enfin, consacrer de longs mois à vérifier la validité de leurs détections. Dans les deux cas, «le jeu en vaut la chandelle» car des pans importants de la physique sont ainsi justifiés. De plus, dans le cas des ondes gravitationnelles, un nouveau chapitre de l’histoire de l’astronomie vient de débuter maintenant.
Jeanne Brugère-Picoux
Professeur honoraire de pathologie médicale du bétail et des animaux de basse-cour (Ecole nationale vétérinaire d’Alfort), membre de l’Académie nationale de médecine, ancienne présidente de l’Académie vétérinaire de France
Le 20 mars dernier, le ministère a annoncé un cas d’ESB dans un élevage de 400 vaches Salers dans les Ardennes. Quelques jours plus tard, le laboratoire anglais de référence a confirmé que la souche en cause était la souche anglaise, dite ESB classique (ESB-C).
L’isolement de la souche anglaise dans un cheptel français est une surprise car les deux derniers cas isolés datant de 2013 en France étaient des souches atypiques, comme ceci a été observé dans plusieurs pays depuis la disparition progressive des animaux ESB NAIFs[1] puis des animaux superNAIFs[2] et hyper-NAIFs[3]. D’ailleurs, il n’y avait eu que deux cas d’ESB-C signalés l’année dernière, l’un au Royaume-Uni et l’autre en Irlande.
Les deux souches atypiques connues (depuis l’année 2004) se différencient principalement de la souche ESB-C par le poids moléculaire de la forme non glycosylée de la protéine prion résistante à la protéinase K (PrPres) (cf. fig. 1). Ce poids est plus faible pour la souche ESB-L (pour Low) et plus élevé pour l’ESB-H (pour High). Au 2 avril 2016, 122 cas d’ESB atypiques (38 ESB-H et 84 ESB-L) ont été détectés en Europe (EFSA, 2014, OIE, 2016)[4] dont 33 en France (17 ESB-L et 16 ESB-H).
En comparant le poids moléculaire de la forme non glycosylée de la protéine prion résistante à la protéinase K de la souche ESB-C, on observe le poids plus faible de la souche ESB-L ou plus élevé de la souche ESB-H. La plus ou moins faible résistance à la protéinase K, représentée dans ce schéma par des intensités différentes pour les glycoformes de chaque souche ESB, est également un critère de diagnostic des souches ESB-L et ESB-H.
Ces cas sporadiques permettent de penser que l’ESB existait avant l’apparition de l’anazootie anglaise, où l’origine alimentaire ne fait aucun doute. Nous avons toujours pensé que la souche à l’origine de cette catastrophe ne provenait pas de carcasses de moutons atteints de tremblante à l’origine mais plutôt d’une souche bovine amplifiée par le recyclage des carcasses de bovins britanniques infectés dans les farines de viandes et d’os. L’observation de l’émergence d’une souche ESB-C après plusieurs passages sur souris d’une souche atypique ESB-H permet même d’émettre l’hypothèse qu’il puisse y avoir plusieurs souches d’ESB, celles-ci pouvant être parfois même associées chez un même bovin, comme cela est connu dans la tremblante du mouton.
L’ESB était certainement une maladie rare non reconnue avant 1985. Il y avait eu cependant de très rares descriptions de la maladie bovine, dont une datant de 1883 en Haute-Garonne par notre confrère M. Sarradet[5]. Nous connaissions aussi l’existence d’un cas dans l’Allier observé dans les années soixante chez une vache charolaise par le Médecin Général Court, spécialiste de la maladie de Creutzfeldt-Jakob[6], ce cas ayant été confirmé à l’examen histologique. Il était donc logique de penser que l’ESB existait depuis longtemps sous une forme sporadique.
La France venait d’obtenir le statut de « pays à risque négligeable vis-à-vis de l’ESB ».
C’est le premier cas d’ESB-C détecté en France depuis 2011. Ce dernier cas français avait été découvert chez une vache née en 2004. Un délai de 11 ans entre l’année de naissance de cette vache et l’année du test de ce cas était dépassé, le statut de notre pays avait été reconnu « à risque négligeable » en 2014 par le code terrestre de l’organisation mondiale de la santé animale (OIE ou office international des épizooties). Nous avons perdu ce statut avec le cas de mars 2016, en retrouvant celui de « risque maîtrisé », modifiant ainsi la liste des tissus considérés comme MRS pour les bovins nés et/ou élevés en France, abattus dans les abattoirs français (à nouveau, doivent être considérés comme MRS : la colonne vertébrale des bovins âgés de plus de 30 mois, les amygdales, les quatre derniers mètres de l’intestin grêle, le cæcum et le mésentère)[7]. Cela veut aussi dire que nous ne retrouverons notre statut de risque négligeable que dans 6 ans, la vache déclarée en mars dernier étant âgée de 5 ans.
A juste titre, le ministère avait pourtant allégé récemment le programme de surveillance de l’ESB en relevant l’âge des animaux testés à l’abattoir aux sujets nés avant le 1er janvier 2002[8] puis à l’équarrissage (48 mois en 2013).
Par ailleurs, en application de la réglementation liée aux souches ESB-C, la cohorte des bovins nés 12 mois avant ou après la vache atteinte d’ESB (soit près d’une centaine de bovins sur un cheptel de 400) seront euthanasiés pour vérifier « l’origine alimentaire » du cas d’ESB. Il en sera de même pour les veaux nés de cette vache contaminée (alors qu’il n’a jamais été démontré la possibilité d’une transmission maternelle de l’ESB, cette possibilité étant connue dans la tremblante du mouton). Cette recherche sur les cohortes était justifiée lors d’une suspicion de contamination alimentaire mais elle ne l’est plus maintenant car il est fort probable que ce cas d’ESB-C corresponde une forme sporadique au même titre que les souches atypiques.
Il faut espérer que les pays qui commençaient à ouvrir à nouveau leur marché pour l’exportation de bovins français, comme Singapour, le Vietnam, l’Afrique du Sud, le Canada ou l’Arabie Saoudite, ne changeront pas d’avis après la modification de notre statut.
L’annonce du cas d’ESB-C dans les Ardennes a alerté les médias. Certains ont même annoncé le retour de l’ESB alors que ce cas isolé ne fait que démonter l’efficacité de notre système de surveillance de l’ESB et la transparence de nos déclarations. Il importe de savoir que l’ESB est devenue à nouveau une maladie rare, soit moins d’un cas par million de bovins adultes testés, ce taux d’incidence étant identique à celui de la maladie de Creutzfeldt-Jakob sporadique qui ne reconnaît pas une origine alimentaire. Il faudrait revoir la réglementation concernant l’ESB en tenant compte de cette disparition d’un risque de contamination alimentaire.
Enfin, la découverte sur le terrain ou par passage sur la souris de différents prions bovins montre que l’ESB, quelle que soit sa souche, restera une maladie rare dans le monde entier et que cela justifie de maintenir l’interdiction des MRS chez les bovins âgés selon le statut de « risque négligeable » afin de rassurer le consommateur.
Jean-François Cervel
Commission nationale française pour l’Unesco, IGAENR
Le rapport de Mme Suzanne Berger : Reforms in the French Industrial Ecosystem (janvier 2016) répond à une lettre de mission adressée par le ministre de l’Economie et le secrétaire d’Etat à l’Enseignement supérieur et à la Recherche.
Plus que d’un rapport, il s’agit d’une note de réflexion très synthétique en fonction d’éléments de comparaison tirés de l’expérience internationale et notamment américaine de l’auteur.
Elle s’organise en trois grands paragraphes : les deux malentendus originels, le point de vue des acteurs du système d’innovation, les performances des institutions de transfert de technologie, et se conclut par deux remarques et neuf brèves recommandations.
Après avoir rappelé que les efforts de réforme engagés depuis des années se sont concentrés sur la création d’institutions de transfert de technologie entraînant un empilement de nouvelles institutions, Mme Berger analyse «deux malentendus originels» : «Ce que les Universités peuvent (et ne peuvent pas) faire pour l’économie» et «Un institut Fraunhofer à la française ?».
Au titre du premier, Mme Berger s’interroge sur ce que font réellement les universités étrangères réputées performantes. Estimant avec prudence qu’il n’y a pas d’études permettant une compréhension totale des processus vertueux, elle s’appuie sur l’étude de success story, sur un rapport de la LERU (League of European Research Universities) et sur un rapport du MIT (Massachusetts Institute of Technology) pour conclure que «ce qui compte c’est l’ampleur, la profondeur et la continuité des interactions à tous les niveaux entre les entreprises et les chercheurs universitaires issus de différentes disciplines. C’est l’échange durable grâce à une large interface qui engendre un impact économique».
Elle ajoute que même les grandes universités ayant tissé les liens les plus étroits avec les écosystèmes régionaux n’en tirent pas de grands profits financiers. Sauf cas exceptionnels de découvertes majeures (exemple fameux du Taxotère en France), les revenus tirés des licences sont faibles et sans commune mesure avec le coût de la recherche. Seuls 16% des bureaux de licensing des universités américaines parviennent à s’autofinancer.
Elle ajoute que, même pour les grandes entreprises (exemples de General Electric et de DuPont), l’itinéraire entre la découverte et la réalisation de bénéfices est encore extrêmement long. Hormis dans quelques secteurs, il est rare que de nouveaux produits, même les plus prometteurs, deviennent rentables en moins de dix ans.
Conclusion : la création d’un ensemble dense de connexions le long de l’interface liant les chercheurs et les entreprises est ce qui compte le plus. Les échanges essentiels sont ceux qui s’opèrent entre êtres humains. L’octroi de licences et la maturation de la recherche sont utiles lorsqu’elles s’intègrent dans ce réseau de connexions productives.
Au titre du second malentendu, Mme Berger pointe l’excessive référence française aux Instituts Fraunhofer allemands. En une vingtaine de lignes extrêmement claires, elle montre que les Instituts Fraunhofer ne sont qu’un élément d’un vaste écosystème allemand qui fait intervenir de nombreux acteurs économiques, financiers, de formation professionnelle, d’universités techniques, de comités industriels…, sur lesquels l’Etat s’appuie pour allouer des aides peu élevées sans avoir besoin d’un crédit d’impôt recherche.
Mme Berger présente ensuite un rapide panorama des points de vue des acteurs du système d’innovation tiré des 111 entretiens qu’elle a eus au cours de sa mission.
Elle met en lumière les points de consensus suivants : le rôle indispensable du crédit d’impôt recherche, le sentiment de complexité et d’incertitudes, le besoin de stabilité.
Le crédit d’impôt recherche (CIR) est unanimement plébiscité tant par les entreprises que par les chercheurs académiques. Il constitue l’élément déterminant pour le maintien sur le territoire français de départements de R&D. Un dirigeant d’entreprise affirme qu’il garde sa division R&D en France car les grandes écoles donnent d’excellents diplômés et que le CIR réduit les coûts d’embauche. Il a permis, grâce notamment au dispositif du doublement, de développer les relations entre entreprises et organismes publics de recherche.
La complexité des dispositifs : les dispositifs français sont complexes, non pérennes, instables, difficiles à comprendre pour l’entreprise. L’intervention des régions vient encore complexifier le système ainsi que les multi-tutelles sur les laboratoires, qui allongent considérablement les délais de traitement des dossiers.
Le besoin de stabilité : même si le système est très complexe, il faut peut-être le laisser s’autoréguler plutôt qu’engager de nouveaux changements.
Mme Berger analyse enfin les performances des institutions de transfert de technologie.
Des multiples évaluations intervenues au cours des années récentes et de ses entretiens, Mme Berger tire une conclusion simple : il n’y a aucune réussite éclatante parmi tous les dispositifs mis en place.
Les appréciations portées par les acteurs concernant tant les IRT (instituts de recherche technologique) que les SATT (sociétés d'accélération du transfert de technologies) sont dubitatives voire carrément négatives.
Elle en conclut que, dans un souci d’efficacité à court terme, il faut soutenir les projets les plus utiles qu’elle a observés au cours de sa mission à savoir les PRRT (plateformes régionales de transfert de technologie) du CEA.
De ces analyses, Mme Berger tire deux remarques et neuf brèves propositions.
Les deux remarques concernent d’une part le constat d’une diversité d’évolution des dispositifs selon les régions et les écosystèmes et, d’autre part, le besoin de mettre en place des expérimentations évaluables, avec des financements à résultats quantifiables, conduisant à des modèles non identiques selon les lieux et selon les secteurs économiques.
Les neuf propositions :
- identifier trois à cinq universités d’excellence (IDEX) pour y développer un large éventail d’activités contribuant à la relation monde académique-monde économique ;
- donner aux établissements l’objectif de diffuser les résultats de la recherche et non de financer leurs coûts ;
- mieux articuler les IRT et ITE (instituts pour la transition énergétique) avec les laboratoires et les établissements ;
- distinguer les niveaux d’horizons temporels visés ; court terme, moyen terme, long terme ;
- établir des contacts réels entre chercheurs et directions des entreprises ;
- simplifier la cartographie du système d’innovation ; clarifier le rôle et les missions de France Brevets ;
- avoir un mandataire de gestion unique pour chaque laboratoire ;
- orienter les actions des agences de transfert autant vers les entreprises en voie d’expansion que vers les start-up ;
- mettre les clients au cœur du système, pas les technologies.
Discussion
L’analyse et les propositions, même si elles sont assez sommaires, sont plutôt frappées au coin du bon sens. Elles montrent bien qu’il ne faut pas faire de contre-sens tant sur les objectifs que sur les effets des politiques conduites en matière de relations entre les institutions de recherche et les entreprises.
J’en retiens pour ma part quelques éléments principaux qui rejoignent ceux que j’ai présentés dans mon texte publié par NTE (News Tank Education) le 9 février dernier.
Les situations sont différentes selon les écosystèmes et selon les secteurs économiques ; les réponses doivent donc être différenciées.
Un sujet clé est celui de la qualité des ressources humaines ; il faut donc conforter les filières de formation supérieure répondant aux besoins des entreprises et notamment les formations d’ingénieurs ; j’y ajoute pour ma part qu’il ne faut ne pas négliger les actions développées en formation continue qui sont un bon outil de transfert des connaissances et qui doivent faciliter la circulation et les échanges des personnes entre les établissements et les entreprises.
C’est à l’échelle des établissements que doivent se conduire les actions ; il faut leur laisser toute liberté pour utiliser la palette des outils utiles pour multiplier les occasions d’interfaces avec les entreprises.
Dans cette logique, il faut se décider à soutenir clairement la montée en puissance de quelques universités de recherche et quelques universités de technologie qui doivent être les acteurs moteurs, en articulation avec les organismes de recherche et notamment ceux spécialisés dans les domaines technologiques (CEA, INRIA, ONERA…).
Il faut veiller à ne pas casser les dispositifs qui marchent sous peine de départ des centres de recherche des entreprises en d’autres lieux du monde. Le crédit d’impôt recherche, les contrats CIFRE (conventions industrielles de formation par la recherche) mais aussi les centres techniques industriels doivent être ainsi clairement confortés.
Alain Delacroix
Ancien professeur titulaire de la chaire "Chimie industrielle - Génie des procédés" du Conservatoire national des arts et métiers
Les molécules produites par l’industrie chimique sont toujours créées pour résoudre un problème et avant de les critiquer (ce qui est à la mode en France actuellement), il est bon de savoir à quoi elles servent. Comme pour les médicaments, qui sont des molécules chimiques comme les autres, il faut toujours considérer le rapport bénéfice/risque. Aucune molécule active n’est sans risque. C’est, par exemple, en cosmétique que les molécules utilisées doivent présenter le minimum de risque car le problème qu’elles traitent ne présente pas de danger. Rappelons toutefois que L’Oréal, à l’origine, a été créé par Eugène Schueller sous le nom de «Société française de teintures inoffensives pour cheveux», ce qui en dit long sur celles qu’on utilisait à l’époque.
Le risque le plus important (en dehors de celui qui leur est propre) dans l’utilisation de médicaments, produits cosmétiques ou industriels et aliments contenant de l’eau, même en très faible quantité, est la contamination par des bactéries ou des champignons pathogènes. Ceux-ci peuvent provoquer des maladies très graves contre lesquelles on doit se défendre. C’est ainsi que dans pratiquement tous les produits courants utilisés tous les jours, on introduit en très faibles quantités des bactéricides et des fongicides. Parmi ceux-ci, les parabens sont les plus connus en raison des controverses récentes sur leur utilisation.
Paraben
Les parabens (formule ci-dessus) sont des parahydroxybenzoate d’alkyle qui ont une formule simple et sont peu coûteux. Ils ont de bonnes propriétés antibactériennes et antifongiques et des propriétés physiques adéquates, par exemple la solubilité. Cela les a largement introduits dans les cosmétiques, les médicaments, les aliments, etc.
Il existe une infinité de parabens car le groupement R peut correspondre à n’importe quel groupe alkyle, le plus simple étant le méthyl. Il existe industriellement les méthyl, éthyl, propyl, isopropyl, butyle, isobutyl et même benzyl parabens.
Les parabens sont aussi des molécules naturelles que l’on peut trouver, par exemple, dans les fraises, la vanille, la carotte, certains jus de fruit, etc. (les plantes fabriquent aussi des molécules pour se défendre contre, entre autres, leurs prédateurs !).
Les bonnes propriétés des parabens font qu’on les a introduits dans la majorité des produits que l’on utilise tous les jours : shampoings, crèmes diverses, mousses à raser, etc. De ce fait, l’être humain est exposé régulièrement à ces produits. Mais des études récentes montrent que les parabens pourraient présenter des risques : baisse de fertilité pour l’homme et augmentation des tumeurs œstrogèno-dépendantes car ils peuvent se lier aux récepteurs des œstrogènes. En liaison avec le principe de précaution, leur interdiction a été votée par l’Assemblée nationale en 2011.
Alors comment remplacer les parabens ? La publicité nous a inondés de produits «sans paraben», mais qu’a-t-on mis à la place ?
Du 2-phénoxyéthanol (formule ci-dessous) qui, lui aussi, existe à l’état naturel dans le thé vert ou la chicorée mais qui pourrait induire des allergies ou des troubles neurologiques ? Il est déconseillé maintenant dans les lingettes pour bébés en attendant des études plus poussées sur sa toxicité.
On peut utiliser aussi la méthylisothiazolinone (formule ci-dessous), excellent biocide, mais en 2014, la Commission européenne a émis un avis de méfiance sur ce produit.
Il faut noter à ce stade qu’un produit biocide, bactéricide ou fongicide, qui tue par définition des objets vivants, ne peut être sans effets sur l’être vivant macroscopique que nous sommes. De ce fait, chaque molécule de ce type devra faire l’objet de recherches approfondies et longues, voire sans fin.
Alors y a-t-il d’autres solutions pour formuler des produits sans conservateurs ? On peut utiliser la stérilisation UHT, comme pour le lait, pour les produits relativement stables à la chaleur, on peut aussi diminuer la taille des gouttelettes d’eau de telle manière que la bactérie n’ait pas assez de place pour se développer. Mais ces techniques n’ont, semble-t-il, pas une utilisation aussi générale et facile que les molécules biocides. A suivre donc…
Jeanne Brugère-Picoux
Professeur honoraire de pathologie médicale du bétail et des animaux de basse-cour (Ecole nationale vétérinaire d’Alfort), membre de l’Académie nationale de médecine, ancienne présidente de l’Académie vétérinaire de France
En 1947, les chercheurs A. Haddow et W. Bearcroft, travaillant sur le virus de la fièvre jaune à l’Institut ougandais de recherche à Entebbe, découvrent dans la forêt Zika un autre virus chez un singe rhésus présentant une hyperthermie. Ils reproduisent aussi la maladie chez des souris. L’année suivante, ils isolent ce même virus chez des moustiques Aedes africanus, vecteurs de la fièvre jaune. Si, pendant près de sept décennies, ce virus Zika est resté une curiosité virologique, il importe de rappeler que les chercheurs de l’Institut d’Entebbe avaient continué de l’étudier, allant même jusqu’à se l’inoculer (W. Bearcroft) pour démontrer son effet pathogène (les symptômes ont été discrets avec une légère hyperthermie et une migraine). Ils concluent alors : «L'absence de la reconnaissance de la maladie chez l'homme causée par le virus Zika ne signifie pas nécessairement que la maladie est rare ou sans importance». Plus tard, il a fallu deux contaminations de laboratoire (l’un à l’Institut d’Entebbe, l’autre dans un autre institut au Mozambique) pour que l’on découvre d’autres symptômes, notamment cutanés (éruption maculo-papuleuse) et le potentiel pathogène du virus Zika. On peut d’ailleurs remarquer qu’il a souvent fallu des accidents de laboratoire pour comprendre le rôle pathogène des arbovirus pour l’espèce humaine.
L’infection humaine par le virus Zika est restée anecdotique en Afrique et en Indonésie jusqu’à la découverte surprenante d’une épidémie due à ce virus en Micronésie dans l’île de Yap en 2007. Cette maladie ressemblait alors à de la dengue mais avec des troubles cutanés [1].
Quelques cas importés ont été signalés dans certains pays (Australie, Etats-Unis) jusqu’à l’annonce d’une nouvelle épidémie en 2013 en Polynésie française avec 333 cas confirmés et 19 000 suspicions. Il est possible que cette épidémie ait été à l’origine de 42 cas de Guillain-Barré ainsi que de 18 malformations congénitales, dont 13 microcéphalies et 5 bébés nés avec un trouble de la déglutition, dont 2 décédés depuis. En fait il n’était pas toujours facile de distinguer l’infection due au virus Zika de la Dengue ou du Chikungunya, plus connus des praticiens (cf. tableau I). Puis un premier cas autochtone est déclaré en Nouvelle-Calédonie le 21 janvier 2014. En juillet 2015, dans un rapport publié le 10 août, le Haut conseil de la santé publique annonce que «les conditions pour une transmission autochtone du virus Zika en métropole sont réunies» du fait de la présence du moustique tigre en France.
Le Brésil a annoncé des cas autochtones à partir de mai 2015. Fin décembre 2015, ce même pays a suspecté un risque de préjudice grave de microcéphalie pour les nouveau-nés lors d’une atteinte des mères par le virus Zika pendant leur grossesse. Très rapidement, d’autres pays ont identifié ce virus devenu médiatique. De janvier 2007 au 25 février 2016, 52 pays ont déclaré des cas autochtones, le principal vecteur étant le moustique tigre Aedes aegypti [2].
L’annonce brésilienne d’un risque de préjudice grave lié au neurotropisme du virus pour les fœtus a amené l'Organisation mondiale de la santé à déclarer que le virus Zika devenait une «urgence de portée internationale de la santé publique». Cette annonce a aussi alerté les médias dans le monde entier. Pourtant l’importance réelle de ce risque à l’échelon d’un pays reste encore incertaine du fait du faible nombre de preuves scientifiques. Certes, il existe des cas particuliers permettant de suspecter un effet tératogène du virus Zika comme, par exemple, celui d’une femme slovène enceinte contaminée au Brésil à la 13e semaine de grossesse [4]. Revenue en Slovénie, une microcéphalie et de graves malformations cérébrales sont observées sur le fœtus à 29 et 32 semaines. Un avortement thérapeutique a été décidé et le virus Zika a été retrouvé uniquement dans l’encéphale du fœtus. D’autres observations signalent la présence du virus Zika dans le tissu cérébral de nouveau-nés mort-nés atteints de microcéphalie, voire dans le placenta et les tissus fœtaux lors d’avortements spontanés, les mères ayant présenté des symptômes pendant leur grossesse.
Risque surévalué ou réel ?
Comme l’a souligné R. St. John, qui fut directeur général de la santé publique du Canada, l’importante réaction médiatique liée au virus Zika a peut-être été amplifiée avec notre système de communication instantanée par Internet. Malgré la frénésie que nous avons connue sur les dernières découvertes sur ce virus, nous avons encore beaucoup trop d’incertitudes sur les risques réels de transmission de la maladie autrement que par les moustiques, qu’il s’agisse de la présence du virus dans la salive, dans l’urine, dans le sang ou dans le sperme. Y a-t-il réellement un risque de transmission sexuelle ou par transfusion sanguine ?
La preuve d’un lien entre les cas de microcéphalie et le virus Zika n’est pas encore certaine. N’y a-t-il pas eu un surdiagnostic de ces cas au Brésil alors que la Colombie, pays également fortement touché par ce virus, n’a pas déclaré cette atteinte tératogène. Pourtant les conséquences d’une telle suspicion sont importantes, en particulier par les conseils aux femmes enceintes ou susceptibles de l’être ainsi qu’aux voyageurs vers les pays touchés (report de la grossesse conseillé dans certains pays, voyages déconseillés ou annulés vers les pays atteints, avortements thérapeutiques, risque lié aux transfusions sanguines, menace potentielle pour les participants aux jeux olympiques de Rio, etc.). On a pu ainsi constater une diminution du nombre des voyages vers les pays considérés touchés par ce virus.
De plus, puisque «lorsque l’on cherche, on trouve !», il est évident que l’on va découvrir la présence du virus Zika dans d’autres pays. Mais des recherches sont encore nécessaires pour évaluer le risque d’une transmission autre que par les moustiques (un nouveau cas de transmission par la voie sexuelle, le premier en France, vient d’être annoncé le 27 février 2016). La découverte récente d’une transmission autre que par les moustiques de l’encéphalite japonaise, due à un autre flavivirus chez le porc, démontre que nous avons encore à apprendre sur cette famille virale redoutable. Le développement et la disponibilité de tests rapides et fiables permettront une surveillance accrue et une meilleure évaluation du nombre de cas asymptomatiques ainsi que du risque de microcéphalie ou de syndrome de Guillain-Barré. De même, la mise au point rapide d’un vaccin polyvalent efficace à la fois contre la dengue, le chikungunya et le virus Zika peut être très utile dans l’avenir.
En conclusion, les conseils de prudence devant les incertitudes des risques réels liés au virus Zika sont justifiés, notamment pour les femmes enceintes. Mais il ne s’agit que d’un principe de précaution qui ne doit pas être amplifié à l’extrême. Il y a sans aucun doute un problème mais les faits scientifiques sont trop peu nombreux pour évaluer l’ampleur de la menace potentielle.
D’autres pistes ne doivent pas êtres négligées comme, par exemple, le risque lié à l’emploi intensif d’un insecticide, le pyriproxyfène, dans les régions touchées depuis fin 2014. Ce risque, où l’antidote serait plus nocif que la maladie, a été dénoncé par des médecins argentins et brésiliens mais il n’a pas été démontré. N’oublions pas l’alerte que nous avons connue en 2005 avec l’OMS sur la «grippe aviaire» due au virus influenza aviaire hautement pathogène H5N1, considérée comme la future pandémie mondiale.
Jeanne Brugère-Picoux
Professeur honoraire de pathologie médicale du bétail et des animaux de basse-cour (Ecole nationale vétérinaire d’Alfort), membre de l’Académie nationale de médecine, ancienne présidente de l’Académie vétérinaire de France
L’encéphalite japonaise est la principale cause d’encéphalite humaine en Asie (cf carte ci-dessous). Lors d’une épidémie d’encéphalite japonaise, seulement 0,1 à 4% des personnes infectées développent une encéphalite avec des symptômes, les enfants étant les plus souvent atteints. L'incidence annuelle de ces cas serait de 50 000 à 175 000, avec un taux de mortalité de 25 à 30% alors que 50% des survivants présenteront des séquelles neurologiques parfois graves.
On avait toujours considéré que la maladie était uniquement transmise par des moustiques, le porc étant le réservoir amplificateur de cette virose également véhiculée par les oiseaux.
Des chercheurs suisses ont démontré que ce virus pouvait aussi se propager par contact entre porcs, expliquant ainsi la persistance de la maladie pendant l’hiver, en particulier dans l'île japonaise du nord de Hokkaido, toujours atteinte par de nouveaux foyers malgré l’absence de moustiques. Ces mêmes scientifiques ont montré que le virus se répliquait dans les amygdales où il pouvait persister 25 jours, la voie de transmission directe pouvant être oro-nasale.
On peut cependant noter que les cas humains d’encéphalite japonaise importés n’ont jamais été suivis d’une contamination secondaire.
Cette découverte est importante car les flaviviroses sont souvent des zoonoses. Parmi celles-ci, on avait déjà démontré chez l’Homme la possibilité de transmission interhumaine du virus du Nil occidental, notamment par transfusion sanguine. Par ailleurs, on suspecte un autre mode de transmission pour l’infection due au virus Zika (transmission sexuelle).
Alain Delacroix
Ancien professeur titulaire de la chaire "Chimie industrielle - Génie des procédés" du Conservatoire national des arts et métiers
Théophile-Jules Pelouze est né le 26 février 1807 à Valognes dans la Manche. Son père Edmond Pelouze est un industriel lié à Saint Gobain et aux forges du Creusot. Il est directeur de cette entreprise alors que Daniel Wilson en est le propriétaire, ce qui explique les relations entre ces deux familles, sur lesquelles je reviendrai plus tard. Edmond Pelouze est l’auteur de nombreux ouvrages techniques, notamment sur la fabrication du coke et du fer.
Théophile-Jules Pelouze débute comme apprenti dans une pharmacie. Sur les recommandations de Vauquelin, lié à son père, il intègre à Paris la pharmacie de Chevallier. C’est là qu’il rencontre Lassaigne qui, avec Gay-Lussac, le prennent comme assistant dans le laboratoire Wilson dont ils sont les directeurs en 1827. En 1829, il commence son internat de pharmacie mais renonce pour raisons de santé et préfère la chimie. En 1830, il reste peu de temps professeur de chimie à Lille pour revenir à Paris en 1833. Il est alors nommé répétiteur à l’Ecole polytechnique, devient professeur au Collège de France, où il succède à Gay-Lussac, et commence à travailler pour l’Hôtel des Monnaies dont il devient le directeur. C’est sous sa responsabilité que sont produits les premiers timbres-poste en France. Il est membre de l’Institut en 1837 et membre du conseil municipal de Paris.
A partir de 1848, il fonde, rue Dauphine à Paris, un laboratoire de chimie où il forme de nombreux étudiants dont Claude Bernard, Marcellin Berthelot, Alfred Nobel et Asciano Sobrero, le découvreur de la nitroglycérine. Aimé Girard y décrit ses débuts modestes, limant des bouchons pour les montages de chimie.
Comme tous les savants du XIXe siècle, Pelouze va effectuer de nombreuses recherches dans des domaines très différents. On peut citer, entre autres, les procédés de fabrication du verre, du sucre de betterave, la purification du gaz d’éclairage, la synthèse de l’acide formique, la synthèse de matières grasses, le dosage du fer dans le sang, la fabrication des explosifs, etc. Sa réputation est telle que son nom est inscrit sur la tour Eiffel.
Théophile-Jules Pelouze épouse Joséphine Künckel, dont il a trois enfants. Son fils Eugène Philippe Pelouze, médecin, épouse le 3 décembre 1857 Marguerite Wilson, la fille de Daniel Wilson. Ce dernier a acquis une grande fortune qui lui a permis, entre autres, d’acheter auprès de Delacroix vers 1845 le célèbre tableau La Mort de Sardanapale. Marguerite Wilson a un frère, Daniel, et tous deux héritent de la fortune de leur père en 1861, date à laquelle ils sortent de l’indivision suite à la majorité de Daniel.
Marguerite achète le château de Chenonceau en 1864 et en confie la restauration à Roguet. Marguerite et Eugène divorcent le 17 mars 1869 à la demande d’Eugène qui aurait surpris sa femme dans une situation peu conventionnelle avec son frère Daniel. Madame Pelouze mène alors grand train dans son château et y reçoit Gustave Flaubert et Claude Debussy. Elle devient la maitresse de Jules Grévy, Président de la République de 1879 à 1887, et favorise le mariage de la fille de Grévy, Alice, avec son frère.
En 1888, cette vie dispendieuse se termine par la faillite. Le château est saisi par les créanciers et racheté par le Crédit foncier. Daniel Wilson, le frère de Marguerite, député radical, siège à gauche avec les partisans de Gambetta et reste député jusqu’en 1889. En 1887, il est acteur du scandale des décorations qui pousse son beau-père à démissionner la même année. Plus tard, Daniel Wilson sera maire de Loches et redeviendra député.
Jean-François Cervel
Commission nationale française pour l’Unesco, IGAENR
Le numéro de novembre 2015 des Cahiers de la Fonction publique (n° 360, Berger-Levrault Ed.) consacre son dossier à : « Valoriser les savoirs et les résultats de la recherche publique ».
Onze articles de ce numéro de la revue sont consacrés à ce thème.
On y trouve des présentations d’ensemble des activités de valorisation de deux grands organismes de recherche, le CNRS et l’INRIA, de l’université Pierre et Marie Curie et de l’université de Reims à travers le récit d’« une histoire partagée, le cluster Fabbad ou « la fabrication additive » au service du territoire ».
On y trouve la présentation de structures de valorisation, avec l’exemple de la SATT Paris-Saclay créée en 2014 et une évocation du Réseau Curie qui fonctionne depuis 1991.
On y trouve le compte rendu du rapport « Les relations entre les entreprises et les établissements publics de recherche, regards croisés sur la recherche partenariale » établi pour Futuris, la plate-forme de prospective de l’ANRT. Rapport qui insiste sur les conditions de réussite des partenariats entre les entreprises et les établissements publics de recherche et qui propose « six pistes de progrès » pour les améliorer.
Et on y trouve enfin quatre articles plus généraux sur le thème de la valorisation et des partenariats entre recherche publique et recherche privée.
- Un chargé de mission de France-Stratégie insiste sur l’intérêt de la comparaison internationale et rappelle la complexité des processus de valorisation jusqu’aux stades du brevet et de la licence susceptible d’être rentable. Il rappelle que les recettes issues de la valorisation ne contribuent que marginalement au financement des organismes de recherche et insiste sur la nécessité de trouver une articulation intelligente entre SATT régionales et dispositifs de valorisation des organismes de recherche nationaux.
- La présentation du rapport de l’OCDE Science, technologie et industrie : perspectives de l’OCDE 2014. Rapport qui montre un paysage mondial en évolution, en raison notamment de la crise financière, une volonté des pays de se positionner au mieux dans les chaînes de valeur mondiales et de renforcer l’attractivité de leur système de recherche, un développement des mécanismes de financement par projets à côté du financement institutionnel récurrent. Il insiste également sur la prégnance des préoccupations environnementales et sociétales et sur les perspectives de « la prochaine révolution industrielle » qui ne fait que renforcer la place de l’innovation dans les politiques publiques de STI et le développement de partenariats public-privé.
- Ce partenariat public-privé fait l’objet d’un article plus approfondi qui en montre bien l’intérêt mutuel pour les deux parties, la diversité des modalités, le développement d’une culture commune de l’innovation.
- Un « libre opinion » sur l’organisation de la recherche technologique et de la valorisation de la recherche en France qui propose notamment de développer quelques grandes universités de technologie du type de celles qui existent dans la plupart des grands pays du monde.
Ce numéro fait donc ainsi un tour d’horizon assez complet sur le sujet de la valorisation des résultats de la recherche publique.