Notes de lecture

Les membres de l’Afas publient régulièrement des notes de lectures. Elles sont à retrouver ici.

Jeff Hawkins

(Quanto, 2023, 296 p. 23,25€)

 
100 cerveaux (J. Hawkins, Quanto, 2023)Jeff Hawkins est un ingénieur en informatique qui s’est intéressé aux neurosciences. Dans ce livre, il veut montrer que le cerveau ne fonctionne pas comme les neurosciences ont essayé de le décrire, du moins le prétend-il, c’est-à-dire l’établissement d’un modèle unique et fixe du monde décrivant le cerveau comme un genre d’ordinateur (des informations entrent, sont traitées et le cerveau agit), mais que ce sont en réalité des centaines de milliers de cartographies de tout ce que nous connaissons qu’il réalise à chaque instant, nous permettant de réaliser notre perception du monde et de nous-même.
Sa démonstration ambitieuse est construite en trois parties :
1. «Une nouvelle vision du cerveau», qui se veut principalement neurobiologique, dans laquelle il décrit sa théorie des référentiels, qu’il baptise «théorie des mille cerveaux», qui s’inscrit dans l’histoire de l’étude du cerveau et qui prétend faire comprendre au lecteur ce qu’être intelligent veut dire.
2. «L’intelligence machine», qui fait référence à l’intelligence artificielle (IA), expliquant avec sa théorie des «mille cerveaux» pourquoi l’IA d’aujourd’hui n’est pas encore de l’intelligence et comment rendre les machines vraiment intelligentes ; il explique pourquoi certaines d’entre elles seront selon lui conscientes ; enfin il pose le problème du risque existentiel que constitueraient ces machines intelligentes du fait qu’il serait possible de créer une technologie qui conduira l’humanité à sa perte. Mais il ne le croit pas et explique pourquoi, grâce à ses découvertes, l’intelligence des machines est en soi inoffensive : «il s’agit d’une technologie très puissante dont le risque réside en vérité dans l’usage qu’en feront les humains».
3. «L’intelligence humaine», qui décrit la condition humaine sous la perspective du cerveau et de l’intelligence ; nos perceptions sont à chaque instant une simulation du monde, mais pas le monde réel : «l’une des conséquences de la théorie des mille cerveaux est que nos croyances au sujet du monde peuvent être fausses, […] nos fausses croyances associées aux plus primitives de nos émotions risquent de menacer notre survie à long terme.»

Dans la première partie, «Une nouvelle vision du cerveau», il se propose tout d’abord de nous décrire trois «illuminations» qui lui ont permis de comprendre le rôle du néocortex, cette partie du cerveau cortical la plus évoluée de l’encéphale :

  • «Découverte numéro un : le néocortex acquiert un modèle prédictif du monde», car le néocortex effectue un grand nombre de prédictions dont nous n’avons pas conscience.
  • «Découverte numéro deux : les prédictions s’effectuent à l’intérieur des neurones», ces prédictions se présentent sous deux formes, les unes parce que le monde change autour de nous, les autres parce qu’on bouge soi-même par rapport au monde ; il appuie l’essentiel de sa démonstration sur la théorie de V. Mountcastle selon laquelle toutes les parties du néocortex, quelle que soit la spécificité de chaque partie (vue, audition, toucher...), sont organisées en colonnes et obéissent au même principe. Il inscrit alors sa démarche dans le sillage de la proposition de V. Mountcastle selon laquelle un algorithme cortical commun laisse entendre que chaque colonne du cerveau effectue des prédictions des deux formes.
  • «Découverte numéro trois : le secret de la colonne corticale réside dans les référentiels», car les neurones du néocortex sont capables de fixer un référentiel en relation avec un objet, un emplacement ou une situation, et chaque colonne du néocortex possède des neurones qui représentent les référentiels.
    J. Hawkins formule alors l’hypothèse selon laquelle le cerveau classe toutes les connaissances à l’aide de référentiels, et la pensée survient quand on active des emplacements successifs dans les référentiels: chaque colonne du néocortex possède des cellules qui créent des référentiels.

S’appuyant sur l’hypothèse de V. Mountcastle selon laquelle il n’y a qu’un seul algorithme commun à toute perception et à toute cognition se rapportant aux 150 000 colonnes corticales de notre néocortex, J. Hawkins propose alors que l’algorithme cortical commun repose sur les référentiels qui fournissent le substrat de l’apprentissage de la structure du monde.
Et il conclut sa première partie en formalisant sa «théorie des mille cerveaux» : les connaissances que contient notre cerveau sont réparties, la connaissance d’un objet est répartie sur des milliers de colonnes. D’où le nom de «théorie des mille cerveaux», dans la mesure où la connaissance de n’importe quel objet est distribuée parmi des milliers de modèles complémentaires. La théorie des mille cerveaux décrit comment le néocortex acquiert un modèle tridimensionnel d’un objet en faisant appel à des référentiels.

Dans la deuxième partie, «L’intelligence machine», J. Hawkins décrit l’impact qu’aura sa théorie des mille cerveaux sur l’avenir de l’IA, théorie qui laisse entendre que l’avenir de l’intelligence machine sera très différent de ce à quoi réfléchissent la plupart des chercheurs qui travaillent sur l’IA.
En posant la question de savoir si les machines peuvent être conscientes, il considère que le problème de la conscience ne peut être aujourd’hui que partiellement réductible à une approche neurobiologique et que pour l’heure il reste incompris. Mais il affirme que les machines qui fonctionneront selon les principes du cerveau seront conscientes ; il considère que les systèmes d’IA ne fonctionnent pas ainsi aujourd’hui mais ils le feront un jour et ils seront conscients.
Pour J. Hawkins, les machines intelligentes serviront non seulement pour la réalisation d’activités telles que celles pratiquées aujourd’hui mais aussi à acquérir un savoir nouveau, une compréhension de l’inconnu, et permettront de propulser l’adoption de l’IA dans des directions inattendues. Mais que se passera-t-il si les machines intelligentes qui seront développées réfléchissent plus vite et plus loin que nous ? Ne constitueront-elles pas une menace pour le devenir de l’humanité ? Des groupes de réflexion se sont constitués pour étudier les risques que pose l’IA, et des mises en garde publiques affirmant que la création de machines (trop !) intelligentes risquait de conduire à l’asservissement de l’espèce humaine, l’IA serait une menace existentielle pour l’espèce humaine. Face à cette menace, l’auteur reste optimiste et il ne fait aucun doute pour lui que les machines intelligentes ne représentent aucune menace existentielle pour l’humanité car les machines intelligentes ne posséderont pas d’émotions ni de motivations de type humain à moins qu’on les en dote volontairement. Dans la mesure où les machines intelligentes ne seront pourvues ni de la capacité de se répliquer ni de motivations, elles ne constitueront aucune menace réelle pour l’humanité. La meilleure option, pour l’heure, est de préparer des accords internationaux exécutoires sur ce qui est admissible et ce qui ne l’est pas.

Dans la troisième partie, «L’intelligence humaine», J. Hawkins se propose d’examiner les risques inhérents à notre intelligence et à la structure de notre cerveau sous le prisme de la théorie des mille cerveaux. Pour lui, un des points essentiels est que le cerveau ne connaît qu’un sous-ensemble du monde réel et que nous ne percevons pas le monde lui-même mais le modèle du monde que nous nous construisons, que nous vivons dans une simulation. Le triomphe de l’intellect humain, c’est l’expansion de notre modèle du monde au-delà de ce qui est directement observable, c’est l’apprentissage du monde par l’expérience personnelle grâce au langage.
Dans une vision très simpliste de l’activité de notre cerveau, l’auteur considère qu’il est divisé en deux parties, 30% étant constitué par un cerveau ancien qui crée les plus primitifs de nos désirs et de nos actions, et 70% par le néocortex, support de notre intelligence supérieure. Les parties anciennes de notre cerveau sont à l’origine de comportements primitifs alors que le néocortex a la capacité de les maîtriser. J. Hawkins met alors en avant les risques existentiels de l’intelligence humaine, car dans la lutte entre cerveau ancien et néocortex, c’est souvent le premier qui gagne, tout en admettant que le néocortex peut contrecarrer le cerveau ancien. A partir de sujets tels que «les vaccins sont une cause d’autisme», «le réchauffement climatique n’est pas une menace», «il y a une vie après la mort», il élabore une théorie selon laquelle «le cerveau forme ses croyances» et met en avant trois items qui en sont à l’origine : l’impossibilité d’en faire l’expérience directe, le rejet de tout élément contradictoire et la propagation virale de la croyance. Ainsi, en élaborant de telles croyances, l’intelligence pourrait être à l’origine de notre possible destruction, et c’est dans la structure du cerveau (30% de cerveau ancien et 70% de néocortex) que réside le problème car le cerveau ancien est adapté à la survie à court terme et notre néocortex s’est développé «pour servir le cerveau ancien». L’auteur en conclut que «nous sommes face à plusieurs menaces existentielles : notre cerveau ancien est aux commandes et nous empêche de faire des choix soutenant notre survie à long terme ; et les technologies globales que nous avons créées (grâce à notre néocortex) peuvent être détournées par des gens habités de fausses croyances».
Pour échapper à ces menaces, il propose plusieurs issues :

  • la fusion du cerveau et de l’ordinateur mais pas au point de pleinement unir le cerveau et la machine, tout en admettant qu’une telle fusion sera sans doute un jour menée à bien ;
  • la préservation et la propagation de la connaissance (ou savoir), qui représente ce que l’on a appris du monde – le modèle du monde qui réside dans notre néocortex – mais indépendamment des êtres humains, «en archivant notre histoire et notre savoir de façon à ce que de futures espèces intelligentes sur Terre puissent s’instruire à propos de l’humanité […], ou en créant un signal durable qui informe les êtres intelligents ailleurs dans l’espace et dans le temps que des humains intelligents ont un jour vécu autour de l’étoile nommée Soleil» ;
  • devenir une espèce multiplanétaire en occupant une autre planète, par exemple en envoyant des gens sur Mars pour fonder une colonie humaine ;
  • modifier nos gènes puisque maintenant la technologie permettant l’édition précise de molécules d’ADN a été mise au point. Par exemple pour qu’un humain puisse être congelé aujourd’hui et décongelé dans l’avenir ; ou pour supprimer les comportements agressifs et rendre l’individu plus altruiste ; ou manipuler nos gènes pour modifier le cours de l’évolution, pour «améliorer» notre progéniture. Et de conclure : «je peux facilement imaginer une foule de scénarios invitant à estimer qu’il est dans son intérêt individuel de procéder à une modification significative de son ADN. Il n’y a pas de bien ni de mal absolu, seulement des choix qui s’offrent à nous.»

En conclusion de son livre, J.Hawkins fait la proposition suivante : «le moyen suprême de délivrer notre intelligence de l’emprise de notre cerveau ancien et de notre biologie consiste à créer des machines aussi intelligentes que nous et qui ne dépendent pas de nous. […] Le savoir et l’intelligence sont plus précieux que les gènes et la biologie et, par conséquent, ils méritent d’être préservés au-delà de leur habitacle habituel dans notre cerveau biologique. […] J’ai évoqué plusieurs façons dont nous pourrions réduire les risques qui planent sur nous. Plusieurs d’entre elles réclament la création de machines intelligentes.»

Ce livre, qui n’est pas toujours facile à lire, est assez déroutant et présente des aspects assez paradoxaux. Dans la première partie, J. Hawkins met en avant des affirmations quelque peu naïves comme cette conception réduisant le cerveau à deux parties, une partie ancienne (30%) et le néocortex (70%), et, s’appuyant sur la théorie de Mouncastle des colonnes corticales, il affirme qu’elles sont toutes semblables et fonctionnent toutes sur le même modèle pour introduire sa théorie des mille cerveaux. Dans la deuxième partie, il analyse de façon tout à fait intéressante et pertinente en quoi l’IA telle que nous la connaissons aujourd’hui n’est pas intelligente, et en quoi l’intelligence machine sera l’une des technologies les plus bénéfiques que nous aurons jamais créées. Enfin, dans la troisième partie, il se propose d’observer la condition humaine sous le prisme de la théorie de l’intelligence et du cerveau, et il se lance alors dans des réflexions et des propositions tout à fait surprenantes sur l’avenir de la condition humaine, qui est pour lui source d’inquiétude.
J’en conclurai que J. Hawkins est incontestablement un ingénieur en informatique très compétent et performant, dans la mesure où les sociétés qu’il a créées sont performantes, que, dans ce domaine, il est à l’origine de publications, qu’il cite, intéressantes, et que ses réflexions sur l’IA sont tout à fait stimulantes ; mais il s’est forgé une vision un peu stéréotypée de la neurobiologie pour assoir sa théorie des mille cerveaux ; enfin sa vision de l’avenir de la société humaine l’amène à des propositions déroutantes, même s’il prend toujours la précaution de préciser qu’«il n’est pas en train de prescrire la machine à suivre et que son objectif est de susciter le débat».

Lydéric Bocquet

(Fayard, 2023, 96 p. 12€)

 
La mécanique moléculaire des fluides : un champ d’innovation pour l’eau et l’énergie  (L. Bocquet, Fayard, 2023) Un petit livre pour une grande découverte !
L’auteur, Lydéric Bocquet, est normalien, professeur à l’ENS et directeur de recherche au CNRS (laboratoire de physique de l’ENS). Il est membre de l’Académie des sciences et titulaire, pour la période 2022-2023, de la chaire Innovation technologique (Liliane Bettencourt) au Collège de France. L’ouvrage édité chez Fayard dans la collection «Leçons inaugurales du Collège de France» n’est autre que la transcription de sa leçon inaugurale prononcée au Collège de France le 2 février 2023.

Qui aurait l’idée de monter une expérience pour faire s’écouler de l’eau à travers un tube (un nanotube de carbone en l’occurrence) dont le diamètre est de l’ordre du nanomètre, c’est-à-dire seulement dix fois plus que la dimension d’une molécule d’eau ? Lydéric Bocquet l’a fait, inspiré par une devise d’Anne Sylvestre qu’il a faite sienne : «Là où j’ai peur, j’irai» et pour répondre à une question de son fils à propos d’un titre du journal Libération du 30 août 2005 : «Pétrole : comment s’en passer ?». La question était : «Papa, tu es chercheur ! qu’est-ce que tu ferais toi pour résoudre ça ?». Relever le défi l’a conduit à prouver que l’équation utilisée par tous les mécaniciens des fluides pour décrire les comportements des fluides en mouvement à l’échelle macroscopique, la fameuse équation de Navier Stokes (la seule équation qui figure dans son ouvrage), n’est pas suffisante pour décrire les phénomènes observés à cette échelle du nanomètre ! Lorsque le diamètre du capillaire diminue, le frottement diminue également jusqu’à s’annuler pour des valeurs inférieures à dix nanomètres, ce qui explique qu’on puisse obtenir, dans ces tubes très fins, des vitesses de passage beaucoup plus importantes que celles prévues par l’équation de Navier Stokes. Encore faut-il être capable de mesurer de si faibles débits ! La première partie du livre est consacrée à cette découverte expérimentale (rendue possible par l’utilisation d’une méthode originale pour mesurer de très faibles débits) et à l’explication qui a pu être donnée de la production simultanée d’électricité. Tout réside dans le couplage de phénomènes de natures hydraulique et électrique à la paroi du tube : Lydéric Bocquet détaille ces interactions mais il utilise une image qui facilite la compréhension : celle des interactions entre le vent et la houle. Ce chapitre, accessible à tous, passionnera sûrement les connaisseurs du domaine mais l’ouvrage ne s’arrête pas là.

Des ingénieurs ont eu vent de ces travaux : ils ont imaginé la façon de changer d’échelle par l’utilisation d’une membrane nanoporeuse pour aboutir ainsi à un procédé innovant de production d’énergie verte en récupérant l’électricité produite au passage de l’eau. C’est cette suite qui constitue la deuxième partie de l’ouvrage de Lydéric Bocquet : une analyse de ce passage de la recherche à l’innovation technologique grâce à la collaboration et aux interactions entre un laboratoire de recherche fondamentale et un groupe d’ingénieurs en quête d’une idée pour produire une énergie verte de façon continue à partir de ressources facilement disponibles et prêts à s’atteler au changement d’échelle, au travers de la création d’une startup. Le lecteur découvrira ainsi comment une membrane nanoporeuse (dont les pores ont une dimension moyenne de l’ordre du nanomètre) peut être utilisée comme une barrière semi-perméable entre de l’eau salée (eau de mer) et de l’eau douce. Dans ces conditions, un écoulement d’eau se produit naturellement entre l’eau douce et l’eau salée dans les nanopores de la membrane. L’eau douce traverse la membrane pour diluer l’eau salée : c’est le phénomène d’osmose, connu de longue date. La nouveauté qui résulte des travaux de Lydéric Bocquet c’est qu'en fonction de la membrane nanoporeuse utilisée, cet écoulement peut reproduire à grande échelle les phénomènes observées au laboratoire sur un nanotube et produire de l’électricité de façon continue. Les estuaires des grands fleuves constitueraient donc un lieu idéal pour l’installation de telles «centrales» !

Lydéric Bocquet utilise cet exemple pour illustrer la démarche qui associe chercheurs et ingénieurs innovants et permet la valorisation de la recherche fondamentale au travers de ce processus d’innovation. C’est une grande leçon, à la hauteur de l’importance de la découverte et de l’enjeu que représente son application : la production d’une nouvelle forme d’énergie renouvelable qui, dans un avenir proche, pourrait devenir la technologie dominante ! On estime en effet qu’il y aurait mille à deux mille Gigawatts de puissance osmotique récupérable dans les estuaires des grands fleuves, soit l’équivalent de mille à deux mille réacteurs nucléaires d'un Gigawatt. Pour mémoire, «aujourd’hui, il n’y a que 440 réacteurs nucléaires dans le monde», dont 56 en France ! Il s’agit donc bien d’une technologie majeure qui pourrait émerger à partir de ces travaux et de cette collaboration ! Au-delà de cette immersion dans la genèse d’une innovation, cet ouvrage est un plaidoyer pour une collaboration entre recherche et innovation, une symbiose seule capable d’apporter une réponse technologique aux défis de la transition écologique, dans les courts délais qu’impose la rapidité du changement climatique.

Jean Audouze, Marie-Christine Maurel

(L'Archipel, 2023, 240 p. 20€)

 
Du cosmos à la vie (J. Audouze, M.-C. Maurel, L'Archipel)Le livre de Jean Audouze et Marie-Christine Maurel est préfacé avec humour par Erik Orsenna, qui commence avec ces mots : «Quand je pense que j’aurais pu mourir idiot...» Eh bien, je pense comme lui que quel que soit notre niveau scientifique d’origine, cet ouvrage fait progresser nos connaissances et qu'après l’avoir lu, on est fier de ce que la science est capable de découvrir et de transmettre.
Le livre nous transporte de façon pédagogique depuis le Big Bang, en passant par la création de la Terre, jusqu’à l’apparition d’Homo sapiens. Les auteurs nous rappellent au fur et à mesure les connaissances nécessaires en physique, biologie, mais aussi en histoire des sciences, qui permettent d’appréhender le très bon niveau scientifique de l’ouvrage.

L’aventure commence par la théorie du Big Bang, qui n’est peut-être pas le début du monde mais les connaissances actuelles en physique ne permettent pas de remonter plus avant. On y voit l’apparition des premières particules et des premiers noyaux. Au bout de 300 000 ans, les premières étoiles et les galaxies, dont le Soleil, apparaissent. On est rassuré de savoir que la taille du Soleil étant relativement petite, cela lui confère une durée de vie plus longue que ses congénères de grande masse.
En tant que chimiste, je suis heureux de trouver, dans le quatrième chapitre, l’apparition des éléments chimiques. On découvre les différents processus qui, en partant de la nucléosynthèse initiale, créent le carbone 12, qui est un maillon essentiel de la vie, et les atomes plus lourds comme le fer.
L’origine du Système solaire est ensuite décrite, avec le Soleil qui est une étoile parmi les centaines de milliards de la Voie lactée. La Terre quant à elle est un cas particulier parmi les cent milliards de planètes de la galaxie car sur elle se sont trouvés tous les ingrédients et les conditions de la vie. On sait par ailleurs maintenant, grâce à la sonde Rosetta Philae, qu’on peut trouver sur d’autres corps célestes (la comète Tchouri en l’occurrence) des briques élémentaires de la vie que sont les acides aminés.
Le chapitre suivant intitulé «La vie sur la planète bleue» nous conte l’évolution des connaissances sur l’apparition de la vie. On débute par les découvertes des précurseurs Linné, Lamarck et Darwin, et l’on va jusqu’aux dernières découvertes de la biologie.
Les transformations du monde vivant sur Terre sont ensuite étudiées depuis l'Hadéen jusqu’au Phanérozoïque. On y découvre la disparition de la vie vers moins deux milliards d’années, due à la pollution par l’oxygène, suivie d’une cinquantaine de vagues d’extinctions et de changements climatiques jusqu’aux Hominidés. Cette partie se termine par une revue des causes du nouveau changement climatique qui, contrairement aux précédents, n’est dû qu’à l’activité humaine.
La conclusion rappelle les grandes lignes de l’évolution du monde et se termine par un aspect positif : le progrès dû aux connaissances scientifiques, et un aspect négatif : l’inquiétude devant les défauts du comportement humain.
A la fin de l’ouvrage, un glossaire très complet permet de définir les nombreux mots scientifiques potentiellement peu ou mal connus des lecteurs.

Ce livre, qui nous conte l’état des connaissances scientifiques sur l’évolution du monde, depuis le Big Bang jusqu’aux problèmes des humains actuels, a vocation à être lu par tout un chacun, et les grandes lignes de son contenu devraient faire partie des connaissances de base de l’ensemble de la population. Cela participerait à la limitation de l’obscurantisme ambiant de plus en plus inquiétant qui sévit sur la planète.

Bertrand Piccard

(Pocket, 2023, 208 p. 7,70€)

 
Réaliste (B. Piccard, Pocket, 2023)On ne présente plus Bertrand Piccard, qui a réalisé deux premières aéronautiques : le tour du monde en ballon sans escale (1999) et le tour monde en avion solaire avec escales (2016). Son grand-père, Auguste, explora la stratosphère. Son père, Jacques, parcourut les abysses ; il dénonça, avec le Club de Rome, la chimère d’une croissance mondiale sans limite (1972). Bertrand a hérité de la fibre écologique de ses parents. Le titre de son livre, publié il y a deux ans et réédité aujourd’hui en poche, résume bien son credo environnementaliste : Réaliste. Soyons logiques autant qu’écologiques.

Les scientifiques nous alertent depuis les années quatre-vingt sur le changement climatique, mais aussi sur la pollution de l’air, de l’eau, des sols, des aliments. L’auteur n’est pas tendre pour ceux qui ne veulent pas entendre : «Aujourd’hui, l’ignorance s’apparente plutôt à de la bêtise».
Bertrand Piccard est favorable à la décroissance, mais il sait que la population n’adhèrera pas à un tel objectif : les citoyens privilégient un modèle économique qui assure leur confort et les plus démunis veulent améliorer leur niveau de vie : «Cela a-t-il du sens de parler de fin du monde à ceux qui n’arrivent pas à boucler leurs fins de mois?».

D’où le choix par Piccard d’une «croissance qualitative» qui protège l’environnement tout en étant financièrement rentable et créatrice d’emplois. Il veut réconcilier écologie et économie. Exemple : le producteur d’électricité Engie investit chez ses clients pour réduire leur consommation et partage avec eux les gains réalisés. Autre exemple : Procter & Gamble invente une poudre de lessive pour laver à froid. La fondation Solar Impulse de Bertrand Piccard a ainsi identifié et certifié 1500 solutions rentables et innovantes pour améliorer l’environnement dans les domaines de l’eau, l’énergie, la mobilité, les constructions, l’industrie, l’agriculture. Elles sont toutes décrites sur le site www.solarimpulse.com, impressionnant catalogue qui montre la vitalité des acteurs du domaine et l’extrême diversité des solutions. L’auteur se livre à quelques exercices de prospective et nous décrit la situation dans chaque domaine où ces solutions seront implémentées.

Piccard pourfend les écologistes intégristes qui refusent tout compromis. «Le fanatisme de certains amoureux de la Nature ralentit autant la protection de l’environnement que l’égoïsme des nouveaux libéraux», écrit-il. Et il déclare à un intégriste vert : «Vous essayez d’arriver à tout avec le grand risque de n’arriver à rien. Moi, j’essaie peut-être de n’atteindre que la moitié, mais je pense y parvenir». Tout le pragmatisme de Piccard est résumé là.

Pour sortir de la paralysie actuelle et mobiliser la population, il faut parler plus de pollution et pas seulement de réchauffement climatique. La pollution de l’air par les particules, de l’eau, du sol et des aliments par les engrais et les pesticides tue neuf millions de personnes par an dans le monde. Ce n’est pas la planète qu’il faut sauver, c’est nous! Voilà une cause plus mobilisatrice que le climat. «Qui sera d’accord pour renoncer maintenant à sa voiture afin d’éviter que le pôle Sud fonde d’ici trente ans?», demande l’auteur. Heureuse coïncidence : pour purifier l’air, on doit réduire les énergies fossiles et donc les émissions de CO2 et donc le réchauffement climatique!

Le rôle des Etats est primordial. Les normes environnementales doivent être durcies. L’auteur rappelle l’épisode des pots catalytiques imposés avec succès par l’Etat, en dépit des fortes pressions de l’industrie automobile, pour le plus grand bien de nos poumons.
Le CO2 doit être taxé pour tenir compte de son effet néfaste sur le climat mais le montant total des taxes ainsi perçues doit être redistribué également parmi tous les citoyens. Un système qui rend la mesure acceptable et récompense la sobriété carbone.

Dans son enthousiasme, l’auteur oublie parfois d’exposer les inconvénients de ses solutions. Ainsi, le scénario 100% renouvelable en 2050, qu’il préconise pour la production d’électricité, entraîne des «paris technologiques lourds» selon le RTE [1]. De même, l’acceptation par les riverains des grands parcs éoliens et solaires ainsi que des bassins de stockage hydraulique est loin d’être acquise.
On peut aussi regretter que l’auteur n’aborde pas le sujet de la surpopulation, une variable essentielle dans l’équation environnementale, de son propre avis.

Malgré ces quelques réserves, il reste que ce livre est rafraîchissant : son approche pragmatique, respectueuse de l’individu, originale, optimiste, tournée vers l’action concrète est une bouffée d’oxygène dans le monde de l’écologie.
 

[1] RTE : Réseau de transport d’électricité : Futurs énergétiques 2050 (octobre 2021).

Mike Goldsmith

(EDP Sciences, 2023, 168 p. 12€)

 
Les ondes (M. Goldsmith, EDP Sciences)Observons une «ola» dans un stade : chaque participant se lève juste après son voisin ; ses seuls mouvements sont verticaux, mais l’ensemble montre une vague, qui se déplace latéralement dans les tribunes. C’est l’essence d’une onde. De la même façon, observons la mer, loin du rivage : la crête de la vague avance, mais le ballon qui flotte ne bouge que de haut en bas. Ecoutons le son d’une cloche lointaine : le son nous parvient, et pourtant l’air qui le transporte reste immobile. Les ondes sont des entités fascinantes et omniprésentes. Mike Goldsmith, astrophysicien et acousticien, nous présente ce monde captivant dans un petit livre de quelque 150 pages.

Les ondes les plus faciles à observer sont les vagues de la mer : elles naissent de petites perturbations créées par le vent, qui se transmettent de proche en proche et peuvent voyager des milliers de kilomètres durant des semaines. L’eau ne suit pas le mouvement. Seule l’onde se déplace. L’auteur explique les schémas complexes d’interférences entre les vagues de vitesses différentes.
Il décrit les types de vagues, leurs formes selon une courbe mathématique appelée «trochoïde», les tsunamis et les marées, qui sont aussi des ondes.

Les ondes sonores résultent de petites variations de pression de l’air, ou de toute autre substance, qui se propagent de proche en proche. La hauteur du son, plus ou moins aigu, capté par notre oreille, correspond à la fréquence de ces variations (entre 20 et 20 000 par seconde ou hertz). Notre système auditif est incroyablement performant. On peut percevoir 5000 hauteurs de sons distinctes (et seulement 128 couleurs). On peut détecter un son infime qui déplace notre tympan d’un diamètre d’atome ! Les multiples ondes sonores qui nous atteignent simultanément ne se mélangent pas et on peut les identifier individuellement.
Un fait intrigant : bien qu’inaudibles, les infrasons produisent sur nous des effets émotionnels, attestés expérimentalement, mais inexpliqués.
L’auteur explique les effets du déplacement de la source sonore tels que l’effet Doppler, mais aussi le claquement d’un fouet, qui n’est autre qu’un bang supersonique !

La Terre est secouée par les ondes. Un glissement soudain de plaques tectoniques à 700 km sous terre déclenche des trains d’ondes destructrices dans les couches élastiques du manteau terrestre, provoquant un tremblement de terre. On scrute les ondes sismiques pour surveiller, mais aussi cartographier, notre sous-sol.

L’être humain n’échappe pas aux ondes. Le cerveau émet des ondes cérébrales de quelques hertz (similaires à celles de la pieuvre !). Le cœur contient un oscillateur naturel. Le tube digestif est agité par une ondulation qui se propage de la gorge au rectum, selon un rythme circadien. Nos jambes sont des pendules : la marche synchronisée sur leur fréquence de résonance est la plus efficace.

Les ondes électromagnétiques constituent le plat de résistance du livre. A partir de ses équations reliant les champs électrique et magnétique, Maxwell postule l’existence de ces ondes (1865). La lumière en fait partie ; avec son éther, une substance imaginée depuis des siècles comme support matériel de ses vibrations, Hertz produit en laboratoire une onde radio prédite par Maxwell (1886). En 1905, Einstein donne le coup de grâce à l’éther et affirme que les ondes électromagnétiques peuvent exister dans le vide, sans support matériel.
L’auteur expose les particularités de chacune de ces catégories d’ondes : radio, micro-ondes, infrarouge, lumière, ultraviolet, rayons X et rayons gamma.

Les travaux de Planck sur les quantas (1900), ceux d’Einstein sur l’effet photoélectrique (1905) et ceux de de Broglie sur les «ondes de matière» (1924) sonnent finalement le glas du modèle ondulatoire de Maxwell. Dans la réalité, ces ondes sont des flux de particules, les photons, régis par la mécanique quantique, que l’auteur nous présente brièvement. Le physicien américain Richard Feynman a pu rendre compte de tous les comportements de la matière et de l’énergie sans parler d’onde d’aucune sorte.
Le modèle ondulatoire doit être abandonné comme image de la réalité, mais il reste un outil de prédiction puissant et indispensable du comportement des ondes électromagnétiques.

Les ondes gravitationnelles sont les petites dernières de ce vaste panorama. Prédites par Einstein, elles ont été détectées à partir de 2016, au prix de véritables prouesses techniques. Elles permettront d’observer des évènements remontant jusqu’au Big Bang, car non sujettes à l’opacité du début de l’Univers (380 000 ans). Le projet LISA prévoit d’installer trois satellites détecteurs dans l’espace. Une nouvelle branche prometteuse de l’astronomie est ouverte.

Ce livre est très dense en informations et sa lecture demande une bonne concentration. Les explications sont claires et plus physiques que mathématiques. L’ouvrage est, de ce fait, ouvert à un large public.

Yves Agid

(Albin Michel, 2023, 208 p. 20,90€)

 
Le cerveau, machine à inventer (Y. Agid, Albin Michel, 2023)Yves Agid est professeur de neurologie émérite à l’université Pierre et Marie Curie et a joué un rôle très important pour la création de l’Institut du cerveau à Paris, centre de recherche d’excellence localisé à l’hôpital de la Salpêtrière.
Dans cet essai, il se livre à une réflexion sur la découverte et propose une démarche en trois étapes : (1) une analyse des étapes successives d’une découverte ; (2) l’identification des principaux déterminants requis pour faire une découverte, accompagnée de la description des principaux profils types de «découvreurs» ; (3) et enfin la nature des circuits de neurones cérébraux qui sont mis en jeu pour faire une découverte. Le but qu’il se fixe est de reconnaître les mécanismes qui peuvent conduire à faire une découverte.
Il est bien conscient du caractère ambitieux de son propos mais il se donne une certaine légitimité car, dit-il, «même si je n’ai jamais fait de grandes découvertes, j’aime les chercheurs comme j’aime la science». Et il met au service de cette ambition une démarche associée à une écriture simples qui rendent la lecture de ce livre et sa compréhension faciles.

La première partie s’intitule «Faire une découverte, comment ?». Partant du principe que découvrir, «c’est ce qui était inconnu ou caché», il reprend la description des quatre phases cognitives du processus de découverte élaborée par Graham Wallas : préparation, incubation, illumination, vérification : «Je m’étonne ; je me questionne, ce qui peut me donner des idées ; je cherche, la réponse me survient sous la forme d’une illumination ; je vérifie.»
Yves Agid cite en exemple la découverte fortuite des «neurones miroirs» qui jouent un rôle dans la représentation de ce que fait un partenaire, comme si ces neurones permettaient d’inférer ce qui se passe dans le cerveau de l’autre, par exemple dans le phénomène d’empathie.
L’idée qui mène à la découverte le plus souvent ne vient pas par hasard (ce qui serait exceptionnel) mais d’un raisonnement logique, parfois même à partir d’une idée fausse ! En fait, la recherche est une construction laborieuse, consciente et subconsciente, mais rarement une découverte se fait en toute conscience, bien qu’il n’y ait pas de consensus sur la signification du mot conscience. Aujourd’hui, même un génie ne fait plus une découverte tout seul, les découvertes ne peuvent plus être que collectives et ubiquitaires.

La deuxième partie s’intitule «Qu’est-ce qui conduit à faire une découverte ?». La science, en permettant la création d’un cercle vertueux, fait progresser la société, qui fait progresser la science. Généralement, les grandes découvertes suivent toujours ou presque une rupture technologique. En neurobiologie, par exemple, les grandes évolutions scientifiques ont toutes été dépendantes des progrès en amont des physiciens et des chimistes par la mise au point de nouvelles technologies qui ont permis à chaque fois de franchir un grand pas dans la compréhension d’un processus, comme par exemple la découverte de l’imagerie par résonnance magnétique fonctionnelle, qui réalise l’étude du fonctionnement du cerveau d’un sujet in vivo en temps réel et qui a permis le développement de l’exploration du cerveau. Qui sont donc les «bons» scientifiques, et parmi eux les «bons» découvreurs ? Pour répondre à cette question, Yves Agid cherche à décrire quelle est la personnalité du découvreur et pour cela propose quatorze exemples de personnalités de chercheurs, depuis le «théoricien visionnaire» jusqu’au «chercheur fou inutile» !

Dans la troisième partie, «Les déterminants de la découverte», Yves Agid cherche à interpréter ses hypothèses en s’appuyant sur les éléments de la neurobiologie, tels que les neurones modulateurs cérébraux de ce qu’il appelle l’élan vital, ensemble de facultés mentales qui nous poussent à agir et assurent notre survie ; ou bien les différentes connexions neuronales dans le cerveau. Et bien sûr, il cite l’importance de l’irruption de l’informatique et de l’intelligence artificielle en faisant référence au développement des réseaux de neurones formels, outils mathématiques dont le fonctionnement s’inspire directement du fonctionnement physiologique des neurones. Par exemple, il cite le programme de Google, AlphaZero, en 2017, qui a battu le champion du monde des échecs (28 victoires, 72 parties nulles). Parmi les qualités requises pour faire une découverte, il cite la mémoire et l’imagination, tout en se posant la question de savoir de qui passe dans le cerveau quand on imagine. Et, «in fine, écrit-il, le cortex frontal est l’épicentre de la découverte» car «il joue un rôle dans la conceptualisation de tous les comportements».

Enfin, dans sa conclusion, Yves Agid trace les chemins de la découverte en cherchant à identifier qui est le futur découvreur et en soulignant le fait que faire des découvertes, cela s’apprend, mais c’est surtout un travail collectif.
Ce livre s’adresse donc à un large public, qui sera intéressé par le monde de la recherche et des chercheurs, même si son contenu ne porte pas trop sur le cerveau «comme machine à inventer» comme l’annonce le titre, mais plutôt sur les chemins de la découverte.

Guillaume Lachenal, Gaëtan Thomas

(Autrement, 2023, 96 p. 24€)

 
Atlas historique des épidémies (G. Lachenal, G. Thomas, Autrement)Un livre de 96 pages mais qui mériterait d’en faire le double, tant les informations sont riches, le contenu très illustré et les données chiffrées nombreuses.
Ce livre est conçu en cinq chapitres – La planète des pandémies, Les détectives des maladies infectieuses : la culture visuelle de l’épidémiologie, Les territoires de l’épidémie : une géographie politique, Lieux de confinement : de l’enfermement à l’invention de soi, Environnements pathogènes – complétés par une bibliographie de deux pages.
Chaque sous-chapitre, entre cinq et neuf selon le chapitre, est traité en deux pages. On s’approprie ainsi le propos très rapidement. Certains graphiques, par exemple le Global Security Index, demandent cependant quelque temps d’appropriation.

On remonte «loin», au Néolithique avec les épidémies de rougeole et de variole, puis les pandémies de peste et de fièvre jaune, puis celles de la grippe ou le choléra. Les causes sont présentées : l’invention de l’agriculture et la domestication du bétail, le commerce, les transports, l’urbanisation... ou le lien pauvreté-épidémie avec le cas du choléra à Paris entre 1820 et 1830. L’hypothèse zoonotique est discutée. Un schéma sur l’émergence des salmonelles pathogènes et la révolution néolithique est très parlant, ou celui de la peste justinienne avec les preuves archéo-biologiques de la présence de Yersinia pestis dans différentes villes en fonction de l’extension de l’Empire romain d’Orient sous Justinien.
Un chapitre souligne «le rêve de l’éradication» suite à la révolution bactériologique due aux travaux de Pasteur et de Koch, l’arrivée des vaccins et des antibiotiques. Le XXe siècle s’est particulièrement illustré dans cette lutte contre les épidémies, cancers et maladies cardiovasculaires supplantant ainsi les infections dans les statistiques de mortalité.
Une pépite, la fameuse carte de John Snow, médecin anesthésiste de Londres, publiée en 1855 : Snow visualise les décès dus au choléra dans le quartier de Soho et met en évidence le rôle d’une pompe à eau dans Broad Street. C’est la démonstration du rôle de l’eau dans la transmission du choléra et la reconnaissance de Snow comme fondateur de l’épidémiologie par beaucoup d’entre nous.
Le chapitre le plus scientifique est peut-être celui traitant de l’épidémiologie moléculaire. L’apport de la bio-informatique et des techniques de séquençage du génome se révèlent extrêmement efficaces ; rappelons que la séquence de l’ARN du Sars-CoV 2 a été publiée dès le 10 janvier 2020 !
Avec l’exemple de la maladie de Lyme (due à une bactérie du complexe Borrelia burgdorferi sensu lato transmise à l’être humain par des tiques infectées), les auteurs démontrent le rôle essentiel de la transformation des paysages périurbains dans la progression épidémique de cette borréliose. L’incidence de la maladie est de plus de 500 000 cas chaque année, principalement en Europe et en Amérique du Nord.

Cet ouvrage démontre la nécessité d’une approche géopolitique pour comprendre l’évolution du monde vivant. Il est écrit par deux universitaires, un historien des sciences, Guillaume Lachenal, et un historien, Gaëtan Thomas, tous deux membres du médialab de Sciences Po, et avec la participation de Fabrice Le Goff pour la cartographie. Ces auteurs terminent l’ouvrage par une conclusion intitulée «Les épidémies autrement», titre qui résume bien l’impression que laisse la lecture de cet atlas.

Anna Reser, Leila MacNeil

(Belin, 2023, 272 p. 24,90€)

 
Forces de la nature. Ces femmes qui ont changé la science (A. Reser, L. MacNeil, Belin)Les femmes brillent par leur absence dans l’histoire des sciences. Et c’est une injustice selon les historiennes Anna Reser et Leila McNeil. Leur livre nous présente une impressionnante galerie de portraits de femmes, anonymes ou méconnues, «qui ont changé la science». Morceaux choisis :

Dans les mondes antique et médiéval, les femmes sont guérisseuses et sages-femmes, et les plantes médicinales sont leur chasse gardée. Leur accès à l’éducation et à la vie publique est fermé.

A partir du XVIIe siècle, quelques-unes parviennent à percer la muraille.
Maria Cunitz publie un livre de calculs d’astronomie en allemand (1650), destiné à un public profane, et corrige même des erreurs du grand Kepler.
Nicole Lepaute, épouse de l’horloger de Louis XV, calcule avec succès la date du retour de la comète de Halley, recueillant les éloges publics de l’astronome Lalande.
Marie-Anne Lavoisier, l’épouse du grand chimiste, traduit pour son mari les chimistes anglais et illustre ses livres. «Il est probable qu’il ne serait arrivé à rien sans l’aide de Marie-Anne», déclarent les auteures sans toutefois étayer cette affirmation discutable.

La botanique est le domaine privilégié des femmes.
La naturaliste allemande Maria Merian part au Suriname, à 52 ans, seule avec sa fille, pour y étudier les insectes (1699) durant vingt-et-un mois. Elle en tire un magnifique ouvrage, Metamorphosis, un chef-d’œuvre de l’histoire naturelle. Merian était aidée au Suriname par des esclaves, et les auteures déplorent, avec leurs yeux du XXIe siècle, «l’absence de vergogne des scientifiques européens qui exploitent à leur compte les savoirs des personnes qu’ils asservissaient».
Première femme à faire le tour du monde, la Française Jeanne Barret a dû se travestir en homme au départ de l’expédition scientifique dirigée par Louis de Bougainville (1766). A son retour, la Marine royale lui accorde le titre de «femme extraordinaire», et une retraite !

La vulgarisation scientifique est en vogue au XIXe siècle et les femmes s’y distinguent.
Jane Marcet assiste aux conférences de la Royal Society (1801) à Londres puis publie un livre, Conversations on Chemistry, qui bat des records de vente (seize éditions, les premières étaient anonymes). C’est en lisant ce livre que le jeune Michael Faraday, apprenti-relieur, décide de se consacrer à la science. Il deviendra l’un des plus grands savants de l’histoire.
Elisabeth Elmy a mis la science au service de son activisme féministe. Elle utilise la botanique pour initier les enfants, puis les adultes, à la sexualité humaine (1895).

De 1880 à 1930, c’est l’ère des étonnantes «dames calculatrices» dans les observatoires astronomiques du monde entier. Des centaines de femmes scrutent des milliers de clichés photographiques, calculent la position des étoiles, mesurent leurs distances et leur luminosité. Certaines vont au-delà de ces calculs répétitifs : ainsi, on attribue à Williamina Fleming, de Harvard, la découverte de dix novæ, cinquante-neuf nébuleuses et plus de trois-cents étoiles variables.

Au tournant du XXe siècle, les féministes revendiquent la libre procréation. Ce mouvement se fond parfois avec le courant eugéniste, qui cherche à limiter la reproduction de certaines catégories de population. Margaret Sanger utilise la rhétorique eugéniste pour promouvoir le contrôle des naissances et ouvre la première clinique à New York en 1916.

Bertha Parker, petite-fille du chef des Abénakis, une tribu indienne de l’Est du Canada, apprend l’archéologie dans le désert du Nevada : ses découvertes relancent le débat sur l’arrivée des humains en Amérique du Nord (1930). Selon les auteures, elle a «humanisé une science [l’archéologie] jusqu'alors farcie de croyances racistes» et rendu leur fierté aux peuples indigènes.

La biologiste Rachel Carson publie Silent Spring en 1962. Elle y dénonce les effets dévastateurs du pesticide DDT, qui sera interdit en 1972. C’est le début du mouvement écologiste. Une autre femme, Ellen Richards, professeur au MIT, révèle la pollution problématique de l’eau par les déchets industriels, notamment les dérivés du chlore.

Ce florilège ne représente qu’une petite portion des deux-cent-cinquante pages du livre et ses quelque soixante-dix personnages féminins. Les auteures ont choisi de ne pas inclure la star Marie Curie pour mieux sortir les autres de l’ombre. De même, Hypathie d’Alexandrie, mathématicienne et astronome du Ve siècle, est juste évoquée. Lise Meitner, découvreuse de la fission nucléaire (1938), n’a droit qu’à quelques lignes, et des femmes remarquables comme Emilie du Châtelet, Sophie Germain ou Ada Lovelace ne sont pas mentionnées.
Mais l’exhaustivité est impossible et les auteures sont libres de leurs choix. Par l’abondance et la qualité des personnalités présentées, la plupart méconnues, ce livre est très instructif et éclaire l’histoire des sciences d’une lumière nouvelle.

Johan Kieken

(CNRS Editions, 2023, 256 p. 25€)

 
L'eau dans l'Univers (J. Kieken, CNRS Ed., 2023)L’eau est indispensable à la vie. De ce fait, elle attire les faveurs des astronomes qui la traquent dans tous les recoins de l’Univers. Johan Kieken, planétologue, dresse ici un panorama détaillé de nos connaissances sur la présence de cette «précieuse substance» dans l’espace.

L’eau affiche des propriétés exceptionnelles. Elle amortit les variations de température ; elle a un fort pouvoir refroidissant par évaporation ; elle est un excellent solvant ; elle défie la gravité en montant dans les tiges des plantes ; la glace flotte sur l’eau liquide, qu’elle protège thermiquement et empêche de geler, préservant ainsi la vie dans les lacs et rivières.
L’eau existe à l’état pur, mais aussi (et surtout ?) dans des composés hydratés. L’hydrate de méthane abonde sur Terre, dans les fonds marins et le sol gelé (pergélisol), et probablement sur d’autres planètes.

Pour détecter la molécule d’eau dans l’espace, la spectroscopie est une technique d’une étonnante efficacité. L’eau, comme toute autre molécule, émet un rayonnement qui lui est propre. Réciproquement, lorsqu’elle est exposée à un rayonnement, l’eau absorbe certaines longueurs d’onde bien définies. Les spectres d’émission et d’absorption de l’eau sont ses signatures. Ils s’étendent depuis les rayons ultra-violets jusqu’aux ondes radio, et diffèrent selon la phase : vapeur, liquide ou glace.

On rencontre la molécule d’eau dans tous les objets célestes, y compris les étoiles. On l’a détectée en grande quantité dans le spectre d’un quasar tel qu’il était il y a 12 milliards d’années. Plus près de nous, à quelque mille années-lumière, la nébuleuse d’Orion est le siège d’une intense émission de micro-ondes trahissant une forte présence d’eau.

L’auteur nous embarque pour un tour commenté du Système solaire.
Sur Mercure, aux températures torrides, l’eau venue de l’espace est tapie, glacée, au fond de cratères qui ne voient jamais le Soleil. Sur Vénus, l’eau liquide coulait jadis en abondance et a totalement disparu.
La Terre est le seul objet connu de l’Univers où coexistent en surface les trois phases : vapeur, liquide, glace. Les océans n’existaient pas à l’origine de la Terre. D’où viennent-ils ? du manteau hydraté de la Terre ou des météorites ? Il n’y a pas encore de réponse définitive.
Mars a perdu son atmosphère et son eau liquide au cours d’une histoire complexe.
Entre Mars et Jupiter, la ceinture des 800 000 astéroïdes, où l’eau est peu présente, constitue la source principale des météorites et de la poussière que la Terre reçoit en permanence (30 000 tonnes par an).
Les anneaux de Saturne sont faits de glace presque pure et se régénèrent sans cesse.
Europe, un des satellites de Jupiter, mérite le détour. Un océan d’eau liquide pourrait se cacher sous la croûte de glace de plusieurs kilomètres. «Il n’est pas impossible que la vie ait pu s’y développer», s’enthousiasme l’auteur. La sonde européenne JUICE (Jupiter Icy Moons Explorer), munie d’un radar, vient d’être lancée (avril 2023) et arrivera sur place dans sept ans ! «L’astronomie est vraiment une école de patience», fulmine l’auteur.

Les «exoplanètes» sont les planètes gravitant dans un autre système solaire. Sans surprise, elles constituent le terrain de chasse favori des chercheurs d’eau. La détection directe d’une exoplanète est une prouesse technique qui revient à repérer à 100 km une luciole tournant à 1 m autour d’un puissant phare. La détection indirecte consiste à observer les infimes perturbations périodiques que la planète induit au mouvement ou à l’éclat de son étoile. A ce jour, on a identifié 5000 exoplanètes.
Trappist-1 est une étoile, baptisée ainsi par l’université de Liège, située à 40 années-lumière, dans la constellation du Verseau. Elle détient un record : quatre de ses sept planètes sont en «zone habitable», ce qui signifie que l’eau liquide en surface est possible. L’une est même très semblable à la Terre du point de vue masse, taille, densité, pesanteur et irradiation. Elle est une cible du télescope spatial James Webb, lancé il y a un an.

En conclusion, la quête de l’eau dans l’Univers est encore une science balbutiante. L’auteur expose plus des hypothèses à vérifier que des certitudes.
Il complète son propos par des sujets connexes tels le processus de formation des étoiles et du Système solaire, la structure interne de chaque planète, la tectonique des plaques, les courants de convection, l’effet de la forme de l’orbite, de l’inclinaison de l’axe de rotation, de la présence de satellites, la spectroscopie des atomes et des molécules gazeuses, liquides, et solides, ainsi que leur explication quantique.
Ce livre est très riche en informations spécialisées, illustrées par de nombreuses figures, courbes et photos de grande qualité. Il s’adresse à l’étudiant au niveau universitaire ou à l’autodidacte avisé.

Gérard Brand

(EPP Sciences, 2023, 234 p. 22€)

 
L'odorat des animaux (G. Brand, EDP Sciences, 2023)Chez beaucoup d'espèces animales, les stimuli olfactifs jouent un rôle excessivement important dans leurs comportements : marquage du territoire, recherche de nourriture, comportements sociaux, comportements sexuels, comportements d'évitement du danger...

L'auteur présente, pour quarante espèces différentes allant de l'escargot aux cétacés en passant par le mandrill, les spécificités du système olfactif sur le plan physiologique mais aussi sur le plan comportemental, en mettant en évidence à chaque fois les caractéristiques particulières, ainsi : comment le kiwi détecte les vers de terre, comment le saumon retrouve sa frayère d'origine, comment les vautours détectent les charognes, pourquoi le moustique pique l'homme, à quoi sert le mucus des escargots, la puissance de l'odorat de la truie...

L'auteur fait référence à des études très récentes ou en cours qui montrent que ce secteur de recherche est en plein développement.

Ce livre met clairement en évidence, d'une part l'interaction permanente entre les différents systèmes sensoriels olfactif, auditif, visuel, gustatif et autres, d'autre part la complexité des systèmes olfactifs et les performances incroyables qu'ils permettent selon les espèces.

Bien que comportant de nombreuses citations d'articles scientifiques, le livre est agréable à lire et permet d'entrevoir un secteur scientifique en plein foisonnement et porteur de perspectives extrêmement spectaculaires.