Penseur

mercredi, novembre 29, 2006

La cuisine moléculaire sans Hervé This ??

, je ne comprends pas... Parler de cuisine moléculaire, sans parler d'Hervé This ? Ok, l'article parle de Feran Adria, sacré meilleur cuisinier du monde et brillant représentant de la discipline, mais tout de même...


Hervé This est un chercheur particulier, parfois critiqué pour un certain manque de rigueur (peut-être parce qu'il n'est pas assez pète-sec), mais salué pour sa grande originalité. Il a fondé l'improbable discipline de la "gastronomie moléculaire". Son idée est d'utiliser les outils de la chimie et de la physique pour analyser les "recettes de grand-mère", et pour ensuite proposer de nouvelles techniques, et elle a eu un large succès auprès du grand public. Si vous n'avez pas d'idée de cadeau pour Noël, ses livres sont disponibles chez votre épicier habituel.

Elle a aussi séduit les meilleurs chefs cuisinier (dont, justement, Ferran Adria, ou Pierre Gagnaire), qui ne se sont pas trompés sur les opportunités de créer des textures et des goûts nouveaux. Elle a, enfin, convaincu la communauté scientifique : Hervé This a maintenant une chaire au Collège de France.

La gastronomie moléculaire, c'est l'occasion de pratiquer de la belle science, d'apprendre de la belle chimie, tout en préparant des plats originaux (et bons...). Je vous laisse avec cette vidéo d'un de ses conférences, diffusée par canalU, ou il présente quelques travaux. Il y a aussi ces podcasts de RadioFrance, qui peuvent être intéressants (mais j'insite, prenez le temps de regarder la vidéo de CanalU. N'hésitez pas à zapper jusqu'à, un peu avant la moitié, son extraordinaire oeuf à 65°).

Lire la suite

mardi, novembre 28, 2006

On a marché sur l'eau (et un peu de Maïzena)

Je ne sais pas pour vous, mais j’ai un grand intérêt pour le comportement des gels, des mousses, des slimes et autres silly putty. Leurs comportements étranges – parfois liquides et parfois solides, élastique à certains moments et visqueux à d’autres – m’amusent et m’intriguent.

Un premier type de matériaux amusants à la frontière entre liquides et solides sont les fluides à seuil. Cela signifie qu’ils ne se comportent comme des fluides qu’à partir du moment où une force suffisamment importante est exercée sur eux. En dessous de cette force minimale, ils se comportent comme des solides. Un exemple pratique est la peinture anti-coulure, qui est fluide quand on la remue dans le pot, mais qui ne coule pas sur le mur. Un autre exemple, culinaire cette fois[1], est à chercher du côté des œufs en neige. D’une, voilà une bien étrange recette, où le mélange de blancs d’œufs liquides et d’air produit un solide. De deux, voilà-t’y-pas que ce solide, qui accroche au saladier retourné[2], s’étale sans problème sur la tarte au citron pour faire la meringue, sans opposer de résistance.

Ah, et encore un autre exemple : une fine poudre d’argile dans de l’eau produit un gel, même à de très faibles concentrations (quelques pourcents). En effet, les petites particules d’argiles sont chargées électriquement, ou plutôt polarisées (une charge différente à chaque extrémité), et s’assemblent rapidement en longues chaînes. Dans la démonstration que j’ai eu la chance de voir, les particules étaient de taille nanométrique, et s’assemblaient presque instantanément. Par contre, la force qui lie les particules entre elles n’est pas très importante, et le moindre choc brise l’assemblage et fait retourner le gel à son état de liquide. Il re-gélifie ensuite tout aussi vite, et « fige » les vagues et les gouttes en plein mouvement. C’est très joli[3] !

Une seconde catégorie, toute aussi amusante que la première, est celle que l’on appelle fluides viscoélastiques. Comme leur nom l’indique, ces fluides présentent à la fois un aspect visqueux, donc déformable, et un aspect élastique, tendant à ramener le fluide à sa forme initiale quand la force responsable du mouvement disparaît. L’effet qui va dominer va dépendre, en fait, de l’échelle de temps durant laquelle la force « déformante » va être appliquée. A temps courts, c’est-à-dire pour un choc bref, l’élasticité domine, et le matériau se comporte comme du caoutchouc. A temps longs, en appliquant par exemple une pression ou une traction régulière, la viscosité est dominante, et le matériau flue comme un liquide.

Le premier membre de cette étrange famille est le Silly Putty : cette pâte de silicone fait le bonheur des enfants (et la richesse de ses fabricants) grâce à ses propriétés étonnantes. Une boule de Silly Putty rebondit sur une table comme du caoutchouc (mieux, même), mais s’écoule comme un liquide si on la laisse tranquille (l’illustration de l’article vient de Flickr). Tout est une affaire d’échelle de temps… D’ailleurs, si l’on passe en-dessous de l’échelle de temps correspondant à la réaction élastique, on en arrive à un comportement de verre : voyez cette vidéo dans laquelle une boule de 25 kg est jetée du haut d’un immeuble.

Un autre exemple impressionnant est l’amidon de maïs[4] dilué dans de l’eau. Même à de faibles concentrations, le liquide s’épaissit (c’est pour cet effet qu’il est utilisé en cuisine), et présente une élasticité que vous pourrez constater sur la vidéo suivante. Remarquez la façon dont les personnes rebondissent quand elles bougent vite les jambes, et comme elles s’enfoncent dès qu’elles ralentissent. Encore et toujours une affaire d’échelle de temps…



[1] La cuisine fournit de nombreux exemples de matériaux étranges, et je ne parle pas que de mes expériences gastronomiques.

[2] Enfin, pas les miens.

[3] Mais impossible de trouver sur le web une illustration…

[4] La Maïzena, pour les cuisiniers.



Lire la suite

lundi, novembre 27, 2006

JoVE, un Youtube scientifique ?

Le Doc et Enro ont parlé de JoVE, Journal of Visualized Experiments. L'idée est de mettre en ligne des vidéos, un peu comme chez Youtube ou Dailymotion, mais uniquement dans le domaine des expériences de biologie. Comme l'information fait du buzz, je me plie aux règles non-écrites de la course à l'audience, et j'en parle. Comme dirait Jules de chez Diner's Room : on ne me demande pas mon avis, donc je le donne. Le voici : je suis enthousiaste, sceptique, et déçu.



Je suis enthousiaste sur le principe du site : si le site prenait de l’ampleur, et que les vidéos les plus curieuses et les plus amusantes étaient reprises sur divers sites et blogs, il y aurait là de quoi démystifier le travail de laboratoire en biologie, et le rendre plus humain et plus compréhensible. Je n’irai pas jusqu’à dire que les débats sur les OGMs ou le clonage pourraient être alors plus raisonnables et moins passionnés, mais cela pourrait aider. Plus prosaïquement, les équipes de recherche en biologie pourraient ainsi regrouper leurs vidéos techniques qu’elles archivent déjà sur Youtube. Les How-to vidéos ont cet avantage sur les notices papier d’inclure des étapes "implicites" qui ne sont évidentes que pour leur auteur. Le fait de les mettre en commun sur un site précis permet une meilleure visibilité, et donc une meilleure diffusion, des techniques de manipulation. De quoi aider les chercheurs du monde entier !


Je suis par contre assez sceptique sur le succès du site. Il ne me semble pas offrir de fonctionnalité supplémentaire par rapport à Youtube et autre Dailymotion. Si c’est bien le cas, et étant entendu que la diffusion de techniques expérimentales ou l’éducation du grand public n’est pas une priorité, quel bénéfice aurait un scientifique à utiliser JoVE à la place ? Sans attrait particulier, le succès de JoVE me semble reposer sur le bouche-à-oreille[1] et la volonté de coopération des chercheurs, deux choses sur lesquels je ne parierai pas tout mon argent. Mais bon, ce n’est pas pour autant que je ne souhaite pas bonne chance à cette initiative.

Enfin, je suis un peu déçu par JoVE. En effet, au début, je n’avais pas compris qu’il s’agissait de réserver le site à la biologie expérimentale, et j’ai été un peu désappointé ensuite. Pourquoi les manipulations de physique, de chimie, ou de mécanique, n’aurait pas le droit de cité ? N’est-ce pas se priver sans raison d’un grand nombre de participants et de visiteurs ? D’autant plus que ces disciplines offrent souvent des résultats très visuels (je pense en particulier à la mécanique des fluides) qui seraient susceptibles « d’accrocher » le grand public. Je ne sais pas pourquoi, mais j’ai l’impression que le site a été créé par des biologistes…

Allez, je ne résiste pas à tester ma première incrustation vidéo, avec cette dissection de larve de mouche. Attention, certaines séquences peuvent choquer les enfants.



[1] Bouche-à-oreille qui risque, de plus, de parler au moins autant de l’intérêt de JoVE que de ses « petits soucis » : le site a par exemple été indisponible presque toute la journée, aujourd’hui.

Lire la suite

vendredi, novembre 24, 2006

Neurospin


Ah, le voilà enfin ! Il y a deux ans, quand j’en avais entendu parler pour la première fois lors d’un séminaire de neuroscience, j’avais été assez enthousiasmé par le potentiel du projet. Il semble que les promesses ont été tenues. On dirait qu’en France, les projets scientifiques qui marchent le mieux sont ceux qui requièrent de grosses infrastructures – bizarre peut-être, mais on ne va pas s’en plaindre, pour le coup.

Je parle du projet Neurospin, visant à réaliser l’IRM neuronale la plus puissante du monde sur le plateau de Saclay. Au passage, cette zone mérite de plus en plus son statut de pôle mondial de compétitivité, un nom bien bureaucratique pour désigner une réalité assez enthousiasmante de concentration d’établissements d’enseignement supérieur et de centres de recherche académique et industrielle. Le Monde nous apprend que Neurospin a été inauguré aujourd’hui par Dominique de Villepin, ce qui, avec ITER la semaine dernière, fait deux bonnes nouvelles successives pour la science en général, et la recherche française en particulier[1].

L’IRM dite fonctionnelle, celle qui est utilisée dans l’étude du fonctionnement du cerveau, et qui ne sert pas directement au diagnostic médical, fonctionne de la façon suivante. En faisant osciller via un champ magnétique l’aimantation de la molécule d’hémoglobine présente dans le sang, et en récupérant le signal réémis par ces molécules, l’IRM permet de visualiser la répartition du sang dans le cerveau. En faisant l’hypothèse assez évidente que les neurones en activité ont besoin de plus d’oxygène et de nutriments, cette répartition du sang est reliée aisément aux zones en fonctionnement intense au moment de la mesure dans le cerveau. Si cette image est prise au moment où on demande à un sujet de réaliser une tâche simple (fermer le poing, suivre du regard un point lumineux mobile), il est alors possible de visualiser en direct les groupes de neurones impliqués dans cette fonction.

Des aimants plus puissants (on parle pour Neurospin d’aimants de 3, 7, et bientôt 11 Teslas, quand les scanners médicaux utilisent 1,5 Teslas) permettent d’améliorer la résolution spatiale et temporelle :

- la résolution spatiale est le grain de la photo : Neurospin sera capable de distinguer des paquets de milliers de neurones, contre des millions actuellement.

- La résolution temporelle est le temps nécessaire pour prendre une image. Améliorer cette résolution permet de visualiser l’évolution de l’activité du cerveau.

Le but de l’imagerie neuronale est de mieux comprendre le fonctionnement du cerveau. Vous avez certainement entendu parler de la zone de la parole, de la zone de la vision, de la zone du toucher, de la bosse des maths[2], etc. Et bien, c’est exactement ça le but : visualiser les différentes zones du cerveau, comprendre leur rôle, saisir sur le vif leurs interactions. Ces interactions peuvent être à courte distance, par exemple organe des sens -> traitement du signal -> interprétation -> centre de décision. Elles peuvent aussi être à longue portée, par exemple via les cellules gliales, que l’on pensait jusqu’à présent uniquement nourricières[3], et qui semblent avoir un rôle bien plus important que cela.

Le cerveau est un organe fascinant, dont la complexité est encore loin d’être comprise, même grossièrement. J’ai hâte de voir les résultats des équipes travaillant à Neurospin !


[1] Et confirme ce que je disais plus haut, l’inclinaison du gouvernement français pour les projets de grande ampleur, avec une grosse infrastructure, sans doute parce que cela passe bien auprès des médias et du public. Centralisation, mon amour…

[2] Bon, peut-être pas la bosse des maths :-D

[3] Elles sont, détail amusant, extrêmement nombreuses dans le cerveau d’Albert Einstein, qui n’avait par contre pas plus de neurones que le premier pékin venu. Un signe ?

Lire la suite

mercredi, novembre 22, 2006

ITER sur les rails

La grande nouvelle du week-end, ce n’est pas le résultat d’un match de foot ou d’un autre. C’est la signature de l’accord pour la construction et le financement d’ITER, le réacteur thermonucléaire expérimental, à Cadarache, après plus de vingt ans de discussions.

Je n’ai pas l’intention de revenir sur les polémiques sur la perte de temps due aux négociations sur l’emplacement de l’expérience, ni sur celles critiquant les coûts disproportionnés face aux probabilités d’échec, Wikipédia y répond très bien. Science parle d’un « pari à 12 milliards de dollars », soit 10 milliards d’euros environ, dans l’espoir de maîtriser cette énergie du futur[1], assez propre et presque inépuisable.

Je suis assez impressionné par le projet ITER. Il ne s’agit de rien de moins que le deuxième plus grand projet scientifique de l’Histoire et coût et en nombre de chercheurs après la Station Spatiale Internationale, et si le « pari » réussit, il aura bien plus d’impact sur la société que la malheureuse ISS. Je suis aussi impressionné par la complexité d’un projet, et le niveau poussé de coopération et de synchronisation auquel ont dû parvenir 4000 chercheurs de sept pays différents, qui, ce n’est peut-être pas inutile de le rappeler, ne sont pas plus payés pour ça. Quand je vois ça, je me dis que tout n’est pas pourri en royaume de Science.

Pour résumer le processus, il s’agit de produire de l’énergie via la fusion de noyau de deutérium et de tritium (la toujours indispensable Wikipédia vous donnera toutes les explications de base dont vous pourriez avoir besoin, si vous n’êtes pas up-to-date en physique atomique). Les conditions de pression et de température nécessaires à cette réaction sont remplies dans le Soleil, mais comme il est difficile d’atteindre la même pression sur Terre, il faut réussir à chauffer les réactifs à une température bien plus élevée. Comme aucun matériau ne pourrait résister au plasma qui est obtenu, ce dernier est confiné par un champ magnétique puissant dans une forme approximativement toroïdale. Ces champs magnétiques sont obtenus par la montée d’un courant dans les énormes bobines qui entoure le réacteur (appelé Tokamak, c’est un joli nom je trouve). Evidement, cette montée ne peut pas se faire à l’infini : les tokamaks fonctionnent donc par séquences, ou impulsions, successives.

ITER doit répondre à trois grands défis pour valider le principe d’un réacteur thermonucléaire. Tous les tokamaks précédents n’étudiaient qu’une partie de la question : seul ITER permettra l’étude des interactions entre tous les problèmes connus, la découverte du fonctionnement « à taille réelle », et le test de solutions expérimentales en conditions d’application.

Les expériences précédentes ont confirmé la possibilité de confiner le plasma, mais avec de grandes difficultés. Science recense toute une population d’instabilités, qui, espère-t-on, seront diminués par la grande taille du tokamak ITER. Une instabilité, c’est quand le plasma se déforme, et tente de sortir de son confinement magnétique, ou que l’énergie est produite par saccades : à de tels niveaux de température, on imagine le souci.

Le deuxième problème est le choix du matériau des parois du réacteur. Il doit être résistant à la température et ne pas s’effriter en particules pouvant déstabiliser le plasma. Le candidat idéal serait le carbone, mais il présente des risques de pollution. Il semble que le candidat du compromis soit un mélange entre titane, carbone et béryllium.

Enfin, il s’agit de produire de l’énergie en continu. Le produit de la réaction de fusion est un noyau d’hélium (appelé particule alpha) et un neutron. Comme la fusion est très exoénergétique, ces deux particules vont très vite, bien plus que les atomes initiaux. Et n’oubliez pas que la température est reliée à la vitesse des particules. La particule alpha, chargée électriquement, continue sa route dans le plasma : au gré des chocs, sa grande vélocité contribue à maintenir une température et une pression élevée, ce qui permet l’auto-entretien de la réaction. Le neutron, lui, n’est pas prisonnier du champ magnétique, et va percuter les parois du réacteur. Il les réchauffe, et c’est ainsi que de l’électricité pourra être produite, par le procédé habituel d’entrainement d’une turbine par de la vapeur d’eau. ITER ne réalisera pas cette phase, cependant. Le problème est ici de réussir à produire plus d’énergie que ce qui a été injecté dans le réacteur, et ce, en continu, pas seulement par brèves impulsions. Des rendements positifs, et de longues durées de fonctionnement, ont été obtenus dans les certaines expériences précédentes, mais jamais en même temps : voilà le test principal que devra réussir ITER.


[1] Les mauvaises langues ajoutent « pour toujours ».

Lire la suite

dimanche, novembre 19, 2006

Question de compétence

Des visiteurs avertis ont peut-être été agacés par des approximations, des imprécisions, voire des erreurs factuelles que j’ai pu commettre, et que j’ai certainement commises, dans certains de mes billets. Le visiteur compétent serait alors fondé à souligner que le ton général du blog me faisait passer pour un expert éclairant ses visiteurs de ses lumières, une tromperie manifeste au vu de mes erreurs.

Je ne sais pas si un tel inquisiteur existe, ou s’il est juste un produit de mon imagination. Mais en tout cas, qu’il se détrompe : je ne prétends avoir aucune compétence particulière sur les sujets de mes billets. Je dis cela sans fausse modestie, et je tiens tout particulièrement à en avertir aussi le lecteur moins compétent sur les sujets dont je parle que l’inquisiteur.

Pour tout vous avouer, j’ai été un peu déstabilisé après avoir visité le blog de Tom Roud, qui m’avait été indiqué en commentaires de quelques billets sur Darwin et l’évolution. Ce sujet m’intéresse beaucoup, mais je n’ai tout de même aucune autre connaissance sur le sujet que ce que j’ai pu lire dans des livres ou sur internet, alors qu’il travaille dessus. Ses billets sont bien plus détaillés que les miens, avec des exemples bien plus précis. Quelle légitimité ais-je donc pour en parler, alors que je suis loin d’être aussi qualifié que lui ? Et, d’une façon générale, dois-je me limiter aux sujets pour lesquels j’ai une certaine compétence ?

J’ai tourné cette question dans ma tête un certain temps. La plupart du temps, j’écris sur des sujets ayant attiré mon attention sur internet ou dans un journal scientifique, et je n’ai pas de connaissances particulières dans le domaine en question. Je profite certes du « background » scientifique que j’ai la chance d’avoir acquis lors de mes études, mais je passe néanmoins un certain temps sur wikipédia ou google pour trouver des informations et des explications, ne serait-ce pour ne pas raconter trop de bêtises ! Dès lors, ce que je m’efforce d’apporter à mes lecteurs, ce ne sont pas mes connaissances, mais un certain « decryptage » des notions scientifiques en jeu. Et, surtout, j’essaie de transmettre mon intérêt pour la science et le plaisir que je prends à découvrir de nouveaux sujets.

Ce billet est donc un disclaimer, pour qu’il n’y ait pas de malentendu : je ne suis pas un expert. Sur les sujets qui m’intéressent, comme sur les débats qui agitent la société comme les OGM ou les nanotechnologies, je me renseigne, je cherche des informations et des avis, je construis ma culture et mon avis. Et je le donne.

La blogosphère scientifique française est suffisamment petite[1] pour qu’il y ait encore beaucoup (trop) de place pour des avis, peut-être pas si éclairés que ça, mais qui tentent de l’être. Et surtout, j’ai l’impression que la science disparaît de la sphère publique, au profit de la politique[2]. Même les débats ayant un fond scientifique, ceux dont j’ai parlé plus haut, sont traités sous un angle essentiellement politique : pour parodier, c’est le combat des citoyens contre les entreprises multinationales américaines (sic). La rationalité scientifique est souvent mise de côté.

De façon plus générale, l’intérêt pour les sciences s’efface devant les combats sociaux, devant le relativisme antiscientifique, et devant le fondamentalisme religieux. C’est peut-être vain de vouloir lutter contre ces évolutions, mais je ne veux pas que la paresse ou la pudeur mal placée m’empêche d’essayer. C’est pourquoi je continuerai mes billets de dilettante.



[1] Alors que les sites politiques pullulent.

[2] Cf le 1

Lire la suite

samedi, novembre 18, 2006

Dawkins : Le gène égoïste. (3) : Altruisme et égoïsme

Nous voilà maintenant arrivés au cœur du livre de Richard Dawkins, le Gène égoïste. Souvenez-vous, la première étape avait été de justifier la sélection par le gène au dépend de la sélection par le groupe ou par l’individu, et la deuxième avait été de présenter comment les premiers gènes avaient pu se constituer, et mener à l’émergence de la vie. Tom Roud nous avait conduits à faire un petit détour pour approfondir cette question, et avait ensuite proposé un exemple de « gène égoïste »[1].

Il me donne ainsi une transition parfaite vers le sujet de ce billet, qui est la présentation de l’égoïsme et de l’altruisme selon Richard[2].

Un grand nombre de thèmes autour de ce sujet sont abordés, et je n’essaierai même pas de tous les résumer. Il s’agit, dans la plupart des cas, de montrer que ce qui peut passer pour de l’altruisme d’un point de vue « sélection par le groupe » n’est qu’un témoignage de l’égoïsme d’un gène : il s’est sacrifié pour le bien du groupe devient le gène qui pilote ce comportement est efficace car le sacrifice d’une copie de lui-même permet la survie d’un grand nombre d’autres copies.

La déconstruction de notre façon de voir le monde est brutale. Influencé par notre conscience anthropique, nous voyons de la générosité dans le nettoyage mutuel des oiseaux et des singes, et du sacrifice désintéressé dans l’amour d’une mère pour ses petits ou dans le sacrifice d’une abeille qui meure l’abdomen déchiré après avoir piqué un intrus dans la ruche. Il ne s’agit pourtant que de stratégies optimisées de survie génétique.

Les chapitres consacrés aux relations entre sexes, entre frères et sœurs, entre parents et enfants, sont parmi les plus choquants du livre[3]. L’idée est la suivante : une mère partage la moitié de ses gènes avec ses enfants, de même qu’un frère vis-à-vis de sa sœur, des demi-frères ou des cousins germains ont un quart de leurs gènes en commun, de même qu’un petit-fils vis-à-vis de son grand-père. Dès lors, les gènes qui poussent à se sacrifier pour deux ou plus de ses frères, ou quatre ou plus de ses cousins germains, seront favorisés, alors que ceux qui poussent à se sacrifier pour sauver un seul d’entre eux sera statistiquement défavorisé dans la sélection naturelle. Dis comme cela, cela peut paraître brutal et très éloigné de la réalité, mais Richard affine cette théorie de l’altruisme en fonction du degré de proximité généalogique dans les différents chapitres, et prend en compte un grand nombre de paramètres : asymétrie de la relation parent/enfant, incertitude d’un enfant sur le fait que les autres jeunes sont ses frères ou ses demi-frères, caractère particulier de la génétique dans le cas des insectes sociaux, etc… Le tout est appuyé par des exemples précis tirés de la nature qui rendent le tout extrêmement convaincant : il est hors de question que je répète, en moins bien, tout ce qu’écrit Richard, mais sa théorie va par exemple jusqu’à expliquer pourquoi les reines-pondeuses des fourmis donnent naissance à trois femelles pour un mâle, sauf chez les espèces esclavagistes où il est de un pour un !

Une certaine catégorie de critiques et d’incompréhension peut venir du fait que 1) l’amour maternel ou fraternel nous semble trop pur et trop bon pour être expliqué crûment par le fonctionnement des gènes et 2) que nous sommes souvent égoïstes vis-à-vis de nos proches, et altruistes vis-à-vis d’inconnus dont nous ne partageons aucun gène.

Il ne faut pas, tout d’abord, pécher par excès d’anthropomorphisme, tout d’abord, et bien reconnaître que notre espèce est une exception. Dans la plupart des espèces animales, les gènes donnent des ordres du genre « corps, si la situation est la suivante, réagis de telle façon ». Dans notre cas, la « stratégie » de nos gènes a été de développer nos capacités d’abstraction, d’imagination, d’adaptation, et de nous donner l’ordre « corps, fais-ce que tu veux », en ne nous guidant que par quelques principes hormonaux, faim, libido ou instinct de survie par exemple. Richard compare nos gènes aux programmateurs de Deep Blue, l’ordinateur champion du monde d’échecs :

[…] La vie, tel un jeu d’échecs, offre trop d’éventualités pour que celles-ci puissent être toutes prévues. Comme les programmeurs d’échecs, les gènes ne fournissent aux machines à survie [c’est nous] que des données générales.

Nous avons donc notre libre-arbitre : la situation est ironiquement très analogue à celle des religieux qui expliquaient le mal sur Terre par le libre-arbitre, à la fois bénédiction et malédiction, accordé par Dieu aux hommes.


[1] Un exemple de gène égoïste donné par Richard, que je ne savais pas où placer dans mon billet : les gènes pilotant la sexualité. Après tout, les gènes « préfèreraient » être dupliqués, comme dans la parthénogénèse des bactéries, plutôt que de n’avoir qu’une chance sur deux d’être transmis à l’enfant. Oui, mais la reproduction sexuée est le meilleur moyen de propager les gènes… de la reproduction sexuée ! Un joli exemple de « hacking ».

[2] Je vous rappelle qu’on se tutoie. Ca vaut aussi pour les commentaires, d’ailleurs : il faut bien choisir entre vouvoiement et tutoiement, si on mélange les deux c’est un peu bizarre. Alors voilà, j’ai tranché.

[3] Les chapitres consacrés aux « stratégies évolutivement stables » sont du plus haut intérêt, mais je n’en parlerai pas faute de temps. Il s’agit des situations type « dilemme du prisonnier », où le gain moyen d’une population qui s’entraide est supérieur à celui d’une population d’égoïste, mais où le gain d’un égoïste parmi les altruistes est encore plus grand. En se basant sur la théorie de la sélection par les gènes, il obtient des situations stables par le calcul ou des simulations, et les retrouve dans des observations animales.

Lire la suite

jeudi, novembre 16, 2006

Réseaux

Via Aeiou, l’incontournable blog de Flu, je suis tombé sur le projet Visual Complexity, qui illustre à merveille les propriétés des réseaux. Je ne sais pas pour vous, mais j’ai toujours été épaté[1] que des domaines aussi différents que la biologie, l’informatique, ou la sociologie, utilisent le même outil, et produisent des dessins (on dit des graphes, en fait, pour représenter les réseaux) qui se ressemblent. Je vous invite à explorer ce projet et à dénicher les perles rares, comme cette fantastique simulation de l’univers, qui sert d’illustration à l’article, ou cette carte de la blogosphère politique américaine.

Evidemment, la tentation est grande d’étudier ces objets de façon abstraite et mathématique, sans ce soucier de ce que la représentation recouvre réellement. L’idée est de trouver des lois, des principes, qui régissent leur organisation, et d’en déduire des applications dans le monde réel. Après tout, c’est sur cet aller-retour réel-abstraction-réel que fonctionne les mathématiques, non ?

Et justement, l’étude des réseaux abstraits, avec leurs listes de nœuds et de connections, permet de les classer, ou au moins une bonne partie de ceux que l’on trouve en informatique, en physique, en biologie ou en sociologie en deux grandes catégories :

- les réseaux aléatoires, où la probabilité que deux éléments pris au hasard soit connectés est toujours la même. Ces réseaux, comme le plan du métro, tendent à avoir un nombre de liens par nœud oscillant autour d’une valeur moyenne.

- Les réseaux invariants d’échelle, qui compte quelques nœuds liés à un nombre énorme d’autres nœuds, et un grand nombre de nœuds faiblement connectés (à la limite, un seul lien vers un des nœuds principaux). Ils sont appelés invariants d’échelle car, pour des raisons statistiques, cette asymétrie très forte se retrouve quelque soit la taille de la portion du réseau (c’est-à-dire, quelle que soit son échelle) que l’on regarde. Internet, avec ses gros serveurs et ses millions d’utilisateurs qui leurs sont reliés, est l’exemple parfait de ce type de réseau.

Leurs propriétés sont très différentes, que ce soit le rythme de diffusion de l’information (ou de quoi que ce soit qui circule), ou la résistance à la coupure de liaisons ou à la destruction de nœuds. Internet a été conçu pour résister à de telles coupures, et effectivement, les réseaux invariants d’échelle résistent très bien à des attaques détruisant aléatoirement des nœuds. Là où un réseau aléatoire verrait rapidement des portions entières isolés du reste, un réseau invariant d’échelle peut continuer à faire circuler l’information d’un bout à l’autre même avec une proportion importante de sites touchés. Par contre, dès lors que les attaques sont ciblées sur les serveurs, le réseau invariant d’échelle s’effondre bien plus rapidement : c’est le principe de certaines attaques informatiques.

Je laisse le mot de la fin au site du CNRS :

Ainsi, de l'étude de l'infection des ordinateurs par un virus à la propagation de polluants dans l'environnement en passant par l'épidémiologie, la physique statistique n'a pas fini de percer les mystères des systèmes et phénomènes complexes. Pour qu'enfin, les réseaux ne soient plus inextricables.
Non, quand même, avant de partir : regardez ça, encore une fois. C'est tellement beau.


[1] Depuis un article sur les réseaux dans le hors-série de Pour la Science sur la complexité, en fait. En 2003, je crois bien.

Lire la suite

mardi, novembre 14, 2006

Qu'est-ce que la vie ?

Via Tom Roud, je découvre ce passionant article de Nature qui offre un complément intéressant à notre petite discusion sur Dawkins et les réplicateurs.

Il y est défini ce qui pourrait représenter les fonctions de base à remplir pour une entité que l'on qualifierait de vivante : la capacité à se répliquer quand elle est alimentée en éléments de base et en énergie, et la capacité à évoluer de façon darwinienne.

Je ne suis pas d'accord avec ce deuxième élément, car pour moi, suivant l'interprétation de Dawkins, un être vivant est surtout une machine à multiplier ses gènes. Certainement pas d'évoluer, car cela nécessité de se reproduire de façon erronée ! C'est donc complètement contradictoire. Ma définition serait donc : un être vivant, c'est une entité qui a la capacité à se répliquer quand elle est alimentée en éléments de base et en énergie. Sous-entendu : en faisant tout ce qui est possible pour lutter contre les erreurs de réplication et donc l'évolution.

La suite est intéressante, tout de même. Les chercheurs tentent de définir la plus petite entité de base que l'on pourrait qualifier de vivante, dans une sorte de retro-engineering des premiers instants de la vie. Vous vous souvenez peut-être que j'avais parlé d'un continuum d'entités vivantes entre le premier réplicateur et les premières cellules, et que je m'étais interrogé sur la façon dont les premières fonctions de catalyse et de synthèse de protéines et enzymes avaient pu apparaître ? Des idées de réponse ont été apportées en commentaires de mon billet et surtout de celui de Tom Roud, et l'article de Nature complète tout cela.

Certaines séquences d'ARN présentent la capacité de catalyser la réplication de l'ARN, en se repliant, en plus de porter l'information génétique (et l'on peut imaginer qu'une petite modification leur permettraient de catalyser la synthèse d'enzymes, mais là n'est pas le propos). Elles ne peuvent pas être sélectionnées par l'évolution naturelle ex nihilo, cependant, car elles passeraient plus de temps à catalyser la réplication de leurs concurrents que de leurs copies si elles étaient dans une "soupe" quelconque. Les copies (au moins deux) de ces catalyseurs doivent donc être liées à des séquences qui permettent la synthèse d'une membrane, par exemple une membrane lipidique : les seconds permettent l'isolation et la concentration des premiers. Les catalyseurs de la réplication sont alors suffisament proches pour agir mutuellement l'un sur l'autre, augmentant le nombre de copies, et, au passage, permettant la multiplication de la séquence synthétisant la membrane. La sélection naturelle n'a pas pu tarder à favoriser une combinaison explosive !

L'article de Nature répond ainsi en même temps à mes deux interrogations : les réplicateurs initiaux peuvent avoir des fonctions catalytiques via leur arrangement spatial, et la vie peut être datée du moment où un catalyseur de réplication et un catalyseur de membrane se sont retrouvés embarqués dans la même galère. La première symbiose de l'Histoire !


PS : j'ai actualisé, et réorganisé, ma liste de blogs. Des blogs scientifiques et de bande dessinée font leur entrée, ce qui n'est que justice, vu le temps que je passe à les lire !

PS2 : je ne savais pas quoi mettre comme image, alors j'ai pris comme un sale la première réponse de google pour la requète "symbiose vie". C'est une oeuvre de Josiane, à qui j'ai écris pour lui demander l'autorisation. J'espère que ca ne la dérangera pas, mais dans le cas contraire, profitez-en bien avant que je l'enlève !

Lire la suite

Marronier du matin, chagrin

Ouf ! On est pas passé loin.

Quand Le Monde titre La guerre mondiale des talents, par Annie Kahn, je m'attends à une ènième version d'un des deux marroniers habituels, le brain drain des jeunes diplomés et chercheurs français, ou la délocalisation de la recherche industrielle dans des pays où les ingénieurs font le même boulot pour moins cher, Chine, Inde ou Europe de l'Est.

Mais Annie Kahn est une bonne journaliste qui a déjà écrit un certain nombre de bons articles sur les liens entre recherche et économie. Je ne mets pas les liens, car ils sont passés en "archives", mais vous pouvez retrouver certaines discussions sur mon blog.

Annie Kahn, donc, parle en fait du besoin des entreprises des pays développés en chercheurs et ingénieurs, qui délocalisent la R&D contre leur gré, car cela augmente le risque d'espionnage industriel. Malheureusement, il n'y a pas vraiment de "backup" pour cette thèse dans l'article, à part un vague sondage, un peu comme lorsque l'on entend que "il manquera en France 10 à 15 000 ingénieurs en 2010". Si un commentateurs a des données chiffrées plus précises, qu'il les partage, car je n'ai rien trouvé.

La journaliste est-elle tombée de Charybde en Scylla, évitant un lieu-commun pour un sortir un autre ? Non, heureusement, la fin de l'article sauve le tout, car elle recentre enfin la question sur les vrais problèmes :

On doit aussi se demander si les entreprises ne sont pas en partie responsables en rechignant (en France du moins) à recruter des docteurs d'université qui ne sont pas passés par les grandes écoles. Et aussi, et surtout, en rémunérant moins leurs ingénieurs et leurs scientifiques que leurs cadres financiers.
Il est beaucoup plus intéressant d'un point de vue financier pour un jeune diplomé de postuler pour des emplois de manager que dans la R&D. Ceci est dû à un dysfonctionnement très bizarre du jeu de l'offre et de la demande sur le marché des rémunérations : pourquoi les ingénieurs et les chercheurs, à la fois recherchés et moteurs d'innovations, ne voient pas leurs salaires grimper plus vite ?

De même, pourquoi les thésards français ont tant de mal à vendre leur diplôme ? A qualifications égales, ils auraient aux USA ou dans d'autres pays européens la carrière prometteuse (chef de projet, direction opérationelle, direction générale) qui est réservée en France à leurs camarades ingénieurs. A quoi cela tient-il ?

Je pense que ces problèmes sont corrélés avec le manque d'investissement dans la recherche des entreprises françaises, exceptées les plus grandes. Se peut-il qu'il s'agisse d'un phénomène auto-entretenu contribuant à dévaloriser l'importance de la recherche et des chercheurs dans l'entreprise, les patrons français étant issus plus souvent d'écolé d'ingé ou de commerce que de l'université ?

Je voudrais avoir vos avis, car j'ai aussi entendu des argumentations sensées, bien qu'à mon avis fausses, sur le manque de compatibilité avec l'entreprise de la formation des thésards.

Lire la suite

dimanche, novembre 12, 2006

Dawkins : Le gène égoïste. (2) : Les réplicateurs, ou l’émergence de la vie

Je continue ma petite promenade dans le monde merveilleux de l’évolution du gène égoïste de Richard Dawkins. Rappelons que dans le premier épisode, Richard (oui, on est intime, maintenant) avait pourfendu la sélection par le groupe. Il y reviendra, ne vous inquiétez pas.

Le sujet du jour est l’émergence de la vie. Vaste problème ! Et réponse magistrale.

Avant de lire ce livre, la seule chose que je savais était qu’une « soupe primordiale » de méthane, d’ammoniac, de dioxyde de carbone et d’eau, dans une atmosphère réductrice[1], alimentée en énergie par des éclairs violents ou l’activité géothermique, pouvait amener à la synthèse des briques élémentaires de la vie, bases azotées et acides aminés (respectivement unités de l’ADN et des protéines). Cet article récent parle même d’une synthèse dans l’atmosphère de centaines de millions de tonnes de molécules par an ! L’hypothèse de molécules apportées par des météorites venait compléter ces premières idées sur l'origine de la vie. Mais le chemin restait encore long avant d’arriver à des organismes monocellulaires dont l’évolution pouvait être décrite par la théorie de Darwin ! Il me manquait une étape entre les petites molécules simples et la complexité d’une bactérie.

Richard présente l’idée lumineuse d’appliquer la sélection naturelle directement aux molécules. En effet, dans certaines conditions, les premières molécules pouvaient parfois polymériser. Comme la soupe primordiale ne comprenait, bien évidement, aucune enzyme destructrice ou de bactérie affamée, ces premières grosses molécules vivaient une vie bien tranquille, grossissant petit à petit au gré d’équilibres thermodynamiques.

Richard fait alors une remarque décisive.

A un certain moment, il se forma par accident une molécule particulièrement remarquable. Nous l’appellerons le réplicateur. Ce n’était pas forcément la plus grande ou la plus complexe des molécules des environs, mais elle avait l’extraordinaire propriété de pouvoir faire des copies d’elle-même. Cela peut paraître invraisemblable […] [mais] en réalité, une molécule qui produit une copie d’elle-même n’est pas aussi difficile à imaginer qu’il y paraît tout d’abord.

Il suffit que les briques élémentaires aient une affinité avec elles-mêmes (A-A), ou avec une brique complémentaire (A-B) pour que le motif complémentaire ou auto-complémentaire soit énergétiquement favorisé. Et les affinités en question ne sont absolument pas un problème à trouver, le choix est large parmi les interactions faibles (c’est-à-dire plus faibles qu’une liaison chimique), comme par exemple les liaisons hydrogène ou les forces électrostatiques. Les molécules ainsi positionnées peuvent alors polymériser, comme dans le cas du réplicateur originel : une copie a été crée. Ce scenario reste très ouvert : il est possible, par exemple, que les premiers réplicateurs aient été inorganiques, comme des cristaux, et que la matière organique s’y soit greffée par la suite, pour enfin prendre le dessus. Mais, organique ou non, copie conforme ou motif complémentaire[2], là n’est pas l’important. Richard ajoute

Ce qui compte, c’est l’arrivée soudaine d’une nouvelle sorte de stabilité dans le monde. Auparavant, il est probable qu’aucune sorte particulière de molécule n’ait été abondante dans la soupe, parce que chacune de ces molécules dépendaient des pierres de base tombées au hasard dans une configuration particulière et stable.

Les réplicateurs se répandent donc, et épuisent les réserves en briques de base[3]. Commence alors la compétition pour ces éléments de construction, durant laquelle seules les réplicateurs les plus efficaces survivent. Sur quels critères peut-on parler d’efficacité ? Il n’y en a qu’un seul, la proportion de molécules du type étudié dans la « soupe ». Celle-ci dépend de trois propriétés-clé, que j’interprète ainsi :

- la stabilité, autrement dit la longévité, liée à l’énergie de la configuration

- la rapidité de reproduction, une propriété cinétique

- la fiabilité de reproduction, liée à la spécificité des interactions.

Seules les molécules les plus stables, les plus « fécondes » et les plus précises survivent à la compétition pour les briques élémentaires. Lors de chaque étape de réplication, des erreurs peuvent cependant être commises, ce sont les premières mutations donnant naissance à différentes molécules, certaines plus efficaces, d’autres moins. Il s’agit de la première forme d’évolution. Richard pose la question : comment concilier la tendance évolutionniste vers la sélection des molécules les plus fiables dans leur réplication, et l’existence de mutations permettant justement cette évolution ? Il y répond en disant :

[…] Si l’évolution peut vaguement sembler une « bonne chose », en particulier parce que nous en sommes le produit, en fait rien ne « demande » à évoluer. L’évolution est un phénomène qui arrive bon gré mal gré, en dépit de tous les efforts des réplicateurs (aujourd’hui les gènes) pour prévenir son arrivée.

Il n’y a donc pas de volonté d’évoluer, consciente ou dirigée par un Etre Supérieur, mais au contraire un phénomène irrémédiable que tous les réplicateurs tendent pourtant à minimiser.

Dans cette lutte pour le développement, qui n’est rien d’autres qu’un équilibre chimique compliqué, les réplicateurs portant des fonctions leur permettant d’attaquer leurs concurrents ou de se défendre sont favorisés. Une fonction d’attaque peut être un groupe chimique détruisant les réplicateurs concurrents, alors qu’une fonction de défense peut être de favoriser la synthèse d’une barrière lipidique – préfigurant la paroi cellulaire. Il reste beaucoup de questions en suspens, je me demande par exemple comment les réplicateurs ont pu passer de fonctions directement portées sur leur structure, à la synthèse de molécules utiles mais extérieures (les protéines, les enzymes, vis-à-vis de l’ADN). Il s’agit certainement de favoriser thermodynamiquement leur assemblage, mais j’ai tout de même du mal à me l’imaginer.

Notez que l’on se met à parler d’éléments qui se reproduisent, qui évoluent, qui sont en compétition pour des ressources limitées, et qui en conséquence développent des stratégies d’attaque et de défense. Quelle autre définition peut-on donner de la vie ? Richard refuse explicitement de rentrer dans le débat, mais il reste que ce scenario solide présente un continuum entre la matière inerte et les organismes vivants. Nous serions bien en peine de placer une limite entre les deux mondes, de séparer ce qui est vivant de ce qui ne l’est pas.

Troublant, n’est-ce pas ?


[1] C’est-à-dire, sans oxygène susceptible d’oxyder les molécules prébiotiques

[2] Notons que c’est le motif complémentaire qui a été choisi par l’ADN et ses couples A-T et G-C.

[3] L’exploitation déraisonnée ne date décidément pas de l’Homme…

Lire la suite

Intermède politique

Je sais que j'ai dit vouloir orienter ce blog vers un thème scientifique, mais cela ne m'empêche pas de vous indiquer cet article du Monde, qui parle des propositions économiques de François Bayrou. Depuis quelques mois, je trouve que François Bayrou prend une dimension nouvelle. Son combat pour une vie politique plus saine était très attirant, mais il restait globalement inaudible sur la plupart des questions de société ou d'économie. Ici, ses positions libérales sont clairement réaffirmées, ce qui est assez rafraîchissant face aux deux étatismes de la gauche socialiste et de la droite gaulliste.

Pour ma part, je trouve que la haine (le mot n'est pas trop fort) anti-entreprises est la caractéristique la plus choquante de la vie politique française, et les positions de soutien de François Bayrou, par exemple pour développer les PME et les TPE, sont bienvenues !

Lire la suite

jeudi, novembre 09, 2006

Deux articles intéressants sur Agoravox

Autant j'admets avoir du mal avec les articles politiques d'Agoravox, autant j'ai été agréablement surpris par deux récents articles dans la catégorie Science et techno.

Le premier, la complexité du vivant expliquée simplement, de Candide2, est bien écrit, et recoupe étonnament mon intérêt pour l'émergence de la vie, qui se traduit par ma lecture de Dawkins. Les commentaires sont assez intéressants et de bon niveau, ce qui est assez rare sur Agoravox pour être souligné !

Le second, de Timothée Poissot, s'intitule Blog : vers une science citoyenne, ou pas... Il s'interroge sur la diffusion des blogs scientifiques et l'intérêt qu'ils suscitent. D'après, malgré un modèle plus intéressant que la presse de vulgarisation scientifique, les blogs scientifiques restent trop fermés sur eux-mêmes. Je ne cacherais pas hypocritement mon plaisir d'avoir été cité dans sa liste, même si je ne suis pas vraiment d'accord avec lui, ni sur le sujet de la presse traditionnelle ni sur les blogs.

De toutes façons, je ne vais pas les résumer, alors que vous pouvez devriez aller les lire !

Lire la suite

Dawkins : Le gène égoïste. (1) : Sélection par le groupe, sélection individuelle.


Après quelques semaines d’attente, j’ai enfin été livré : je viens de recevoir le fondamental livre de Richard Dawkins, le gène égoïste. J’en avais déjà lu des extraits, aussi je savais un peu à quoi m’attendre. Il n’empêche : les idées révolutionnaires de Dawkins sont présentées de façon très claire, à la fois argumentée et lisible, et je n’en ai pas décroché depuis trois jours.

J’ai pensé vous en faire partager quelques morceaux, histoire de vous inciter à chercher ce livre dans votre bibliothèque habituelle, et pour, je l’espère, engager la discussion autour de la thèse du livre, résumée sur la quatrième de couverture : nous sommes des robots programmés à l’aveugle pour préserver des molécules égoïstes connues sous le nom de gènes.

Le philosophe Daniel Dennett, dont le livre Darwin est-il dangereux pourrait constituer une lecture intéressante à qui s’intéresserait à Dawkins, qualifie la théorie de l’Evolution de Darwin d’acide universel. C’est une théorie qui ronge toutes les idées préconçues et dogmatique, pour mettre à nue une nouvelle façon de comprendre non seulement la diversité des espèces, mais aussi des concepts aussi délicats que la conscience ou l’apparition de la vie. C’est cette nouvelle façon de nous comprendre nous-même que propose l’auteur du Gène égoïste.

Le propos du livre est de reprendre la théorie de Darwin, et de l’enrichir d’un outil qu’il n’avait pas, la génétique. Dawkins révolutionne le darwinisme en se plaçant du point de vue du gène : l’unité de sélection naturelle n’est pas l’individu, mais la molécule.

Dawkins accroche l’attention dès le premier chapitre.

Si des créatures supérieures de l’espace viennent un jour visiter la Terre, la première question qu’elles se poseront pour évaluer le niveau de notre civilisation est la suivante : « Ont-ils déjà découvert l’évolution ? ». Les organismes vivants ont existé sur Terre, sans jamais savoir pourquoi, depuis plus de trois milliards d’années avant que la vérité ne saute finalement à l’esprit de l’un d’entre eux. Il s’appelait Charles Darwin.

Après avoir défini les termes d’égoïstes et d’altruistes, qui seront les éléments-clé de son développement et qui sont les axes d’attaques préférés de ceux qui attaquent Dawkins sans l’avoir lu, il règle son sort à une première idée fausse. Il explique que la théorie de Darwin a parfois été mal interprétée, y compris par ceux qui pensaient la défendre. L’idée fausse en question est que la sélection naturelle agirait de façon à assurer la pérennité de l’espèce, ou que les individus seraient conduits à agir pour le bien du groupe. La sélection par le groupe consiste à dire que

Un groupe, tel qu’une espèce ou une population au sein de cette espèce, dont les individus sont prêts à se sacrifier pour le bien du groupe a moins de risques de disparaître qu’un groupe concurrent dont les membres placent au premier plan leur intérêt individuel. Par conséquent, voilà pourquoi le monde devient essentiellement peuplé de groupes dont les membres sont prêts à faire le sacrifice de leur vie.

Elle s’est répandue facilement car elle se trouve en harmonie avec les idéaux moraux et politiques que partagent la plupart d’entre nous. La réponse que fait Dawkins est la suivante :

S’il existe un seul rebelle égoïste prêt à exploiter l’altruisme du reste du groupe, alors, par définition, ce sera lui qui aura le plus de chances de survie et d’avoir des enfants. Chacun de ses enfants aura tendance à hériter de cet égoïsme. Après plusieurs générations de cette sélection naturelle, le « groupe altruiste » sera dépassé par le nombre d’individus égoïstes et ne pourra plus se démarquer du groupe égoïste.

Ainsi, même s’il peut être tentant de voir la sélection naturelle comme un processus qui favorise ce qui est bon pour l’espèce, il s’agit en réalité de favoriser ce qui est bon pour l’individu. Rapidement, le glissement ira encore plus loin : Dawkins va montrer qu’il s’agit de favoriser ce qui est bon pour le gène. Point.

Assez choquant, déjà, non ?

Lire la suite

mardi, novembre 07, 2006

Un nouveau danger : le DHMO


Pour ceux qui commencent à me connaître, vous savez que je me fais plus volontiers l’avocat de la recherche et de la science, que des dangers potentiels qu’elles peuvent apporter.

Pourtant, aujourd’hui, je voudrais parler du danger d’un produit auquel nous avons tous été confronté, d’une substance chimique potentiellement toxique à laquelle, souvent sans le savoir, nous avons été exposés, et ce, dans le silence coupable des politiques et des médias. Le traitement médiatique des sujets scientifiques est donc toujours aussi mauvais : ils se focalisent sur quelques problèmes, passant sous silence d’autres sujets peut-être plus importants.

Le produit en question est le monoxide de dihydrogène, DHMO en VO. Le site dhmo.org, tenu à jour par le Dihydrogen Monoxide Research Department, que je vous recommande, présente des études de toxicité du DHMO, ainsi que des conseils élémentaires de prudence que je vous encourage à diffuser.

Je reprends ici quelques-unes des lignes de dhmo.org, pour donner quelques exemples frappants.

- Des niveaux élevés de DHMO ont été mesurés dans la quasi-totalité des étangs ou rivières polluées d’Amérique du Nord – et il n’y a pas de raison qu’il n’en soit pas de même en Europe.

- Le DHMO est un « agent activant » dans la plupart des acides les plus toxiques, comme l’acide fluorhydrique ou l’acide chlorhydrique. Il s’agit d’un composant majeur des pluies acides.

- Des recherches sont en cours sur l’impact sur la santé du DHMO, que vous pouvez voir sur cette page. Il n’en reste pas moins que du DHMO en quantité décelable a été trouvé dans de nombreuses tumeurs, accréditant la thèse d’un rôle important dans la formation de cancers.

- Le DHMO est un élément essentiel d’un grand nombre de produits dopants. Bien que son effet soit moindre que celui d’autres composants de ces produits, les diverses hormones en particulier, il semble qu’une part très importante des sportifs convaincus de dopage aient consommé, à un moment ou un autre de leur carrière, du DHMO. Si cette information n’a pas fait les gros titres des journaux, c’est, d’une part, pour son effet moindre, mais aussi à cause de certaines influences dont nous parlerons plus loin.

- Les cristaux de DHMO peuvent provoquer de graves brûlures en cas de contact prolongé avec la peau. Le DHMO à l’état de vapeur, lui aussi, peut provoquer des brûlures ou d’autres types de lésions.

Pourquoi aucun média ne parle du DHMO ? Tout d’abord, il faut dire que les études sur le sujet sont assez controversées. Je ne vous étonnerais donc pas en soulignant l’importance qu’a la conduite de recherches plus approfondies. Il faut cependant souligner aussi l’importance des lobbys dans cette question : le DHMO est utilisé en quantités assez importantes par les industries du pétrole et du médicament pour ses propriétés intéressantes de solvatant, ainsi que pour sa capacité, dont nous avons parlé plus haut, à « activer » les acides.

L’interdiction, ou au moins un meilleur contrôle du DHMO, fait son chemin dans les esprits. Cette page présente une série d’études montrant que les mentalités sont en train d’évoluer à propos d’une interdiction du DHMO. Par exemple, une étude de 1998 réalisée en Israël montrait que seulement 41% des sondés étaient favorables à une interdiction du DHMO, ou seulement 45% des professeurs de chimie sondés en Ecosse en 1999. Des études plus récentes sur des groupes d’étudiants (en 2005 en Arizona) ou sur de larges groupes de citoyens montrent qu’à présent, presque 90% de la population serait en faveur d’une interdiction totale ou partielle (c’est-à-dire une utilisation strictement contrôlée, ce à quoi s’opposent beaucoup d’industriels).

En France, nous sommes comme d’habitude à la traîne. Qu’attendons-nous pour lancer des études épidémiologiques ? Et vous, qu’en pensez-vous ?

Lire la suite

dimanche, novembre 05, 2006

Pourquoi le ciel est-il bleu, alors que le soleil est jaune ?


Vous êtes-vous déjà demandé pourquoi le ciel est bleu ? Moi oui, ce midi, justement parce qu’il était devenu tout gris.


Après tout, peut-on penser un peu trop vite, la couleur d’un objet n’est que celle de la lumière qui l’éclaire, moins ce qu’il absorbe (aux conditions qu’il n’émette pas lui-même de la lumière, et que notre cerveau ne nous joue pas des tours). Je prends pour acquis que la lumière du soleil est jaune blanche verte jaune blanche (le débat fait rage ici). L’absorption de l’air est à peu près négligeable. Dès lors, le paradoxe qui a donné lieu à mon interrogation est le suivant : s’il y a absorption (c'est-à-dire, si l’air est bleu, même d’un bleu très pâle qui ne se voit que quand des kilomètres d’atmosphère sont accumulés), alors pourquoi le soleil apparaîtrait d’une couleur différente, jaune ? Il devrait être bleu lui aussi, plus lumineux certes, mais bleu.


Pour donner un exemple d’absorption bien connu, l’eau absorbe dans le rouge : une lampe blanche apparaît bleue à travers une grande épaisseur d’eau. Ce dont je parle est très analogue aux phénomènes impliqués dans le réchauffement climatique : l’eau ou le dioxyde de carbone absorbent dans l’infrarouge.

La résolution de ce problème vient du fait que l’air n’est pas bleu, au sens où il absorberait la composante rouge de la lumière du soleil, mais qu’il diffuse la lumière d’une façon assez originale. Je me souvenais vaguement d’avoir entendu parler de ça, aussi j’ai cherché un peu plus précisément dans cette direction sur internet. Il y a d’abord cette page brève mais synthétique de meteo.org , et cette explication un peu plus précise, voire encore celle-là.

Donc, pour résumer tout cela :

- la diffusion dite de Rayleigh se produit quand une radiation approche un obstacle plus petit que sa longueur d’onde. S’il est trop gros, d’autres phénomènes comme la réflexion, la réfraction ou l’absorption prennent le dessus. Justement, la longueur d’onde de la lumière visible est comprise entre 400 et 800 nanomètres, alors que la taille caractéristique d’une molécule d’azote ou de dioxygène est de quelques dixièmes de nanomètre.

- La diffusion qui se produit alors a pour effet de disperser la lumière dans toutes les directions, affaiblissant son intensité dans la direction initiale de propagation.

- L’intensité de la diffusion Rayleigh varie de façon inversement proportionnelle à la puissance quatrième de la longueur d’onde. Ainsi, le bleu, qui correspond à une longueur d’onde 1,7 fois plus petite que le rouge, sera huit fois (1,74 = 8) plus diffusé.

Ainsi, quand on regarde le soleil, on voit ce qui n’a pas été diffusé. Comme globalement, blanc-bleu = jaune, le soleil apparaît jaune. Quand on regarde dans toutes les autres directions, on voit la lumière diffusée, qui est donc bleue.

J’ajouterais d’ailleurs que lors des couchers de soleil, la lumière rasante parcourt une bien plus grande distance dans l’atmosphère avant de nous parvenir. La diffusion a bien plus de temps pour s’effectuer, il ne reste presque plus que la lumière rouge-orangée pour nous parvenir ou pour être réfléchie par les nuages : voilà d’où vient la couleur des couchers de soleil.

Lire la suite