Penseur

mercredi, février 28, 2007

Volcan de boue

En Indonésie, sur l'île de Java, un volcan de boue nommé Lusi engloutit les environs depuis maintenant 8 mois. Dix kilomètres carrés sont maintenant sous la boue, et 11 000 personnes ont perdu leur maison. Une compagnie pétrolière avait commencé un forage à 100m du lieu de l'éruption, et est accusée d'avoir percée sans trop de précaution une cavité rocheuse remplie d'eau sous pression.



Je ne m'aventurerais pas trop dans le domaine de la géologie, mais l'incertitude principale est la suivante : soit la poche est de taille finie, et l'éruption s'arrêtera quand elle sera vidée, soit elle est connectée à la mer, et dans ce cas le retour à un équilibre pourra prendre très longtemps. Dans le premier cas, la région pourrait ensuite s'effondrer en un cratère. Dans le deuxième, le retour à l'équilibre pourrait prendre des mois, voire des années. Dans tous les cas, entre 7000 et 15000 mètres cube de boue sont déversés chaque jour, et personne ne sait comment stopper le phénomène. Il avait été question de jeter des chaînes d'acier dans le volcan pour géner l'écoulement des fluides, mais je ne sais pas si cette solution a été retenue.

En attendant, je vous laisser avec quelques images avant /après et cette video du site.


Lire la suite

lundi, février 26, 2007

Mort ? Non, il bouge encore

L'inactivité sur mon blog n'est pas un signe de sa mort clinique pure et simple, il s'agit plutôt d'un réarrangement de mes différentes activités. Au premier lieu, évidement, un travail de plus en plus prenant. Mais pour ce week-end, j'aurais du mal à plaider le travail...

Enfin, tout ça pour dire qu'il n'est pas encore temps de supprimer mon blog de vos agrégateurs, mais que je pense passer à un rythme d'écriture plus espacé (avec des billets plus conséquents ? peut-être). J'ai au moins une demi-douzaine de billets en attente, commencés et que j'espère finir un jour !

Lire la suite

lundi, février 19, 2007

Ecouter par les os

Non, il ne s'agit pas d'une nouvelle technique de para-médecine, mais d'une invention originale, le tuba qui fait écouteur.

Ce tuba a une application qui n'est pas assez reconnue à sa juste valeur, rendre moins ennuyeuses les scéances de longueurs à la piscine. Accessoirement, il permet aussi aux plongueurs de recevoir des messages radios, pour, par exemple, se synchroniser, ou pour des alertes de sécurité.

La conduction des sons se fait par les os, les vibrations étant transmises par les os jusqu'au tympan. Je me demande, toutefois, si la perception des sons est différente de l'écoute "aérienne". Quelqu'un a déjà essayé ?

Lire la suite

jeudi, février 15, 2007

Info ou Intox ? Le premier ordinateur quantique

Toutes les disciplines ont leurs "figures imposées", des thèmes qui reviennent à la fin de chaque publication sous la forme de notre découverte est un pas important vers..., généralement dans le but de justifier l'argent utilisé. En biologie, c'est la lutte contre le cancer, en neurosciences, c'est la maladie de Parkinson qui tient la corde, et en physique, le must, c'est l'ordinateur quantique.

Et bien, une start-up fondée en 1999, D-wave, a annoncé il y a quelques jours avoir réalisé le premier ordinateur quantique. Ce pas de géant technologique suscite l’enthousiasme, mais la communauté scientifique attend d’en savoir un peu plus sur le plan technique pour se prononcer.


Alors, de quoi parle-t-on quand on dit ordinateur quantique ? Qu'est-ce que ça va apporter, quels sont les problèmes à résoudre ? Parler d'ordinateur quantique emmène rapidement vers des concepts de physique très compliqués, mais je vais essayer de rester aussi clair que possible.

La première idée importante en physique quantique, c'est que les propriétés des systèmes (atomes, électrons) sont quantifiées (d'où le nom de quantique, bien sûr). Par exemple, l'énergie d'une particule confinée dans un puits ne peut prendre appartenir qu'à un ensemble discret de niveaux, plutôt qu'à l'ensemble continu dont nous avons l'habitude à notre échelle. Une analogie à notre échelle serait de dire que vous ne pouvez pas placer une pomme à n'importe quelle hauteur, mais seulement par terre, sur le tabouret ou sur la table. Une propriété quantifiée souvent utilisée dans la recherche sur l’informatique quantique est le spin (une propriété purement quantique) qui ne peut prendre, pour un électron, que les valeurs +1/2 ou -1/2. Une notation abrégée est + ou -, mais l'on pourrait tout aussi bien parler de 0 et de 1 comme en informatique classique.

Une deuxième idée est la superposition d'états. Le chat quantique de Schrödiger peut être à la fois vivant ET mort, le spin peut être à la fois + ET -. Seule la mesure, qui donne + OU - avec une certaine probabilité pour chaque, permet de lever l'ambiguïté. Par analogie avec un bit d'information (1 ou 0), cet état intriqué (+ avec la probabilité p+, - avec la probabilité p-) est appelé q-bit. C’est la première raison d’être intéressé par l’informatique quantique : l’information n’est plus limitée à 2 valeurs, mais peut s’établir dans un continuum.

Troisième idée dont nous devons parler dans ce tour d'horizon à marche forcée de la physique quantique, l'intrication. Quand je prépare un couple d'électrons, ou plus généralement un couple de q-bits, j'ai accès à 4 états : les états ++, --, + pour l'un et - pour l'autre, et inversement, que l'on peut noter +- et -+. Par superposition, il est alors possible de créer la pair dans un état dit intriqué, +- ET -+ (voire même +- ET -+ ET ++ ET --), chacun avec une probabilité associée. On touche ici à un des paradoxes les plus subtils de la mécanique quantique, le paradoxe EPR. Mais pour ce qui nous intéresse ici, l’ordinateur quantique, il faut se rendre compte que ces états sont des flux d’information, capables de subir en parallèle des opérations.

En effet, supposons qu'il soit possible de lire les q-bits, et de réaliser des opérations sur ceux-ci. Par exemple, il faut imaginer un processeur capable de lire --+ et -+- (1 et 2 en binaire) et d'émettre -++ (3) en sortie : il serait capable de faire des additions. Cette opération, qui n’est pas une mesure mais une évolution physique, s’applique à tous les états intriqués en même temps. Ainsi, la spécificité de l'ordinateur quantique est de présenter une puissance de calcul augmentant avec le nombre d’états disponibles, c’est-à-dire exponentiellement avec le nombre de q-bits utilisés.

Les applications de cette puissance de calcul se trouvent dans les problèmes dits "NP" (problème non-déterministe polynomial), dont la complexité augmente elle aussi exponentiellement avec la taille du système. Presque toutes les sciences présentent ce type de problèmes : dynamique chaotique, analyse de données, structure des protéines, cassage de codes... Notons toutefois que les contraintes, dont je vais parler, qui pèse sur l’architecture de l’ordinateur quantique, font qu’il sera probablement moins performant qu’un ordinateur classique dans un grand nombre de tâches usuelles.

Après avoir vu les enjeux, passons aux obstacles, et essayons de voir comment D-Wave les a, semble-t-il, résolus.

Les premiers sont de nature physique : il faut concevoir des moyens de manipuler des atomes ou des électrons, et de lire et d'écrire leurs états quantiques. Ce n'est pas une mince affaire, mais de nombreux groupes de recherche travaillent dessus, et quelques techniques ont été proposées. D-Wave utiliserait une puce appelée Orion, capable de manipuler 16 q-bits (le précédent record était de 7), couplée avec une architecture traditionnelle qui simplifierait le travail des concepteurs.


Ensuite, il faut éviter à tout prix la décohérence : à la moindre interaction avec l'environnement, le paquet de q-bits se désolidarise, chaque q-bit redevient indépendant. Au lieu de +- ET -+, on se retrouve avec +ET- et -ET+, et il devient impossible de faire des calculs sur ces éléments indépendants. Orion, qui est refroidi à l’hélium liquide, fait circuler ses électrons dans du niobium rendu supraconducteur par un refroidissement à l’hélium liquide : on est encore loin des conditions grand public.

Enfin, il faut aussi résoudre la difficulté logicielle. Inventer des algorithmes massivement parallèles n'est pas une tâche aisée, ne serait-ce que parce que tout le travail depuis les origines de l'informatique a toujours porté sur de l'information séquentielle. Mais ce qui est déjà difficile avec la programmation parallèle, est encore compliqué par une contrainte supplémentaire sur les algorithmes quantiques : la nécessité de produire un résultat déterministe à partir de hasard. En effet, la mesure du résultat se fait aléatoirement entre tous les états : il faut donc soit que les calculs sur les états imbriqués arrivent au même résultat, soit répéter de nombreuses fois la mesure et retenir la réponse la plus probable. A cause de cette contrainte, très peu d'algorithme "quantiques" existent actuellement, et sont surtout adaptés aux problèmes utilisant peu d’entrées et de sorties, mais présentant beaucoup de complexité entre les deux. Il semble que D-Wave utilise une technique appelée « calcul quantique adiabatique », inventée par Seth Lloyd, un professeur du MIT, et qui permette justement de gérer ces phénomènes complexes. Cette technique n’a pas été complètement validée scientifiquement, ce qui explique la réserve de la communauté scientifique, en plus du fait que D-Wave garde secrets les éléments techniques d’Orion.

Il semble bien que les capacités des informaticiens à utiliser un ordinateur quantique soient tout aussi limitées que celle des physiciens à le construire. La prouesse de D-Wave doit donc être jugée à cette aune : avoir réalisé ce que tout le monde attendait pour dans 10 ou 20 ans, en concentrant des idées novatrices pour surmonter des obstacles autrefois jugés insurmontables. Les enjeux sont si formidables qu’il est difficile d’imaginer les révolutions qu’un tel outil pourrait permettre dans le monde scientifique. Si la validité de la technologie employée est validée avec le temps, il faudra se souvenir du 13 février comme de la première démonstration publique d’un ordinateur quantique !

EDITION : dans la partie sur l'addition par le processeur quantique, il faut garder à l'esprit qu'il s'agit des probabilités associées aux états d'entrée et de sortie qui évoluent. Ainsi, lors de la mesure, c'est l'état représentant la somme qui serait le plus probable.

Lire la suite

Réponse du berger à la bergère

Si, comme moi, vous vous êtiez indignés de la tribune offerte par le Monde à Serge Galam, qui comparait les climatologues avec des nazis soviétiques de l'Inquisition, vous lirez avec intérêt cette réponse de Jacques Treinet. En particulier, il met en valeur le fait que le temps qu'il fait peut être vu comme des oscillations chaotiques, à l'échelle de l'heure, du jour ou de la saison, autour de valeurs moyennes. Prédire ces fluctuations (météorologie) est bien plus difficile que de travailler sur les évolutions à long terme des valeurs moyennes (climatologie). L'argument stupide de Serge Galam est ici démonté.

Lire la suite

lundi, février 12, 2007

Actualité scientifique

Le travail, qui m'avait épargné ces derniers temps, ne me laisse plus vraiment le loisir de bloguer. Je passe donc juste en coup de vent, pour vous indiquer quelques morceaux d'actualité scientifique qui ont attiré mon attention.

Richard Branson, le PDG de Virgin, offre 25 millions de dollars pour la meilleure invention capable de piéger le dioxyde de carbone de l'air. Dans la lignée de son engagement à la fondation Clinton, il engage un peu plus sa fortune dans la lutte pour l'environnement. Loin de moi l'idée de cracher dans la soupe, d'autant que ce genre de prix, trop absents en France, sont un des meilleurs moteurs de l'innovation, mais je me demande si l'objectif est le bon. N'est-ce pas s'attaquer aux effets plus qu'aux causes ?

La simulation de la technique de vol des mouches est absolument fascinante. La Nature les a doté d'un système à la fois simple et efficace pour adapter leur altitude aux conditions : un lecteur de "flux optique", une sorte de lecteur de code barre qui regarde la vitesse de défilement du sol. Un tel dispositif, dans un avion, permettrait d'éviter les crashs dûs à un altimètre défecteux. Les applications dans les drones sont elles aussi évidentes.

Le gène p53 est connu pour être défectueux dans de nombreuses tumeurs cancéreuses. Une équipe a réussi, pour la première fois à ma connaissance, à résorber des tumeurs en réactivant le gène. p53 est le gène qui contrôle le suicide contrôlé de la cellule en cas d'erreurs dans la réplication du génome : il maîtrise les mutations. Les perspectives de traitement sont encore lointaines, mais me semble énormes.

Lire la suite

samedi, février 10, 2007

Dawkins : Le gène égoïste. (4) : les mèmes, ou le darwinisme universel

Je n’avais pas tout à fait fini de parler des différents concepts développés dans le livre de Richard Dawkins, Le gène égoïste. Après une longue pause – j’avais prêté le livre – je voudrais maintenant présenter les mèmes, l’équivalent des gènes dans le monde culturel. Ecrit rapidement, cela donne : les idées et les concepts se répandent et évoluent dans la culture humaine d’une façon analogue aux espèces vivantes, par survie différenciée de réplicateurs. Les unités de base de cette forme de sélection naturelle sont appelés mèmes.

Je dois commencer par un aveu : la première fois que j’ai entendu parler de cette idée, je l’ai trouvée intéressante, mais sans plus. Je me disais qu’il s’agissait d’une analogie comme on en croise beaucoup en physique, basée sur une similarité mathématique entre, peut-être, la propagation d’un virus et celle d’une nouvelle idée. En réalité, le concept de mème est beaucoup plus profond que cela, et établit les bases d’une nouvelle façon de comprendre la culture humaine. Il permet aussi d’envisager l’existence de lois qui régiraient d’autres formes de vie, extra-terrestres ou artificielles : une sorte de darwinisme universel.

Comment avons-nous défini les gènes ? Nous sommes partis de l’idée de réplicateurs, les brins d’ADN, qui se multiplient de manière imparfaite dans un environnement à ressources limitées. L’unité de base de cette évolution – la portion du réplicateur susceptible d’être transmise sans erreur lors des réplications sur une durée d’étude donnée[1] – est appelée gène. Les gènes les plus doués pour la survie, se répliquant avec au rythme le plus élevé, avec la plus grande fidélité, sont favorisés par rapport à leurs concurrents dans cette compétition, et se trouvent sélectionnés, ce qui donne l’évolution.

Les idées et les concepts se multiplient, vivent et meurent. Quand un scientifique apprend l’existence d’une nouvelle théorie, cette dernière s’est répliquée dans son cerveau. Elle peut mourir, s’il n’est pas convaincu ou intéressé, ou survivre, s’il y croit. Une chanson peut se reproduire sur différents supports : CD, radio, gens qui la fredonne dans la rue. Sa durée de vie est, par exemple, le temps avant que les radios passent à un nouveau tube.

Le monde des idées est un monde à ressources limitées. Dans un ordinateur, le temps de calcul et de stockage est limité. Nous-mêmes, nous accordons un temps limité de notre conscience à chaque idée : si j’oublie le concept « acheter du pain », c’est que le concept « le film d’hier soir » a monopolisé mes ressources intellectuelles (limitées, je vous l’avoue). La Une des journaux est une place aussi rare que précieuse, et nous voyons le combat des concepts « candidats à la présidentielle » pour la ressource « temps de parole télévisée ». Les exemples pourraient être multipliés à l’infini.

Les idées et les concepts mutent lors de leur réplication. Richard[2] donne l’exemple d’une chanson dont un mot est changé pour être plus facile à chanter en chœur. Chacun comprend les idées en les déformant. C’est ainsi que les théories scientifiques s’améliorent, chacun y apportant sa contribution, mais c’est aussi ainsi que les messages se déforment et que l’incompréhension peut naître, dans une sorte de téléphone arabe à l’échelle de la société. Les rumeurs qui grossissent, les blagues qui se déforment, sont les analogues des mutations génétiques.

Ainsi, toutes les conditions sont remplies pour que le darwinisme s’applique aux concepts et aux idées. L’unité de base de la sélection naturelle qui s’opère est appelée mème, pour la proximité avec gène et mémoire – la mémoire humaine ou informatique étant un des écosystèmes des mèmes. La sélection naturelle est la théorie expliquant l’évolution de ces mèmes, de plein droit : ce n’est pas qu’une analogie. La sélection naturelle gagne un étage supérieur : elle passe d’une théorie expliquant l’évolution des êtres vivants, à un statut universel, portant sur la dynamique de toute population de réplicateurs dans un environnement à ressources limitées.

Cette idée est relativement facile à admettre[3], ce qui ne nous empêche pas de la comprendre de travers. Par exemple, l’idée de Dieu est souvent pensée comme apportant un avantage évolutif aux communautés humaines : cohésion, esprit de sacrifice, réduction de stress. Pour Richard, il s’agit là d’une confusion : une idée se répand, non pas parce qu’elle est utile aux gènes, mais parce qu’elle est évolutionnairement performante – les mèmes sont tout aussi égoïstes que les gènes. L’idée de Dieu est répandue parce qu’elle est psychologiquement puissante, parce qu’elle permet de répondre à bien des questions. Ses avantages évolutifs sont, et restent, dans la sphère intellectuelle : si l’idée de Dieu donne à ses porteurs un avantage évolutif, un plus longue durée de vie et plus de chances de se reproduire, c’est un effet secondaire indépendant. Par exemple, la natalité des catholiques irlandais (every sperm is sacred) et des protestants anglais malthusiens est bien différente, sans que cela ait de l’influence sur la diffusion des religions. Les mèmes religieux ou politiques qui utilisent notre corps comme véhicule peuvent même entrer en conflit avec les gènes qui l’ont construit, et, quand ils gagnent, cela donne des kamikazes japonais ou des candidats aux attentats-suicides. D’un autre côté, les mèmes représentant des valeurs de coopération, de paix, les Droits de l’Homme, ont eux aussi une grande force, et sont eux aussi capable de dominer, au moins pour un temps, les pulsions de nos gènes égoïstes.

Pour finir sur un ton plus enthousiaste, la prétention au darwinisme d’expliquer l’évolution de réplicateurs, quelle que soit leur nature, englobe une possible vie extraterrestre. D’un point de vue réel, une telle vie peut prendre bien des formes – mais d’un point de vue formel, les mêmes lois peuvent s’y appliquer. Je cite Richard pour conclure :

Qu’y a-t-il de vrai dans la vie, où qu’elle se trouve et quelles que soient ses bases chimiques ? S’il existe des vies dont la constitution chimique est basée sur le silicium plutôt que sur le carbone, ou sur l’ammoniac plutôt que sur l’eau, si l’on découvre des formes de vie qui entrent en ébullition et meurent à -100°C, si l’on découvre des formes de vie fondée non pas sur la chimie, mais sur des circuits électroniques, existera-t-il encore un principe général applicable à toute forme de vie ? Je n’en sais rien, mais s’il fallait parier je miserais sur un seul principe fondamental : la loi selon laquelle toute vie évolue par la survie différentielle d’entités qui se répliquent.



[1] C’est une définition relative à l’observateur, à la durée d’observation, à la caractéristique étudiée. Un gène n’est pas défini par des éléments objectivement reconnaissables du génome. D’ailleurs, je me demande si les biologistes du C@fé des Sciences seront d’accord avec cette définition.

[2] On se tutoie, rappelez-vous

[3] Le concept de mème est lui-même un mème !

Lire la suite

mercredi, février 07, 2007

Tempête dans une casserole

Je me ferais bien une infusion, moi.

Un peu d'eau dans une casserole. J'allume la plaque - température maximale.

Quelques minutes s'écoulent.

Premier temps. Ouïe. Un léger sifflement, qui se fait de plus en plus insistant. Sifflement = son = oscillation de l'air. Qu'est ce qui la provoque ? Est-ce le métal de la casserole qui vibre, peut-être à cause d'un gradient de température entre le fond chaud et les bords encore froids, ou refroidis par l'eau ?

Deuxième temps. Odorat. Odeur animale - aurais-je oublié de nettoyer les plaques la dernière fois ? Est-ce que les molécules de gras sont juste vaporisées, ou subissent-elles une transformation ? Un bon sujet de cuisine moléculaire. D'ailleurs, une recherche Google ne m'apporte pas la réponse, mais m'oriente vers un compte-rendu de séminaire de gastronomie moléculaire. Ca a l'air passionnant, j'aimerais avoir l'occasion d'essayer un jour. Quelqu'un y a déjà participé ?

Troisième temps. Vue. En me penchant au-dessus de la casserole, je vois quelques petits filaments de très petites bulles. Ah, ça, je sais : l'élévation de la température rend le changement de phase liquide -> gaz favorable thermodynamiquement, mais la barrière énergétique est élevée : il faut "payer" la création de la surface de la bulle. Cet obstacle est beaucoup plus faible sur le contour d'une impureté (imaginez une bulle sur un mur : la surface est deux fois plus faible. Et bien, dans le creux d'une infractuosité, elle est encore plus petite). C'est pour cela qu'il faut essuyer les verres de champagne avec un torchon : les fibres déposées serviront de sites d'amorçage (de nucléation). Les colonnes de bulles viennent donc des éraflures au fond de la casserole.

Quatrième temps. Ouïe. Le sifflement est remplacé par un bouillonnement, on passe de l'aigu au grave. Les vibrations de l'air sont créées par les explosions des bulles qui crèvent la surface. La vitesse de crevaison, constante, dans une bulle de savon est donnée par le rapport entre la tension de surface et la viscosité, ça doit être pareil ici. Alors, pour l'eau, la tension est de 70mN/m2, la viscosité dynamique de, disons, 0,4 mm2/s, la densité de 1kg/dm3. On arrive à une vitesse d'ouverture de 0.2 m/s environ. Une bulle d'un millimètre met donc 6ms pour éclater. En Hertz, ça donne 175 Hz : un son plutôt grave. Pour les amateurs de belle physique, voilà un pdf pour tout savoir sur la "peau de l'eau".

Cinquième temps. Vue. Les bulles, de plus en plus nombreuses, se collent entre elle et forment des radeaux. Je me souviens que Mahadevan, un professeur de mathématiques appliquées d'Harvard, a expliqué le phénomène récemment, sous le nom de "Cheerios effect". Si vous voulez savoir pourquoi les céréales forment des radeaux à la surface de votre bol de lait (ou collent aux parois), c'est ici. Mahadevan fait certainement partie des scientifiques que j'admire le plus : il parvient à analyser, physiquement, mathématiquement, et numériquement, des phénomènes naturels beaux et amusants. Par exemple, il a donné les règles physiques qui encadrent le mouvement des plantes et des champignons.

Sixième temps. Vue. Je crois que je n'avais jamais remarqué ça : les radeaux "explosent" d'un coup ! Je m'explique : quand vous avez de la mousse dans votre bain, les bulles éclatent les unes après les autres, et pas toutes ensembles, n'est-ce pas ? Et bien, dans la casserole, les bulles groupées sont crevées ensemble. C'est très bizarre de voir ces paquets disparaître brusquement, quand on s'attend à ce qu'ils se comportent comme de la mousse. L'éclatement d'une première bulle pourrait-elle déclencher celui de ses voisines ? Ou bien, y'a-t-il un paramètre (pression du gaz, temps passé à la surface) qui arrive simultanément dans toutes les bulles d'un groupe à une valeur critique qui les fait éclater ?

L'eau est chaude, je la verse dans la tasse. Il y aurait beaucoup à dire sur le processus d'infusion - mais j'arrête, et je savoure. Et puis, j'ai une idée de billet pour mon blog...

Lire la suite

mardi, février 06, 2007

Le réchauffement climatique : l’article du Monde qui désinforme

J’ai repris, toute honte bue, le titre de l’article du Doc, pour l’adapter à la prose de Serge Galam, qui nie l’effet de l’activité humaine dans le réchauffement climatique. Après Claude Allègre dans l’Express, c’est la deuxième fois qu’une telle tribune est offerte aux avocats de cette cause. Ce deuxième papier va cependant bien plus loin : accumulant les clichés, Serge Galam compare les scientifiques aux nazis, aux communistes, et aux bourreaux de l’Inquisition. Tout un programme.

L’ancien ministre, quand il a commis sa tribune dans l’Express, n’avait pas eu besoin d’être présenté. Il s’est complètement discrédité dans l’affaire, mais cela n’a pas empêché Serge Galam de se lancer dans l’aventure. N’ayant pas été ministre, et étant donc moins connu, il est peut-être bon de parler d’abord un peu de lui.

Serge Galam est chercheur à l’Ecole Polytechnique en épistémologie appliquée, et est physicien au CNRS. La conjonction de ces deux domaines donne un champ d’étude très intéressant, où les comportements collectifs sont analysés d’un point de vue physique : par exemple, il a été souvent question de la façon de modéliser le processus d’adhésion à des réformes[1]. Une requête sur ISI – Web of Science (un moteur de recherche pour publications scientifiques) avec le mot-clé « Galam » retourne un certain nombre d’articles basés sur son modèle de comportement individuel des citoyens, qui propose une interprétation sociophysique des résultats serrés (environ 50-50) auxquels nous ont habitués les élections présidentielles récentes. Notons, cependant, qu’il n’y a aucune référence à la climatologie : ainsi, nous pourrions nous attendre à ce que, quand Serge Galam parle du réchauffement climatique, il s’interroge sur la diffusion de l’idée dans l’opinion publique, le seuil critique au-delà duquel les politiques joignent le mouvement, ou encore l’inertie des larges sociétés par rapport à la réactivité de petits groupes. En bref, qu’il l’interprète en sociophysicien, position où son expertise est parfaitement reconnue, y compris par ses pairs au niveau international.

Relisons maintenant l’article : à part un très court passage[2] qui peut, de loin, s’y apparenter, il ne s’agit pas de sociophysique, mais d’une charge générale contre les climatologues, le GIEC, et tous ceux qui parlent des conséquences prévues de l’activité humaine sur le climat et des façons d’y remédier. Et il n’y va pas avec le dos de la cuillère.

Serge Galam commence par qualifier le GIEC de grand-messe qui a canonisé l’hypothèse de l’intervention humaine dans le réchauffement climatique. Le vocabulaire religieux n’est pas innocent, il s’en resservira.

Ensuite, dans un paragraphe déroutant, il se place dans l’hypothèse que le réchauffement n’est pas d’origine humaine : les efforts du GIEC et des écologistes à la Hulot nous placeraient alors dans une impasse dramatique, qui aboutira à la disparition totale de l'espèce humaine. Rien de moins ! Et pourquoi ? C’est là que le raisonnement devient vraiment beau : c’est que les ressources que nous affectons à la recherche sur le climat (immenses, à n’en pas douter) nous priveraient de la possibilité de démultiplier la recherche fondamentale et appliquée des moyens qui nous permettraient de vivre indépendamment des conditions climatiques (même au prix de risques écologiques et éthiques accrus). Vous ne rêvez pas : un physicien reconnu nous avertit, dans un journal de (moins en moins de) référence, que quelques centaines de climatologues nous empêcheraient de brûler du pétrole pour monter le chauffage ou la clim’ en cas de variation du climat. Et encore, je n’arrive même pas à mettre de mots sur les « risques éthiques » dont il parle. Je n’ose (allez si, j’ose) pousser jusqu’à répéter que ces climatologues, s’ils se trompaient en pensant que le réchauffement est d’origine humaine, nous orienteraient avec un tel contrôle qu’ils provoqueraient l’extinction de l’espèce humaine. Quelqu’un de volontaire pour lui dire qu’ils ont si peu d’influence qu’ils n’arrivent pas à faire changer les politiques même en ayant l’appui d’un économiste ?

Il s’embarque ensuite dans quelques considérations sur la science en général, et la climatologie en particulier, qu’on a déjà entendu, et combattu, mille fois. La seule différence étant que d’habitude, on a plus l’habitude de les lire sous la plume de pseudo-scientifiques payés par Exxon. La science, selon lui, constate à la fois un réchauffement avéré et une augmentation de la quantité de CO2 dans l'atmosphère, un point c'est tout. Vouloir relier les deux constatations dans une relation de cause à effet, sous le prétexte qu'elles sont corrélées dans le temps, n'a présentement aucune base scientifique. Il suppose donc que les climatologues n’ont rien fait d’autre, depuis plusieurs décennies, que tracer un diagramme avec la concentration de CO2 en abscisse et la température en ordonnée, y porter les mesures montrant une corrélation, s’asseoir en cercle autour, discuter, et pondre un rapport de quelques centaines de pages mettant en danger la survie de l’espèce humaine.

Je ne veux pas trop parler ici des modèles toujours plus affinés, des simulations toujours plus poussées qui en sont tirées, et des données expérimentales toujours plus précises auxquelles elles sont mesurées. Je me contenterai seulement du premier d’entre eux, juste pour montrer qu’écrire aucune base scientifique est une malhonnêteté. Il a été proposé au 19ème siècle, je crois, et se base sur un simple bilan d’énergie. Un schéma est disponible ici. La Terre absorbe l’énergie des radiations du Soleil, se réchauffe, et émet en retour un rayonnement infrarouge. Les gaz de l’atmosphère, l’eau par exemple, absorbent une partie de ce rayonnement, se réchauffent, et piègent l’énergie sur Terre. Le CO2 fait partie de ces gaz qui absorbent dans l’infrarouge : tirer une relation de cause à effet est donc légitime, voire évident[3].

Il continue avec l’habituel baratin sur les incertitudes de la science : tout ce qu’il dit est certainement très vrai, mais il oublie, par mégarde, de mentionner que cette incertitude est quantifiable. Les climatologues prennent en compte les marges d’erreur dans leurs résultats, ce qui explique la fourchette de température que le GIEC présente. D’ailleurs, l’incertitude sur le comportement humain est bien plus importante que les autres paramètres, d’où les différents scénarios présentés (allant de « optimiste » à « les Africains et les Inuits rattrapent le niveau de vie américain »). La meilleure partie de cette partie sur les incertitudes des modèles reste tout de même l’argument-choc « la météo se trompe tout le temps, alors il est impossible de prévoir le climat à long terme ». Même dans un café du commerce, il y aurait peut-être quelqu’un pour rappeler que météorologue et climatologue, ce n’est pas le même métier[4].

Ensuite, du café du commerce, on passe aux forums Usenet. Généralement, dans les groupes de discussion conspirationnistes ou ufologues, il y a toujours certains intervenants pour comparer Galilée à l’inventeur incompris du moteur à mouvement perpétuel et les scientifiques (dogmatiques) aux inquisiteurs espagnols. Parfois, quand la polémique va loin, il n’est pas impossible de trouver des références aux nazis.

Ici, Serge Galam n’hésite pas et sort l’artillerie lourde : j’ai beau être familier de ce genre de trash, je n’avais jamais vu une telle concentration de lieux communs !

  • Galilée (lorsque Galilée a conclu que la Terre était ronde, le consensus unanime était contre lui),
  • les nazis (à l'époque nazie la théorie de la relativité fut rejetée, estampillée comme une théorie juive dégénérée, avec à l'appui une pétition de grands scientifiques de l'époque, qui signaient du haut de leur autorité établie),
  • Einstein (Einstein aurait alors dit que des milliers de signatures n'étaient pas nécessaires pour invalider sa théorie. Il suffirait d'un seul argument, mais scientifique),
  • les sociétés primitives (comme dans les temps anciens, les nouveaux prophètes nous annoncent la fin du monde[..] Pour calmer la "nature", ils demandent encore des sacrifices, heureusement non vivants, mais matériels),
  • et les communistes, ajoutés au récapitulatif final, au cas où on aurait mal compris (nazisme, communisme, Inquisition).

Il est hors de question de répondre aux allusions sur les nazis, les communistes, ou les prophètes, elles sont trop mesquines.

Rappelons par contre que Galilée et Einstein avait construit une théorie scientifique explicative, et que c’étaient leurs adversaires, théologiens[5] et nazis, qui n’en avaient pas. Ici, la position est singulièrement renversée : si Serge Galam n’est pas d’accord avec l’influence humaine dans le réchauffement climatique, il n’a besoin que d’un seul argument, mais scientifique. Pas d’attaques dignes de forums ufologistes ou conspirationnistes.

Et pour finir, laissons-lui la parole : il faut rappeler que la preuve scientifique n'a pas besoin de l'unanimité pour exister, elle s'impose par sa simple existence. Effectivement. Et le fait qu’après plusieurs dizaines d’années d’études et de contre-propositions, toutes les théories alternatives à la responsabilité humaine aient été écartées, pour ne laisser que ce genre d’attaques, en est une illustration parfaite.

EDIT du 8 février : grâce à un lecteur sur Agoravox, je retrouve la source de la théorie de l'effet de serre : Arrhenius, au XIXème siècle.

[1] Et certaines personnes n’étaient pas d’accord avec lui, d’ailleurs.

[2] C'est alors la culture ambiante qui va faire le gros de l'explication en comblant les vides, par une harmonisation sémantique. Il s'agit en fait d'une recherche de non-contradiction avec les faits, plutôt que d'une explication unique, fondée sur les faits.

[3] Evident au sens que la relation de cause à effet vient spontanément à l’esprit. Cette relation n’est vrai « évidement vraie » et doit être testée et affinée : c’est ce qui se fait depuis maintenant 50 ans.

[4] La météo est une physique chaotique, difficile à prévoir avec précision, à l’échelle locale et à quelques jours. La science du climat est un système certes fortement non-linéaire, mais prévisible, au moins pour les valeurs moyennes. En tout cas, les deux choses sont très différentes : personne n’utilise les modèles météos sur des échelles de dizaines d'années. Que l’auteur se fourvoie à ce point est surprenant, mais n’est rien comparé ce qui suit.

[5] L’allusion à ‘théologiens à l’époque’ = ‘docteurs’, ‘scientifiques aujourd’hui’ = ‘docteurs’, donc ‘scientifiques aujourd’hui’ = ‘théologiens à l’époque’ est un des pires sophismes que j’ai jamais lu.

Lire la suite

dimanche, février 04, 2007

181 choses à faire sur la lune

La Nasa a publié en décembre un guide des choses à faire sur la Lune. Il s'agit d'une compilation des avis émis l'an dernier par un millier de personnes (scientifiques, ingénieurs, entrepreneurs) à la question "Pourquoi aller sur la Lune ?". Ca a tout du prétexte trouvé a posteriori, puisque la volonté de retourner sur la Lune a été énoncée il y a maintenant 2 ans par Georges Bush. L'administration américaine ne veut pas perdre sa suprématie spatiale, et la NASA, un temps réticente, doit se dire que des crédits supplémentaires ne sont jamais mauvais à prendre.

Les réponses n'en sont cependant pas moins intéressantes. Elles ont été résumées en 181 points, rassemblées en six thèmes, allant de la recherche scientifique à la valorisation commerciale, en passant par la colonisation de l'espace. On trouve par exemple l'étude des cratères pour comprendre la formation du système solaire, le test des équipements en vue d'un séjour permanent sur la Lune ou d'un voyage vers Mars, voire même la recherche de sources d'énergie exploitables.

Lire la suite

samedi, février 03, 2007

La valorisation de la recherche : une nécessité.

Le rapport de l’inspection générale des finances et de l’inspection générale de l’administration de l’éducation nationale et de la recherche sur la valorisation de la recherche publique en France aura décidément fait couler beaucoup d’encre électronique. Un nouvel article du Monde accompagne sa diffusion publique : regardons de plus près la source de toute cette polémique.

Le rapport porte, rappelons-le, sur la valorisation de la recherche en France. Je l’ai déjà écris au paragraphe précédent ? Peut-être, mais il n’est pas inutile de le redire, car les critiques de ce rapport ont largement tendance à dépasser son cadre. Par exemple, certaines critiques portent sur l’idée que le rapport suggèrerait qu’il n’y a pas besoin d’augmenter le financement public de la recherche publique. En réalité, comme nous le verrons dans la suite, il s’agit de dénoncer les freins à la valorisation de la recherche – on se doute bien qu’avoir trop de financement n’en fait pas partie. Les conclusions principales soulignent le manque d’interactions entre monde de l’entreprise et monde de la recherche publique (peu de jeunes docteurs recrutés en entreprises, peu de recherche en partenariat, peu de brevets déposés, difficultés de développement des startups[1]) et, surtout, les rigidités structurelles de la recherche publique. Les fautes sont partagées pour certains points, mais d’autres heurtent la philosophie même de la recherche française : on comprend mieux les réactions.

D’autres critiques s’opposent en substance, à divers degrés, à la démarche même de valorisation de la recherche. Au sens du rapport, la valorisation consiste en quatre formes de transfert de la recherche publique vers le reste de la société : la recherche en partenariat avec des entreprises, l’embauche de (jeunes) docteurs en entreprise, le dépôt de brevets et l’obtention de licences, et la création et le développement de startups innovantes.

La vision traditionnelle en France est la séparation très nette en recherche dite appliquée, intéressant les entreprises mais pauvre du point de vue scientifique, à la recherche fondamentale, supérieure intellectuellement. La recherche fondamentale doit être motivée par l’amour de la science, ne doit pas envisager d’applications, et ne peut se faire que dans les labos publics, sur fonds publics (puisque, si vous avez bien suivis, les entreprises ne sont soi-disant intéressées que par la recherche appliquée). Les vrais scientifiques ne perdent pas leur temps à déposer des brevets, et ceux qui partent dans l’industrie sont regardés avec une certaine condescendance. Cette description n’est pas caricaturale : elle est partagée par une majorité d’acteurs, dans les deux groupes (les deux camps, pourrait-on dire), qui s’acharnent avec un certain succès à la rendre vraie.

Je garde en particulier un souvenir vivace de cette publication de physique théorique à la fin de laquelle les chercheurs, français, se félicitaient de la validation de leur idée par une startup américaine, qui faisait quelques mois après sa création un beau chiffre d’affaire. Autre exemple, le dépôt de brevet est fait dans une optique de protection, et pas de valorisation.

La valorisation de la propriété intellectuelle représente, selon les années, entre 3% et 5% du budget de la recherche aux États-Unis, contre 1% en France[2].

Dans les autres pays du monde – et je ne compte pas tomber dans le travers qui serait de comparer la France avec des pays de taille et de développement trop différents, je me limiterais aux USA, à l’Allemagne et au Royaume-Uni – elle n’est pas vraie.

Les contrats avec les entreprises financent 13% de recherche académique en Allemagne, 6% au Royaume-Uni et 5% aux États-Unis, mais seulement 3% en France.

Dans ces autres pays, la recherche publique et la recherche privée se nourrissent mutuellement de leurs interactions. L’amélioration des produits et les problèmes industriels posent des sujets concrets intéressants à comprendre et à résoudre, qui ouvrent la voie vers de nouveaux concepts. Les concepts explorés et théorisés dans les labos publics sont exploités sous la forme de brevets ou de startups. Les thésards qui ont bossé sur ces sujets pendant plusieurs années sont vus comme des pépites d’or par les industriels, à la fois pour leurs connaissances et leurs compétences. Et, ainsi de suite, les allez-retours entre entreprises et labos font des heureux partout : des fonds[3] et des sujets concrets et nouveaux d’un côté, une recherche exploratoire à faible coût de l’autre.

La valorisation de la recherche n’est donc pas seulement importante d’un point de vue économique. Que les saintes-nitouches effarouchées à la mention de la « rentabilité de la recherche » abandonnent leurs préjugés : les interactions entre entreprises privées et labos publics sont capitales pour le dynamisme intellectuel et la vitalité scientifique de la recherche. Le rapport avance quelques chiffres page 122 et suivantes[4] : financement privé et bon niveau scientifique ne sont non seulement pas antithétique, mais sont même corrélés.

Le rapport avance des pistes intéressantes sur tous ces sujets, sans faire reposer uniquement la faute sur les universités et les labos publics comme on a pu le lire après le premier article du Monde, certes plus polémique que le rapport lui-même. Mais, tout de même, il montre les problèmes structurels d’organisation dans ces structures, et les compare avec les « bons élèves », CEA ou écoles d’ingénieurs entre autres.

Premier exemple sous forme d’appel : si, parmi mes lecteurs, un étudiant de fac a eu des cours, ou même des présentations, sur un des sujets suivants, qu’il se signale dans les commentaires, il risque d’être une exception : dépôt de brevets (en général en France, et en particulier dans son université, quelle est la personne à contacter, etc), business model, fondation d’entreprise, démarchage de business angels et autres investisseurs.

Deuxième exemple, la définition d’accord-cadre définissant les partenariats des labos avec les entreprises n’existe pas au CNRS et dans la plupart des universités : c’est au directeur du labo de gérer au coup-par-coup, on imagine la difficulté administrative, juridique et financière. Par comparaison, le CEA, l’INRA, l’INSERM, et certaines écoles d’’ingénieurs, facilitent beaucoup plus la vie de leurs chercheurs.

Sur ces deux points, il existe un monde entre les mauvais élèves et les bons élèves français, et entre les bons élèves français et les universités étrangères, bien sûr américaines, mais pas seulement. Zmb, en commentaire d’une discussion sur la facilité comparée à déposer un brevet en France et aux USA, disait qu’il fallait plus de temps pour trouver la personne responsable du dépôt des brevets dans votre université que pour la rédaction de la demande, et que de toute façon les acteurs français ne cherchent pas à défendre leur propriété intellectuelle. Vu qu’il semble être du métier, j’ai tendance à trouver son témoignage instructif.

Ces blocages pourraient être résolus à crédits constants[5]. Cher lecteur, j’espère que vous ne comprendrez pas ici un argument pour conserver des crédits constants à la recherche, comme je l’ai dit au début. Il s’agit de dépenser mieux l’argent, pour allouer plus de fonds là où ils seront vraiment utiles – et de ne pas gaspiller les souhaitables augmentations de crédits.

Avant de finir, je voudrais revenir sur une des quatre formes de valorisation de la recherche dont j’ai moins parlé : l’embauche en entreprise de docteurs après la fin de leur thèse. Il revient souvent dans les échanges que j’ai pu avoir que la réticence des entreprises (p62) à embaucher des docteurs est un frein important au choix des étudiants de faire une thèse, car ils ne veulent pas forcément être piégés dans le système français thèse = carrière académique. J’avais déjà évoqué ce problème, et la lecture de ce billet de Tom Roud (et des commentaires dans les deux cas !) est aussi très instructive. La perte est nette, aussi bien pour les industriels qui se privent de gens compétents et de haut niveau, que pour la recherche française qui n’est pas assez « alimentée » en talents.

Finissons donc ce trop long article. En résumé : la valorisation de la recherche est capitale aussi bien d’un point de vue économique que scientifique. Dans tous les modes de valorisation, la France est à la traîne. Le rapport de l’administration pointe les problèmes, le manque de financement privé, la multiplicité des acteurs et des dispositifs, la complexité des démarches, ce que je résume par une mentalité cloisonnée séparant inutilement recherche privé et publique. Les responsables de cette situation sont aussi bien les organismes de recherche que les entreprises. Des changements structurels plus que des fonds publics supplémentaires sont nécessaires pour rétablir la situation.

Quant aux propositions, elles sont là (Annexe 1), nous aurons certainement l’occasion d’en discuter dans un prochain billet. Peut-être les avez-vous lues et avez un avis ?

[1] De façon assez paradoxale, le nombre de startups technologiques créées à partir de la recherche publique en France est loin d’être ridicule. C’est leur croissance, voire leur survie qui pose problème : le billet d’Ava, l’entrepreneur de gauche, sur les banques françaises contre-productives, reste d’actualité. On peut aussi reprocher le peu de « business » dans l’éducation scientifique française.

[2] En fait, les revenus issus de licences seraient à peu près nuls, s’il n’y avait pas une découverte unique, le « Taxotère » [un anti-cancéreux], qui engendre 90% des revenus [des licences du CNRS] pour 0,2% des licences. On ne peut qu’être choqué par une telle concentration et une faible valorisation générale.

[3] Par exemple, d’après ces statistiques (tableau 2), quand les dépenses totales de R&D (académique et entreprise) sont financées à 63% par les entreprises aux USA (plus 6% du privé non-entreprise), à 75% au Japon, à 66% en Allemagne, elles ne le sont qu’à 51% en France. Ces fonds ne sont pas utilisés que pour améliorer un produit existant, ou tout ce qu’on met d’habitude péjorativement sous le vocable de recherche appliquée. Tout thésard CIFRE vous dira, par exemple, qu’une part importante du temps et de l’argent est consacrée à des recherches élargissant les demandes de l’industriel.

[4] Accompagnés de graphiques qui seraient refusés dans n’importe quelle publication scientifique…

[5] Voire même, en constatant que le MIT a un service des brevets beaucoup plus petit, mais mieux organisé et plus visible, que les universités française si l’on le rapporte au budget de recherche, en faisant des économies !

Lire la suite

vendredi, février 02, 2007

5 minutes pour rien ?

Certains blogueurs (ici aussi) ironisent sur l'intérêt d'éteindre les lumières de façon concertée pendant 5 minutes, pour attirer l'attention sur les problèmes environnementaux. Une baisse forte et soudaine, suivie d'une hausse tout aussi forte et tout aussi soudaine, serait contre-productive d'un point de vue écologique, puisqu'EDF doit utiliser des centrales d'appoint, par exemple à charbon, pour s'adapter rapidement.

Outre le fait que je ne suis pas sûr que les centrales à charbon aient une réactivité si forte (j'aurais plutôt dit que l'excès temporaire d'électricité était utilisé pour pomper de l'eau en amont des barrages hydroélectriques), l'action ne se voulait pas écologique en elle-même. Il s'agissait, en paralèlle avec le compte-rendu d'une réunion du GIEC, de faire passer un message clair aux hommes et femmes politiques en campagne : "Mettez les problèmes environnementaux et le réchauffement climatique un peu plus haut dans votre liste de priorité, ça peut être payant électoralement". Une action de lobbying politique, peut-être plus efficace, d'ailleurs, que le discours scientifique.

PS : Toute réflexion sur l'écologie politique ne peut pas faire l'économie de ce billet d'Alexandre Delaigue d'Econoclaste sur la dimension religieuse de l'écologie. Je vous en conseille la lecture.

Lire la suite