Penseur
Affichage des articles dont le libellé est Physique. Afficher tous les articles
Affichage des articles dont le libellé est Physique. Afficher tous les articles

mercredi, mars 26, 2008

Actualité Scientifique - 4

Recommençons en douceur, avec une petite collection de liens récents qui m'ont plu.

  • Un très beau billet d'El Jj sur l'Hotel Hilbert, cette métaphore sur les paradoxes de l'infini que j'avais découvert il y a assez longtemps dans un Hors-serie de Science et Vie... et qui ne cesse de m'intriguer depuis.

  • Tom Roud décrit une découverte vraiment fondamentale - comment obtenir des cellules souches sans détruire d'embryons. Un bon candidat pour un futur Nobel ! Je dois dire que je m'interroge un peu, une cellule-souche, quel que soit son mode de création, n'est-elle pas un embryon en puissance ? Enfin, les subtilités de la morale religieuse m'échappent surement.

  • Le weather engineering en action, pour que les Jeux de Pekin ne soient pas un Nagano-bis. C'est la première fois, à ma connaissance, que c'est fait à cette échelle. S'achemine-t-on vers le geoengineering dont je parlais ?

  • La Thermoïonique est une technologie que je regarde de près pour son potentiel écologique. L'idée est de convertir de la chaleur en électricité, en utilisant un subtil effet quantique. évidement, aller contre la seconde loi de la thermodynamique se fait avec un faible rendement, mais c'est toujours mieux que rien. Et la nanotechnologie fait signicativement mieux que les tubes à vide d'Edison et Fleming.

  • Un prix IgNobel qui trouve une application, c'est toujours émouvant. La science mesurait la vitesse du son dans le cheddar fondu (une étude dont j'ai déjà dit du bien), la technologie nous apporte un moyen non-invasif de mesurer le mûrissement des fromages.

  • Finir par un point négatif est peut-être un manque de goût, mais cela permet aussi de mettre en valeur des nouvelles importantes. La recherche en physique fondamentale est sévèrement menacée aux USA et en Angleterre. Aux USA, il s'agit de faire des économies, le coût de la guerre en Irak, de la recherche liée à la Défense, et de la réduction des déficits, faisant passer au second plan un certain nombre de projets. Parmi eux, la participation amériaine à ITER et l'International Linear Collider, un projet complémentaire du LHC. C'est un euphémisme de dire que la communauté scientifique américaine est inquiète de la place de leur pays dans le futur de la Physique. Et en France ? Le budget global pour le finacement public de la recherche augmente mais la lisibilité n'est pas excellente. Un lecteur aurait-il plus de détails ?

Lire la suite

lundi, septembre 17, 2007

C'est pas beau de se moquer !

J'avais - enfin, nous avions, ne faites pas les innocents - bien ri en lisant, dans les motivations d'un article de review sur la physique des jets de liquide, que ce travail pouvait s'appliquer à la formation de l'univers.

Riez, mortels, la Science sera toujours plus forte que vous.

En effet, il semblerait que des structures en filament, qui, à une loi d'échelle près, pourraient bien être analogues à un fil de liquide visco-élastique, pourraient avoir été le lieu de formation de la fameuse "matière noire" (voir aussi Techno-sciences).

Est-ce que l'analogie est faible (basée juste sur l'aspect) ou tient-elle la route ? Comme je l'avais dit ici, tout dépend s'il est possible de trouver l'analogue des forces qui gouvernent le mouvement du fluide dans ces conditions. En particulier, la tension de surface pourrait être mathématiquement similaire à l'effet de la gravité, puisqu'elles sont toutes deux des effets cohésifs.

Ce qui fait le plus "tilt", c'est de lire que ces filaments auraient donné naissance aux trous noirs supermassif. Ces trous noirs sont des singularités de la gravitation : un point localisé dans l'espace où la force tend vers l'infini. Et, justement, quand un fil s'amincit, la pression augmente localement - et le moment de la rupture est une singularité des équations de la mécanique des fluides, avec la pression qui diverge...

Source de l'image : le site de José Bico avec de bien belles images et expériences !

Lire la suite

jeudi, juillet 05, 2007

Le shampoing sauteur : de la belle science sur Youtube

Michel Versluis et ses collègues de l'université de Twente, aux Pays-Bas, ont fait très fort. D'un, ils ont résolu un mystère de la mécanique des fluides qui durait depuis une quarantaine d'année, l'effet Kaye, aussi appelé "shampoing sauteur" (leaping shampoo, en VO). Leur article, par ailleurs très bien écrit, a été publié dans Nature en avril 2006. De deux, ils ont monté un film à partir de leurs plus belles vidéos, ont ajouté quelques explications, et l'ont mis en ligne sur Youtube. La vidéo a été vue 280 000 fois, et c'est mérité. (Pour le sauteur à ski de l'image, lisez la suite pour comprendre !)



Je ne sais pas si les explications de la vidéo sont suffisantes pour comprendre ce qui se passe. Voilà la façon dont je l'expliquerais :

Habituellement, lorsque l'on verse un liquide visqueux depuis une certaine hauteur, son point de chute décrit des cercles qui s'empilent les uns sur les autres jusqu'à former un petit tas, qui s'écoule plus ou moins lentement. Tout ceux qui mangent des tartines au miel le matin en ont déjà fait l'expérience. La situation avec le shampoing est presque la même : lui aussi forme un petit tas, qui s'accumule à cause de la viscosité élevée. Seulement, quand ce tas s'effondre, cela ne provoque pas seulement une perturbation passagère comme dans le cas du miel. Non, car le shampoing est un fluide "rhéofluidifiant" (shear-thinning en anglais dans la vidéo), pour lequel la viscosité peut être divisée par 100 ou 1000 lorsqu'on lui applique une contrainte mécanique. Par exemple, c'est pour cela qu'il s'écoule bien plus facilement de sa bouteille quand vous la pressez.

Le tas de shampoing, donc, s'écroule sous son propre poids. La couche de sahmpoing qui supporte cet effondrement subit un cisaillement important, et voit sa viscosité diminuer énormément. Elle agit dès lors comme une couche de lubrifiant, sur lequel le jet glisse. Et, un peu comme un sauteur à ski s'envole en sortie du tremplin, le jet tourne sur ce lubrifiant et est renvoyé vers le haut. En quelques millisecondes, il creuse de plus en plus ce tremplin, lui donnant une forme de "cuillère", redressant ainsi le jet presque à la verticale, jusqu'à perturber le jet descendant, ce qui met fin au phénomène. Le tout durant une fraction de seconde, avec des jets de plusieurs centimètres de long et de haut.

PS : une autre vidéo, plus artistique, sur un autre curieux phénomène physique, les ferrofluides. Et toujours cette piscine remplie de fluide viscoélastique (solution d'amidon de maïs), dont j'avais parlé ici, ainsi qu'une autre jolie expérience sur le même liquide (725 000 vues, tout de même).

Lire la suite

dimanche, juillet 01, 2007

Actualité scientifique - 4

Je continue ma série "Je tombe sur des choses intéressantes mais je n'ai pas grand chose à en dire".
  • Vous vous souvenez de la cuisine moléculaire ? Et bien maintenant, c'est à vous de jouer ! Le site marmiton.org propose un dossier sur le sujet. En plus d'une interview d'Hervé This, il comprend des recettes vidéos, pour appliquer des principes de chimie et de physique rigoureux, en dignes héritiers de Pierre-Gilles de Gennes, pour faire du caviar à la menthe ou de la chantilly au poivron.

  • L'annonce a fait grand bruit, mais j'ai du mal à y voir autre chose qu'un coup médiatique (ce n'est pas comme si Craig Venter n'en avait pas l'habitude). Une équipe du J. Craig Venter Institute a réussi à transplanter le génome d'une bactérie dans une autre. Au cours des divisions cellulaires suivantes, le nouveau génome a soit pris le dessus sur l'ancien génome, soit les deux génomes se sont séparés en deux nouvelles lignées, mais en tout cas, le génome transplanté a donné lieu à une lignée vivante de bactéries. Techniquement, je ne comprends pas ou est l'exploit, il me semble que c'est encore plus facile que les techniques de clonage maintenant bien maîtrisées : les cellules animales sont eukaryotes, et doivent être énuclées avant le clonage, ce qui n'est pas le cas pour ces bactéries prokaryotes. Je pense tout simplement que cet institut a un très bon service de presse (ce qui ne surprendra personne).

    Pourquoi est-ce que j'en parle, alors ? Car cette étape s'inscrit dans un projet ambitieux de biologie synthétique (Dvanw en avait parlé ici, et moi ), visant à produire le premier organisme vivant synthétique, dont le génome serait un assemblage des 300 ou 400 gènes de bases indispensables à la vie. Un tel accomplissement apporterait des indications précieuses sur la formation des premiers être vivants, voir sur la définition même de ce qu'est la vie. Une des applications mises en avant par Venter est d'ajouter ensuite des gènes permettant de créer des bactéries consommant le dioxyde de carbone atmosphérique, et rejetant du méthane (qui pourrait servir de combustible). L'idée est belle, mais les articles dans le New York Times ne doivent pas faire oublier qu'on en est encore loin...

  • LE truc à la mode en physique, ce n'est pas les superconducteurs (has-been), les supercordes (pipeau) ou les nouvelles particules (un truc de geek), non, c'est le graphène. Le graphène est un état du carbone récemment découvert (enfin, créé), qui s'ajoute à, entre autres, le diamant, le graphite, le noir de fumée, etc... Il s'agit en fait d'une feuille de carbone d'un atome d'épaisseur - une autre manière de voir les choses est de dire qu'il s'agit d'un feuillet unique de graphite, une pointe de crayon lambda se composant d'un grand nombre de ces feuillets, empilés. Le graphène pose de splendides questions théoriques, par exemple on pensait qu'un tel cristal bidimensionnel ne pouvait pas exister, et ouvre de non moins appétissantes perspectives d'applications, comme dans l'électronique. Et les prises de vues au microscope électronique sont de toute beauté ! De quoi occuper quelques générations de thésards...
  • Pour finir, une niouze intéressante, chez Techno-Sciences : on utilisait déjà des polymères et les surfactants (bizarrement appelés agents de surface dans l'article, ce doit être une traduction directe de l'anglais "surface agents") pour réduire la traînée des bateaux et sous-marins, voilà que s'y ajoutent les circuits de refroidissement. En effet, ces molécules tendent à rendre le flot laminaire, c'est-à-dire régulier, plutôt que chaotique et turbulent, et diminuent ainsi les frottements et la perte d'énergie. Et l'économie d'énergie sur le fonctionnement de la pompe n'est pas négligeable ! Voilà un système simple, généralisable à faible coût à un grand nombre de circuits fermés, qui pourrait faire faire de grosses économies.

Lire la suite

lundi, juin 04, 2007

Un problème de baignoires

Autheuil a signé aujourd'hui un billet dans lequel il critique le côté polémique ("aveugle et borné[.]", dit-il même) de ceux qui reprochent à Nicolas Sarkozy de ne pas avoir démissionné de son poste au conseil général des Hauts-de-Seine. Pour dénoncer cette "mauvaise foi", il finit en disant qu'en brassant autant d'air (j'anticipe la métaphore, cela ne veut pas dire que je partage son opinion), on pourrait "faire trois baignoires de mousse avec un gramme de savon".

Il me donne ainsi le sujet du billet du jour : est-il possible, aussi gonflé soit-on, de réaliser un tel exploit ? Ou est-ce au contraire si aisé que l'argument tombe à l'eau (je vais arréter là les frais littéraires et la métaphore).

Regardons les ordres de grandeur. Un gramme de savon, cela représente à peu près un centimètre cube, car sa densité n'est pas très éloignée de celle de l'eau (0.9, 0.95, approximons à 1). Combien peut-on faire de bulles avec ce gramme ?

Une bulle de savon a une dimension millimètrique, donc un volume de l'ordre de 4 millimètres cubes, et une surface de 12 millimètres carrés. Là encore, approximativement. Si l'on fait l'hypothèse que tout le savon est rangé en épis à la surface des bulles (ce qui n'est pas tout à fait vrai, une bonne partie est en solution), et que chaque molécule de savon fait quelques nanomètres de long (disons, 3nm), cela représente un volume de 0.000 036 millimètres cubes ou 0.000 000 036 centimètres cubes. Divisons un centimètre cube par ce nombre, et nous obtenons qu'un gramme de savon permet, grosso modo, de former 30 000 000 bulles de savon. C'est un nombre généreux, puisqu'une partie du savon sera en solution. Un autre effet qui peut être important est que les bulles ne sont pas de taille homogène. Les bulles plus petites qu'un millimètre feront augmenter la surface, et donc le savon consommé, plus vite que le volume de mousse, tandis que les bulles plus grosses auront un effet inverse.

Combien de bulles par baignoires, maintenant ? Disons qu'une baignoire fait 1m50 de long et 50cm de large, et admettons qu'Autheuil ait exagéré en parlant de "remplir une baignoire de mousse". Disons plutôt qu'il s'agit de faire ce que tout le monde fait dans son bain, c'est-à-dire une couche de 20cm d'épaisseur environ de mousse, ce qui représente tout de même un joli bain moussant. Le volume total est de 1.5*0.5*0.2 = 0.15 mètres cubes, ou 0.45 pour trois baignoires. Reprenons nos trente millions de bulles de savon : à raison de 4 millimètres cubes par bulle (4 milliardièmes de mètre cube), cela fait 0.12 mètres cubes de mousse. L'ordre de grandeur est sensiblement le même, mais il manque tout de même un facteur 3. De plus, ce calcul utilise le fait que tout le savon sert à former des bulles, ce qui est faux puisqu'une grande partie de celui-ci reste en solution dans le bain. A moins de créer beaucoup de bulles (c'est-à-dire de mettre en contact beaucoup d'air avec l'eau du bain), ce qui peut se faire avec une agitation mécanique importante.

Nous avons donc trouvé le résultat suivant : la métaphore d'Autheuil est plutôt bien choisie, puisque ses opposants, qu'il accuse de brasser beaucoup d'air, seraient capable d'atteindre un volume de mousse du même ordre de grandeur que la mousse d'un bain !

Lire la suite

jeudi, mai 31, 2007

L'article de physique théorique que j'aurais voulu écrire

Vous êtes-vous déjà perdu dans les méandres de la physique moderne, théorie M, F, des cordes, des p-branes, des 11 dimensions d'espaces qui sont repliées sur elles-même, et j'en passe ?

Cet article de Futura-Sciences fait un tour d'horizon des pistes explorées. Je ne vous garantis pas que vous comprendrez plus de quoi il retourne à la fin, mais au moins, il est bien de pouvoir replacer ces théories dans le temps, et de suivre le fil des raisonnements et des controverses.

Bonne lecture !

Lire la suite

mardi, mai 22, 2007

Pierre-Gilles de Gennes est mort

Via Tom Roud, j'apprends que Pierre-Gilles de Gennes est mort, vendredi dernier. J'ai un immense respect pour cette figure de la recherche française. Il a développé ce qu'on appelle la science de la "matière molle", tous ces états intermédiaires de la nature qui m'intéressent tant. Ce que j'appréciais particulièrement dans sa démarche, c'était l'interdisciplinarité qu'il insufflait partout. Je me souviens de mon enthousiasme juvénile à la lecture d'un magazine scientifique (peut-être Sciences et Vie...) où il était question des points communs qu'il avait trouvé entre le mouvement d'une bactérie dans un milieu riche en nutriments et celui d'un électron excédentaire dans un métal. C'était là son génie : il savait trouver des connections entre des domaines du savoir que tous imaginaient cloisonnés. Il n'était pas surnommé l'Isaac Newton moderne pour rien...

Il a donné ses lettres de noblesses à l'étude de phénomènes considérés avant lui comme un peu anecdotiques, ou trop complexes et mal définis, par les physiciens. Il a ainsi obtenu le prix Nobel de Physique pour l'application de la physique statistique aux cristaux liquides et aux polymères. Les cristaux liquides sont des molécules relativement rigides, des sortes de petits bâtonnets, qui peuvent s'agencer en structures relativement régulières. Les polymères sont de longues, très longues molécules, nous avions eu l'occasion de voir quelques-unes de leurs singulières propriétés. Pierre-Gilles de Gennes a montré que les cristaux liquides subissaient des transitions entre états "ordonnés" et "désordonnés" d'une manière analogue à l'aimantation dans les matériaux magnétiques. Pour ce qui est des polymères, il a apporté ce que l'on peut qualifier de principale avancée théorique dans le domaine depuis les années 60, avec son modèle de reptation. En suggérant que les chaînes polymères peuvent ramper pour se libérer des enchevêtrements et relaxer les contraintes, il a permis de comprendre le comportement mécanique des plastiques fondus, des colles et autres fluides complexes.

Il s'est intéressé à des sujets aussi variés que les bulles de savon, les phénomènes chaotiques ou les surfaces hydrophobes, et a co-signé avec David Quéré (un de ses "disciples", si je puis dire, qui incarne le mieux son esprit touche-à-tout et multidisciplinaire) et Françoise Brochard-Wyart, le livre "Gouttes, bulles, perles et ondes", qui fait référence dans le monde entier. Il a aussi dirigé l'Ecole de Physique et de Chimie Industrielle de Paris, qui est devenue une sorte d'OVNI (j'aurais aimé écrire "modèle") dans le paysage de l'enseignement supérieur français. Liant formation d'ingénieur de haut niveau, recherche fondamentale, et lien avec les entreprises, c'est un des centres de recherche français les plus connus à l'étranger. 90% des élèves ingénieurs qui en sortent continuent vers une thèse. Les labos sont largement financés par des contrats de recherche avec les entreprises, et rivalisent en qualité avec les plus prestigieuses universités américaines. Si ceux qui veulent réformer l'enseignement supérieur et la recherche en France voulaient bien se pencher cinq minutes sur ce que de Gennes a accompli...

Sa mort est une mauvaise nouvelle pour la science : alors qu'il venait juste de tourner ses formidables capacités d'analogie et de synthèse vers les sciences du cerveau, qu'aurait-il pu découvrir et nous faire découvrir ?

Lire la suite

dimanche, mai 20, 2007

Le téléphone portable est bon pour la santé !

Et je le prouve en image (Via Loïque Jemeur, puis Loïc Lemeur). L'espérance de vie est liée à la percée des téléphones dans la population selon une loi logarithmique plutôt bien corrélée. Vous pouvez jouer avec ces statistiques sur cet outil facile d'accès (très google-touch).


Rappelons-nous tout le mal que disaient Mark Twain et Winston Churchill à propos des statistiques. En suivant la flegmatique sagesse britannique, interrogeons-nous. Cette relation entre espérance de vie et proportion d'usagers du téléphone est-elle une relation de cause à effet ? Certainement pas, bien entendu. Il doit y avoir une "variable cachée", qui agit sur ces deux variables à la fois. Il s'agit certainement du niveau de vie ou du revenu par habitant, qui améliore l'espérance de vie tout en augmentant les chances de posséder un téléphone.

La question des variables cachées n'est pas anodine. Outre l'exploitation parfois exagérée de type de corrélation artificielle par les politiciens, le sujet a aussi sont importance en physique quantique. Einstein, par exemple, était un peu dubitatif sur la question de hasard et de probabilité, intrisèque à la physique quantique. Il pensait que cette incertitude ne réflétait que notre connaissance limitée, et qu'il devait exister des "variables cachées", dans une théorie d'ordre supérieur, qui permettrait de faire des prédictions absolues. Ces variables cachées permettraient de comprendre le paradoxe EPR et l'intrication quantique, dont nous avons parlé à propos de l'ordinateur quantique, entre autres.

Cette idée a été mise en musique par John Bell, pour mener aux célèbres inégalités qui portent son nom. L'idée est la suivante : s'il existe une théorie "supérieure" qui permet de prédire les résultats de la physique quantique, alors un certain nombre de relations statistiques doivent être observées, qui diffèrent du hasard pur. La beauté de sa théorie, relativement simple, est de donner un outil pour trancher le débat sur l'existence de ces variables cachées, sans même les connaître !

La mise en place d'un test pratique, qui élimine les biais expérimentaux, n'a pas été simple. C'est l'expérience d'Alain Aspect (et ses raffinements successifs) qui apportera la preuve que les inégalités de Bell ne sont pas respectées. Il s'agit donc d'une preuve expérimentale que Dieu joue bien aux dés !

Lire la suite

mercredi, avril 18, 2007

Photosynthèse

Depuis quelques jours, on peut lire des articles parlant des recherches sur la photosynthèse menées par l'équipe de Gregory Engel à Berkeley. La photosynthèse y est généreusement qualifiée de "réaction chimique la plus importante sur Terre", ce qui est certainement une phrase pour accrocher l'intérêt journalistique, mais j'avoue ne pas avoir trouvé de contre-exemples. Il s'agit tout de même de la première étape du plus important des écosystèmes de la planète, celui basé sur l'énergie du soleil !
L'équipe pense avoir expliqué comment, par un phénomène purement quantique, les chloroplastes présentes dans les plantes et les algues concentrent l'énergie des radiations lumineuses du soleil en énergie chimique.

Jusqu'à présent, on envisageait ce processus comme une "cascade" d'excitations électroniques, que l'on peut représenter comme un entonnoir. Il faut imaginer cet entonnoir comme étant l'énergie des molécules : plus elles sont basses en énergie, plus elles sont difficiles à exciter. Tout en haut de l'entonnoir, les molécules les plus nombreuses (les pigments, en particulier la chlorophylle) sont exposées au soleil, comme une antenne collectrice. Les rayons lumineux n'ont pas beaucoup d'énergie, et réussissent tout juste à exciter un de leurs électrons. Ces molécules déchargent ensuite leur énergie dans une molécule un peu plus bas dans l'entonnoir (c'est-à-dire initialement un peu plus basse en énergie) : cette dernière est alors excitée, avec une énergie plus grande que celle des radiations initiales. Et, ainsi de suite, jusqu'en bas de l'entonnoir, avec une énergie de plus en plus concentrée, jusqu'à atteindre un niveau suffisant pour briser la molécule de dioxyde de carbone, la brique des molécules carbonées indispensables à la vie.

Sans cette cascade d'étapes intermédiaires, l'utilisation d'une faible radiation pour franchir une large barrière d'énergie n'aurait qu'un très, très faible rendement. Cependant, ce mécanisme explicatif reste encore insatisfaisant, car les étapes où l'énergie se transmet sont aléatoires, avec uniquement un biais de probabilité vers les régions d'énergie plus basse. Le processus total devrait donc prendre plus de temps, dissiper plus de chaleur, et donc avoir un moins bon rendement, que ce qui se passe en réalité.

Engel propose donc un autre mécanisme, où les électrons seraient délocalisés sur l'ensemble de l'entonnoir, et choisiraient immédiatement le chemin le plus pentu, les conduisant au fond du puits d'énergie. Il pense avoir observé une vague électronique cohérente avec un laser femtoseconde : les électrons "s'étaleraient" dans toutes les directions et se "résoudraient" à l'endroit ou l'énergie est la plus basse. Pour le dire autrement, les électrons seraient capables de tester tous les chemins d'énergie et de choisir le plus favorable. Un tel mécanisme expliquerait la rapidité et l'efficacité de la photosynthèse.

Je ne sais pas si je suis convaincu par cette explication. Je suis particulièrement gêné par l'analogie un peu facile qui est tirée avec l'ordinateur quantique, qui est peut-être très forte d'un point de vue marketing, mais qui ne m'éclaire pas beaucoup. Je note aussi que les critiques pointent du doigt le fait que ces mesures ont été faite à 77 degrés Kelvin, et qu'à cette température très basse, les phénomènes cohérents de ce genre sont certainement favorisés face à l'agitation thermique, sans que cela se passe nécessairement de la même façon à température ambiante...

Finissons sur un point positif : les travaux sur la photosynthèse ont, en plus de leur intérêt scientifique, des perspectives importantes dans le domaine de l'énergie. Des chimistes ont par exemple essayé, sur ce modèle, d'associer des dendrimères (des polymères de formes semi-sphérique) et des pigments pour jouer le rôle de l'entonnoir. Le dendrimère formerait comme une antenne capable de collecter l'énergie du soleil, et de la concentrer et de la décharger dans un pigment, qui pourrait créer des charges ioniques et donc, de l'électricité. Les modèles expérimentaux fonctionnent avec un bon rendement, mais les défis pratiques restent nombreux avant de produire des panneaux solaires basés sur ce système.

Lire la suite

dimanche, avril 01, 2007

Voir la Terre dans le passé

Brève note sur une percée technologique majeure (via Technoweb) : il est possible, grâce à des miroirs gravitationnels, de voir la Terre dans le passé (ou, au moins, d'écouter de vieilles émissions de télé et autres communications hertziennes). Une image vaut mieux qu'un long discours, je copie donc ici leur schéma explicatif.

Lire la suite

Cochons d'américains

Via Physicsweb, j'apprends que le Large Hadron Collider, le fameux LHC en construction à Genève, fait face à un nouveau problème. Après les retards, les surcoûts, les hypothétiques blips du Boson de Higgs (le graal de la physique moderne, objectif principal du LHC) chez ses concurrents du FermiLab américain, voilà maintenant que les tests préliminaires à sa mise en route ont échoués.

Les tests en question consistaient à tester les conditions extrêmes (mais pas si rares) auxquelles les aimants qui guident la course des particules pourraient être confrontés. Il peut s'agir, par exemple, de la perte de contrôle du faisceau, qui frappe alors un des aimants : ce dernier est soudainement soumis à des efforts mécaniques et thermiques importants. Lorsque ces tests ont été réalisés "grandeur nature", les aimants se sont fracturés ! Plus étonnant encore, ces tests n'avait pas été conduits durant le cycle de développement de ces pièces, qui a tout de même commencé en 1998.

Et, évidement, qui était chargé de créer ces pièces ? Le FermiLab ! Ach, Sabotach !

Lire la suite

mercredi, mars 28, 2007

Les modèles en science

Dans les débats à propos de la science revient souvent l'idée fausse que la science serait à la recherche de la vérité sur le fonctionnement du monde. Dans ce paradigme (trop) communément admis, il y aurait des théories qui seraient vraies, d'autres qui seraient fausses, et les meilleures théories actuelles ne seraient que partiellement vraies, en ce sens qu'une meilleure théorie, "plus vraie", pourrait toujours être formulée dans le futur. Le but de la science serait d'expliquer le monde, de répondre à la question "pourquoi les choses se passent-elles ainsi ?".

En réalité, la science essaie de décrire le monde, et le but de ces modèles et de ses théories est de rendre compte du monde tel qu'il est, ou plutôt tel qu'on le perçoit et le mesure. Les théories ne sont pas vraies ou fausses, elles sont seulement plus ou moins précises. Un modèle n'explique le monde que dans la mesure où il rend compte de façon précise des phénomènes observés, et qu'il nous permet de comprendre l'origine des phénomènes observés. Mais, si ce n'est pas le cas, peu importe : la science est là pour répondre au comment, pas au pourquoi.

Par exemple, en physique quantique, le modèle du spin ou la théorie de l'intrication ne nous éclairent pas vraiment sur l'origine des phénomènes observés - le spin est même plutôt contre-productif, dans le sens où il laisse imaginer des analogies avec la rotation autour d'un axe ("spin" en anglais) dans l'univers macroscopique matériel qui nous est familier, et qui sont fausses. Pourtant, ces deux constructions théoriques rendent extrêmement bien compte des expériences : qu'elles soient "vraies" ou "fausses" n'a aucune importance (ces mots n'ont pas beaucoup de sens), elles sont juste précises et utiles.

Un autre exemple est la modélisation des polymères. Les polymères sont de longues, très longues chaînes moléculaires, formées par l'addition successives de monomères : l'éthylène donne le polyethylène, le styrène donne le polystyrène, etc... Les matières plastique ou le caoutchouc en sont d'autres exemples. Le problème qui se pose est de savoir comment se meuvent ces longues chaines sous l'effet de la température ou d'une contrainte imposée au matériau. Une autre question est de savoir comment ils modifient l'écoulement d'un fluide dans lequel ils sont dilués. Et bien, pour certaines échelles de temps, les modèles les plus pertinents sont simplement de représenter le matériau par un ensemble de pistons et de ressorts ! Et à d'autres échelles de temps, il est intéressant de voir le polymère comme un ensemble de billes connectées par des ressorts.

Inutile de dire que ces modèles sont faux, et ne représente pas la réalité. Et pourtant, ils donnent des résultats théoriques assez précis. Ils représentent de toute façon ce qui se fait de mieux : ils sont donc vrais !

Lire la suite

lundi, mars 12, 2007

Ganesh avait soif

En me promenant un peu dans les allées de Wikipédia, je suis tombé sur cette histoire amusante : en 1995 en Inde, des statues de dieux hindous, comme Ganesh, se sont mises à boire le lait qui leur était offert. La nouvelle a provoqué un bel émoi en Inde et dans les communautés hindous dans le monde, et certains groupes n'ont pas tardé à récupérer le phénomène en parlant de miracle.

D'un point de vue physique, l'explication rationelle se nomme capillarité. Ce phénomène, qui intervient aussi pour expliquer la forme des gouttes d'eau sur une vitre, quantifie la préférence énergétique qu'ont les molécules d'eau à rester entre elles, plutôt que de se placer à l'interface avec l'air ou avec le support.

Une expérience simple peut aider à comprendre le phénomène des "statues buveuses" : procurez-vous une paille la plus fine possible, et plus ou moins transparente, et placez-la dans un verre à moitié rempli d'eau. Vous observerez deux choses : l'eau se déforme au contact des parois de la paille, vers le haut, et le niveau de l'eau augmente dans la paille. L'explication est la suivante : la déformation en ménisque de la surface de l'eau dans la paille crée, d'après la loi de Laplace, une dépression, qui compense un peu la gravité et qui élève le liquide.

Cet effet est d'autant plus fort que le tube est petit : ainsi, si les statues sont faites d'un matériau poreux avec des trous micrométriques, il n'est pas étonnant qu'elles "boivent" le lait. Je ne sais pas en quel matériau sont faites ces statues, ni quelle est la peinture (potentiellement inhibitrice du phénomène) dont elles sont recouvertes, mais l'hypothèse de la capillarité a été testée au moins une fois. Des liquides teintés ont été eux aussi absorbés, et ont immédiatement coloré la statue autour de sa bouche. Le liquide ne disparaissait donc pas mystérieusement, et la capillarité semble bien être à l'oeuvre.

Cette histoire est instructive d'un point de vue sociologique. La première fois que le lait a été mis en contact avec la statue, sa disparition a créé la surprise. Personne ne s'attendait vraiment à ce que les dieux consomme réellement la nourriture, si ? Mais, qu'en est-il maintenant, les statues absorbent-elles toujours le lait ? Peuvent-elles aussi le boire par les cheveux ou les bras, aussi bien que par la bouche (cela ne devrait pas faire de différence au niveau capillaire) ? Le matériau dont sont faites les statues a-t-il ces propriétés ? Voilà un certain nombre de questions simples et efficaces que, je n'en doute pas, de nombreux fidèles indiens ont posé. Mais apparement, comme souvent dans ces phénomènes de masse où se mêlent ferveur religieuse, propagation de rumeurs et hystérie collective, ils n'ont pas vraiment été entendus.

Lire la suite

jeudi, février 15, 2007

Info ou Intox ? Le premier ordinateur quantique

Toutes les disciplines ont leurs "figures imposées", des thèmes qui reviennent à la fin de chaque publication sous la forme de notre découverte est un pas important vers..., généralement dans le but de justifier l'argent utilisé. En biologie, c'est la lutte contre le cancer, en neurosciences, c'est la maladie de Parkinson qui tient la corde, et en physique, le must, c'est l'ordinateur quantique.

Et bien, une start-up fondée en 1999, D-wave, a annoncé il y a quelques jours avoir réalisé le premier ordinateur quantique. Ce pas de géant technologique suscite l’enthousiasme, mais la communauté scientifique attend d’en savoir un peu plus sur le plan technique pour se prononcer.


Alors, de quoi parle-t-on quand on dit ordinateur quantique ? Qu'est-ce que ça va apporter, quels sont les problèmes à résoudre ? Parler d'ordinateur quantique emmène rapidement vers des concepts de physique très compliqués, mais je vais essayer de rester aussi clair que possible.

La première idée importante en physique quantique, c'est que les propriétés des systèmes (atomes, électrons) sont quantifiées (d'où le nom de quantique, bien sûr). Par exemple, l'énergie d'une particule confinée dans un puits ne peut prendre appartenir qu'à un ensemble discret de niveaux, plutôt qu'à l'ensemble continu dont nous avons l'habitude à notre échelle. Une analogie à notre échelle serait de dire que vous ne pouvez pas placer une pomme à n'importe quelle hauteur, mais seulement par terre, sur le tabouret ou sur la table. Une propriété quantifiée souvent utilisée dans la recherche sur l’informatique quantique est le spin (une propriété purement quantique) qui ne peut prendre, pour un électron, que les valeurs +1/2 ou -1/2. Une notation abrégée est + ou -, mais l'on pourrait tout aussi bien parler de 0 et de 1 comme en informatique classique.

Une deuxième idée est la superposition d'états. Le chat quantique de Schrödiger peut être à la fois vivant ET mort, le spin peut être à la fois + ET -. Seule la mesure, qui donne + OU - avec une certaine probabilité pour chaque, permet de lever l'ambiguïté. Par analogie avec un bit d'information (1 ou 0), cet état intriqué (+ avec la probabilité p+, - avec la probabilité p-) est appelé q-bit. C’est la première raison d’être intéressé par l’informatique quantique : l’information n’est plus limitée à 2 valeurs, mais peut s’établir dans un continuum.

Troisième idée dont nous devons parler dans ce tour d'horizon à marche forcée de la physique quantique, l'intrication. Quand je prépare un couple d'électrons, ou plus généralement un couple de q-bits, j'ai accès à 4 états : les états ++, --, + pour l'un et - pour l'autre, et inversement, que l'on peut noter +- et -+. Par superposition, il est alors possible de créer la pair dans un état dit intriqué, +- ET -+ (voire même +- ET -+ ET ++ ET --), chacun avec une probabilité associée. On touche ici à un des paradoxes les plus subtils de la mécanique quantique, le paradoxe EPR. Mais pour ce qui nous intéresse ici, l’ordinateur quantique, il faut se rendre compte que ces états sont des flux d’information, capables de subir en parallèle des opérations.

En effet, supposons qu'il soit possible de lire les q-bits, et de réaliser des opérations sur ceux-ci. Par exemple, il faut imaginer un processeur capable de lire --+ et -+- (1 et 2 en binaire) et d'émettre -++ (3) en sortie : il serait capable de faire des additions. Cette opération, qui n’est pas une mesure mais une évolution physique, s’applique à tous les états intriqués en même temps. Ainsi, la spécificité de l'ordinateur quantique est de présenter une puissance de calcul augmentant avec le nombre d’états disponibles, c’est-à-dire exponentiellement avec le nombre de q-bits utilisés.

Les applications de cette puissance de calcul se trouvent dans les problèmes dits "NP" (problème non-déterministe polynomial), dont la complexité augmente elle aussi exponentiellement avec la taille du système. Presque toutes les sciences présentent ce type de problèmes : dynamique chaotique, analyse de données, structure des protéines, cassage de codes... Notons toutefois que les contraintes, dont je vais parler, qui pèse sur l’architecture de l’ordinateur quantique, font qu’il sera probablement moins performant qu’un ordinateur classique dans un grand nombre de tâches usuelles.

Après avoir vu les enjeux, passons aux obstacles, et essayons de voir comment D-Wave les a, semble-t-il, résolus.

Les premiers sont de nature physique : il faut concevoir des moyens de manipuler des atomes ou des électrons, et de lire et d'écrire leurs états quantiques. Ce n'est pas une mince affaire, mais de nombreux groupes de recherche travaillent dessus, et quelques techniques ont été proposées. D-Wave utiliserait une puce appelée Orion, capable de manipuler 16 q-bits (le précédent record était de 7), couplée avec une architecture traditionnelle qui simplifierait le travail des concepteurs.


Ensuite, il faut éviter à tout prix la décohérence : à la moindre interaction avec l'environnement, le paquet de q-bits se désolidarise, chaque q-bit redevient indépendant. Au lieu de +- ET -+, on se retrouve avec +ET- et -ET+, et il devient impossible de faire des calculs sur ces éléments indépendants. Orion, qui est refroidi à l’hélium liquide, fait circuler ses électrons dans du niobium rendu supraconducteur par un refroidissement à l’hélium liquide : on est encore loin des conditions grand public.

Enfin, il faut aussi résoudre la difficulté logicielle. Inventer des algorithmes massivement parallèles n'est pas une tâche aisée, ne serait-ce que parce que tout le travail depuis les origines de l'informatique a toujours porté sur de l'information séquentielle. Mais ce qui est déjà difficile avec la programmation parallèle, est encore compliqué par une contrainte supplémentaire sur les algorithmes quantiques : la nécessité de produire un résultat déterministe à partir de hasard. En effet, la mesure du résultat se fait aléatoirement entre tous les états : il faut donc soit que les calculs sur les états imbriqués arrivent au même résultat, soit répéter de nombreuses fois la mesure et retenir la réponse la plus probable. A cause de cette contrainte, très peu d'algorithme "quantiques" existent actuellement, et sont surtout adaptés aux problèmes utilisant peu d’entrées et de sorties, mais présentant beaucoup de complexité entre les deux. Il semble que D-Wave utilise une technique appelée « calcul quantique adiabatique », inventée par Seth Lloyd, un professeur du MIT, et qui permette justement de gérer ces phénomènes complexes. Cette technique n’a pas été complètement validée scientifiquement, ce qui explique la réserve de la communauté scientifique, en plus du fait que D-Wave garde secrets les éléments techniques d’Orion.

Il semble bien que les capacités des informaticiens à utiliser un ordinateur quantique soient tout aussi limitées que celle des physiciens à le construire. La prouesse de D-Wave doit donc être jugée à cette aune : avoir réalisé ce que tout le monde attendait pour dans 10 ou 20 ans, en concentrant des idées novatrices pour surmonter des obstacles autrefois jugés insurmontables. Les enjeux sont si formidables qu’il est difficile d’imaginer les révolutions qu’un tel outil pourrait permettre dans le monde scientifique. Si la validité de la technologie employée est validée avec le temps, il faudra se souvenir du 13 février comme de la première démonstration publique d’un ordinateur quantique !

EDITION : dans la partie sur l'addition par le processeur quantique, il faut garder à l'esprit qu'il s'agit des probabilités associées aux états d'entrée et de sortie qui évoluent. Ainsi, lors de la mesure, c'est l'état représentant la somme qui serait le plus probable.

Lire la suite

lundi, février 12, 2007

Actualité scientifique

Le travail, qui m'avait épargné ces derniers temps, ne me laisse plus vraiment le loisir de bloguer. Je passe donc juste en coup de vent, pour vous indiquer quelques morceaux d'actualité scientifique qui ont attiré mon attention.

Richard Branson, le PDG de Virgin, offre 25 millions de dollars pour la meilleure invention capable de piéger le dioxyde de carbone de l'air. Dans la lignée de son engagement à la fondation Clinton, il engage un peu plus sa fortune dans la lutte pour l'environnement. Loin de moi l'idée de cracher dans la soupe, d'autant que ce genre de prix, trop absents en France, sont un des meilleurs moteurs de l'innovation, mais je me demande si l'objectif est le bon. N'est-ce pas s'attaquer aux effets plus qu'aux causes ?

La simulation de la technique de vol des mouches est absolument fascinante. La Nature les a doté d'un système à la fois simple et efficace pour adapter leur altitude aux conditions : un lecteur de "flux optique", une sorte de lecteur de code barre qui regarde la vitesse de défilement du sol. Un tel dispositif, dans un avion, permettrait d'éviter les crashs dûs à un altimètre défecteux. Les applications dans les drones sont elles aussi évidentes.

Le gène p53 est connu pour être défectueux dans de nombreuses tumeurs cancéreuses. Une équipe a réussi, pour la première fois à ma connaissance, à résorber des tumeurs en réactivant le gène. p53 est le gène qui contrôle le suicide contrôlé de la cellule en cas d'erreurs dans la réplication du génome : il maîtrise les mutations. Les perspectives de traitement sont encore lointaines, mais me semble énormes.

Lire la suite

mercredi, février 07, 2007

Tempête dans une casserole

Je me ferais bien une infusion, moi.

Un peu d'eau dans une casserole. J'allume la plaque - température maximale.

Quelques minutes s'écoulent.

Premier temps. Ouïe. Un léger sifflement, qui se fait de plus en plus insistant. Sifflement = son = oscillation de l'air. Qu'est ce qui la provoque ? Est-ce le métal de la casserole qui vibre, peut-être à cause d'un gradient de température entre le fond chaud et les bords encore froids, ou refroidis par l'eau ?

Deuxième temps. Odorat. Odeur animale - aurais-je oublié de nettoyer les plaques la dernière fois ? Est-ce que les molécules de gras sont juste vaporisées, ou subissent-elles une transformation ? Un bon sujet de cuisine moléculaire. D'ailleurs, une recherche Google ne m'apporte pas la réponse, mais m'oriente vers un compte-rendu de séminaire de gastronomie moléculaire. Ca a l'air passionnant, j'aimerais avoir l'occasion d'essayer un jour. Quelqu'un y a déjà participé ?

Troisième temps. Vue. En me penchant au-dessus de la casserole, je vois quelques petits filaments de très petites bulles. Ah, ça, je sais : l'élévation de la température rend le changement de phase liquide -> gaz favorable thermodynamiquement, mais la barrière énergétique est élevée : il faut "payer" la création de la surface de la bulle. Cet obstacle est beaucoup plus faible sur le contour d'une impureté (imaginez une bulle sur un mur : la surface est deux fois plus faible. Et bien, dans le creux d'une infractuosité, elle est encore plus petite). C'est pour cela qu'il faut essuyer les verres de champagne avec un torchon : les fibres déposées serviront de sites d'amorçage (de nucléation). Les colonnes de bulles viennent donc des éraflures au fond de la casserole.

Quatrième temps. Ouïe. Le sifflement est remplacé par un bouillonnement, on passe de l'aigu au grave. Les vibrations de l'air sont créées par les explosions des bulles qui crèvent la surface. La vitesse de crevaison, constante, dans une bulle de savon est donnée par le rapport entre la tension de surface et la viscosité, ça doit être pareil ici. Alors, pour l'eau, la tension est de 70mN/m2, la viscosité dynamique de, disons, 0,4 mm2/s, la densité de 1kg/dm3. On arrive à une vitesse d'ouverture de 0.2 m/s environ. Une bulle d'un millimètre met donc 6ms pour éclater. En Hertz, ça donne 175 Hz : un son plutôt grave. Pour les amateurs de belle physique, voilà un pdf pour tout savoir sur la "peau de l'eau".

Cinquième temps. Vue. Les bulles, de plus en plus nombreuses, se collent entre elle et forment des radeaux. Je me souviens que Mahadevan, un professeur de mathématiques appliquées d'Harvard, a expliqué le phénomène récemment, sous le nom de "Cheerios effect". Si vous voulez savoir pourquoi les céréales forment des radeaux à la surface de votre bol de lait (ou collent aux parois), c'est ici. Mahadevan fait certainement partie des scientifiques que j'admire le plus : il parvient à analyser, physiquement, mathématiquement, et numériquement, des phénomènes naturels beaux et amusants. Par exemple, il a donné les règles physiques qui encadrent le mouvement des plantes et des champignons.

Sixième temps. Vue. Je crois que je n'avais jamais remarqué ça : les radeaux "explosent" d'un coup ! Je m'explique : quand vous avez de la mousse dans votre bain, les bulles éclatent les unes après les autres, et pas toutes ensembles, n'est-ce pas ? Et bien, dans la casserole, les bulles groupées sont crevées ensemble. C'est très bizarre de voir ces paquets disparaître brusquement, quand on s'attend à ce qu'ils se comportent comme de la mousse. L'éclatement d'une première bulle pourrait-elle déclencher celui de ses voisines ? Ou bien, y'a-t-il un paramètre (pression du gaz, temps passé à la surface) qui arrive simultanément dans toutes les bulles d'un groupe à une valeur critique qui les fait éclater ?

L'eau est chaude, je la verse dans la tasse. Il y aurait beaucoup à dire sur le processus d'infusion - mais j'arrête, et je savoure. Et puis, j'ai une idée de billet pour mon blog...

Lire la suite

vendredi, janvier 26, 2007

La matière noire cartographiée !

Je suis tombé en arrêt, cet après-midi, sur le numéro de Nature de la semaine dernière, car la couverture a attiré mon attention. Il était question de matière noire.

La matière noire, c’est la tarte à la crème de la physique moderne : tout le monde l’étudie sans avoir la moindre idée de sa nature. Tout comme l’éther au début du siècle dernier, une telle énigme est pleine de promesses pour les physiciens. La matière noire sera probablement un jour à l’origine d’une révolution scientifique comparable à la théorie de la relativité d’Einstein, soit par la découverte de ce qu’elle est, soit par la formulation d’une théorie plus générale qui expliquer les observations sans elle. Je vais essayer d’expliquer un peu ce que l’on entend par ces termes, puis je parlerai de l’article en lui-même.

La première observation astrophysique « bizarre » a été la distribution des vitesses des galaxies au sein des amas galactiques, beaucoup trop regroupée par rapport à la masse estimée de l’amas. Il y a eu, ensuite, l’impossibilité de faire coïncider la masse d’une galaxie estimée à partir de ses effets gravitationnels, et celle estimée à partir de sa luminosité : la deuxième est plusieurs dizaines ou centaines de fois trop faible.

Mais l’observation la plus choquante, car la plus précise, est venue de la distribution des vitesses des étoiles au sein d’une galaxie. D’après une des lois de Kepler, cette vitesse devrait décroître avec la distance au centre – elle s’avère, en fait, constante. Tout se passe comme si un halo de matière invisible s’étendait sur le pourtour de la galaxie, halo qui représenterait 90% de la masse de la galaxie !

D’un point de vue phénoménologique, la façon la plus simple de décrire ces différents phénomènes est une matière d’un genre inconnu, qui n’interagit pas avec les photons (la force électromagnétique), mais qui est soumise à la gravitation. Cette hypothèse est cohérente avec les différents points énoncés plus haut, avec son invisibilité, et résout même quelques autres problèmes. Par exemple, elle permet d’expliquer comment les infimes variations de densité de la soupe primordiale, après le Big Bang, ont pu évoluer si vite en galaxie et en amas : la matière noire aurait été là pour accélérer le processus.

Elle n’a que deux défauts, et pas des moindres. Le premier est, par définition, que personne n’a jamais vu un grain de matière noire. Personne n’a même jamais vu de traces de chocs avec la matière noire dans les accélérateurs de particules. Le deuxième est que la matière noire n’a aucune place dans le « Modèle Standard », la vision relativement claire que l’on a de la physique.

La page Wikipédia présente bien les approches correspondant à ces deux problèmes. La première famille d’explications correspond à des particules, soit des objets connus (nuages de gaz, neutrinos, trous noirs) mais pas encore détectés, soit des particules inconnues, de masse non nulle, n’interagissant pas avec les photons. La deuxième famille regroupe des théories alternatives au duo formé par Newton et Einstein, pour expliquer les effets observés sans avoir besoin d’invoquer de la matière invisible. L’état de l’art est le suivant : les programmes d’observation semblent prouver que les objets connus ne sont pas responsables, et les théories alternatives peinent à former un consensus (la théorie des cordes aurait même tendance à faire consensus contre elle).

L’article de Nature, donc, est la traque la plus large et la plus détaillée, à partir des clichés du télescope Hubble, de cette matière noire[1]. Les chercheurs (pas mal de Français dans le lot, au passage) ont cherché les lentilles gravitationnelles[2] dans une petite portion de l’espace (un degré d’angle dans chaque dimension transversale et une faible profondeur), car cet effet donne accès à la densité massique et est indépendant des hypothèses, ce qui est capital quand on ne sait pas ce que l’on cherche.

Après avoir analysé la forme d’un demi-million de galaxies, excusez du peu, ils ont réussi à produire la première carte de la matière noire à l’échelle d’un amas de galaxies, avec une haute précision et une bonne résolution, et, cerise sur le gâteau, à trois instants successifs dans le temps (souvenez-vous que la distance par rapport à la Terre et le temps sont équivalents). Le résultats est splendide : la matière noire forme des zones plus denses, d’abord en forme de filaments, puis en amas, qui attirent encore plus de matière noire et standard, jusqu’à former des galaxies. Cette carte est donc en accord avec les premières idées sur la matière noire que nous avions formulées pour les galaxies, et les étendent à l’échelle des amas.

Ce travail, que l’on devine titanesque, va certainement avoir un rôle pratique capital en astrophysique. Il sera le premier étalon auquel seront mesurées les théories candidates sur la matière noire, et il servira aussi à bâtir des scénarios d’évolution de l’univers. Souhaitons-leur bonne chance.


[1] Les lecteurs attentifs auront compris « matière noire » comme « soit de la matière invisible et inconnue, soit un effet explicable par une théorie pas encore formulée », bien évidemment.

[2] Une lentille gravitationnelle est un effet purement relativiste, dans lequel l’attraction gravitationnelle de la matière courbe la lumière, comme dans une lentille de verre. Il est possible de repérer ces effets, et d’en déduire la masse ayant agi sur la lumière.

Lire la suite

samedi, janvier 06, 2007

Métamatériaux, invisibilité : hmm, du calme

J'aime bien le site Techno-sciences. Leurs articles sont souvent précis, et leurs photos sont belles. Ils permettent de bien suivre l'actualité scientifique : "techno", c'est large, et ça inclut pas mal de physique. Mais là, sur les métamatériaux et l'invisibilité, ils se sont emballés, à moins justement que le rédacteur de l'article soit plus "techno" que "physique".

Déjà, le titre est trop beau pour être vrai : Invisibilité: des métamatériaux opérationnels en lumière visible. La fabrication d'une "cape d'invisibilité" (voire mon ancien billet pour quelques détails) opérant dans le domaine visible est suggérée, mais elle est démentie dans le corps de l'article : les matériaux ont été mis au point, et ils pourraient servir à un dispositif d'invisibilité fonctionnant pour (certaines) longueurs d'onde visibles. Mais entre les métamatériaux et le dispositif, il reste beaucoup à faire : calculs, simulations, et surtout la réalisation proprement dite. Il faut aussi trouver le moyen d'élargir le spectre d'action de ces structures, pour qu'elles ne soient pas cantonnées à une seule longueur d'onde.

En fait, les applications les plus intéressantes à court terme se situent dans les domaines de l'optique et de l'électromagnétique, où les métamatériaux sont une petite révolution. Des lentilles d'indice négatif, c'est un rêve d'ingénieur opticien qui se réalise pour la correction des aberrations des lentilles traditionnelles, une meilleure résolution des objectifs, etc. En matière d'électromagnétisme, on peut imaginer des filtres de meilleure qualité, ou des guides d'onde, pour des communications radio plus précises. Des matériaux opérant dans le domaine teraHertz, habituellement difficile à atteindre, ont aussi été proposés.

Mais bon, le sensationnalisme, pourquoi cela serait-il réservé à la presse traditionnelle ? Et, pour être honnête, il faut avouer que la percée technique est à la fois impressionnante et prometteuse. D'ailleurs, en relisant mon billet précédent ou l’article de PhysicsWeb de l’époque, je me rends compte que le passage au domaine visible était vu comme peu probable, ce qui justifie le ton de l’article : passer ainsi d'un bond du centimètre au dixième de micromètre[1] est remarquablement rapide.

J’ai surtout été choqué, en fait, par les explications physiques déplorables, qui tranchent avec le niveau habituel de Techno-Science :

Ces deniers réfractent la lumière, ou les radiations électromagnétiques, à droite du rayon incident sous différents angles et vitesses. Les métamatériaux, quant à eux, permettent de réfracter la lumière vers la gauche, ou avec un angle négatif. Cette caractéristique donne aux scientifiques la possibilité de contrôler la lumière de la même façon que l'électricité peut être contrôlée grâce aux semi-conducteurs.

Hem.

C’est quoi, la « droite » et la « gauche » d’un rayon lumineux ? L’auteur veut bien sûr dire que le rayon réfracté dans un matériau d’indice négatif est dans le même demi-plan que le rayon incident, et il se trouve que sur le schéma utilisé (celui en haut de cet article), ce demi-plan est à gauche. Quand à « l’angle négatif », il s’agit bien évidement du sinus de l’angle qui est négatif, en accord avec la loi de Descartes-Snell : n1.sin(θ1) = n2.sin(θ2). L'auteur a peut-être aussi fait allusion au fait que les matériaux usuels suivent la loi de la main droite (règle qui provoque bien des contorsions chez les étudiants en physique : si le champ électrique est aligné sur le pouce de la main droite, le champ magnétique selon l'index, alors la direction de propagation est selon le majeur, orthogonalement aux deux autres doigts) alors que les matériaux d'indices négatifs suivent ce que l'on pourrait appeler la loi de la main gauche. D'où le nom, d'ailleurs, de matériaux gauchers.

L’électricité est « contrôlée » par les semi-conducteurs ? Bon, restons calme, dans les semi-conducteurs, le passage du courant est autorisé ou interdit grâce à l’action d’un courant auxiliaire, pour constituer une « porte logique » : rien à voir avec le type de contrôle envisagé pour les ondes electromagnétiques avec les métamatériaux. Ici, le contrôle possible se fera par les angles de réfraction, pour guider la lumière ou l’onde radio là ou on le souhaite, avec une meilleure précision. Et si les métamatériaux pourraient donner lieu à des portes logiques optiques, ce n’est pas le sujet du jour.

Allez, sans rancune monsieur Techno-Science : votre flux RSS est toujours sur ma page Netvibes, et je continuerai à écrire des articles grâce à vos news. Mais arrêtez là les bêtises, ok ?

PS : pour les curieux qui souhaiteraient en savoir plus sur les métamatériaux, je vous conseille les sites (en anglais) de l’Université de Duke (péchu), metamaterials.net (pour les news), et, surtout, la page de l’université de Karlshruhe, où vous pourrez trouver les explications physiques pour cette image d'un liquide d'indice négatif.

La page Wikipédia est en construction, et comporte plusieurs imprécisions pour l’instant, quand ce ne sont pas des erreurs factuelles. La discussion est en cours, mais mieux vaut l’éviter pour l’instant.



[1] Un métamatériau affecte la lumière non pas par sa nature (or, argent, silice, etc.), mais par sa structure (anneaux coupés, matériaux poreux, etc.). La taille de ces structures doit être plus petite que la longueur d’onde pour influencer la radiation, voire même beaucoup plus petite pour apparaître comme un matériau continu. D’où les dimensions nécessaires respectives, quelques millimètres pour les micro-ondes, quelques centaines de nanomètres pour le visible.

Lire la suite

vendredi, janvier 05, 2007

Dynamic Days (4) : Châteaux de sable

Les matériaux granulaires, comme le sable, m’intéressent énormément, mais je n’avais pas eu d’occasion particulière d’en parler jusqu’ici. Les conférences de ce matin sur le sujet, et des conversations avec des spécialistes du sujet, m’ont donné la motivation pour faire cesser cet intolérable manque.

L’étude des écoulements granulaires a beaucoup d’applications pratiques : remplissage et vidage des silos de grains, avalanche de neige, formation des dunes de sable, par exemple. Ce sont des objets physiques curieux : ils sont constitués de particules solides, mais s’écoulent, presque toutes leurs caractéristiques sont fortement non-linéaires, avec beaucoup d’hystérésis, ils sont insensibles à la température… En bref, presque aucun outil traditionnel d’étude des fluides ne leur est adapté.

Puisque les équations sont encore à trouver, une voie « naturelle » pour l’étude des écoulements granulaires semble alors être la simulation. Cependant, Anita Mehta, lors des Dynamic Days, a soulevé un problème intéressant. Les écoulements granulaires forment des structures très particulières, en forme de pont, où les grains s’appuient les uns sur les autres de façon à stabiliser l’ensemble, exactement comme l’arche d’un pont. Ces « ponts » sont responsables du bouchage des silos de grains, par exemple, et sont aussi la raison pour laquelle la fraction volumique des matériaux granulaires dans la nature (le volume occupé par la silice par unité de volume de sable, par exemple) est très faible : 54% environ, alors qu’un rangement aléatoire donne normalement 64%. Seulement, ces ponts ne peuvent se former que si les grains bougent en même temps ! Voilà qui pose des problèmes supplémentaires lors des simulations, qui sont habituellement conduites pas-à-pas.

Autre réflexion digne d’attention, il est possible de simuler la température des liquides normaux en agitant le matériau granulaire. D’ailleurs, c’était le sujet d’un poster intéressant, mais je n’ai pas retenu le nom de celui qui le présentait. En agitant le sable, on lui donne un mouvement désordonné, qui est exactement la définition de la température. Et effectivement, on retrouve des comportements normaux, au début : les configurations les plus probables sont favorisées (les plus probables étant celles qui sont réalisables par le plus d’arrangements différents[1], c’est-à-dire qui ont la plus grande entropie, c’est-à-dire ni la fraction volumique la plus faible possible, ni la plus grande possible, mais quelque part entre les deux). Ainsi, en agitant doucement un pot rempli de sable, il se tasse un peu. Par contre, si l’agitation est trop forte, le comportement devient contre-intuitif, et très éloigné de la température « habituelle » : le sable se dé-tasse, si je peux m’exprimer ainsi, il occupe plus de volume.

Pfff, pas simples, ces machins…


[1] La condition d’équiprobabilité des configurations est loin d’être évidente ici, mais est assez souvent vérifiée.

Lire la suite

jeudi, janvier 04, 2007

Dynamic Days (2) : Croisade quantique et superfluide

Pfiouu, deuxième jour des Dynamic Days… Manque de sommeil, manque de café, sujets ardus : la journée fut longue. Commentaire à chaud : la mécanique des fluides est un des domaines les plus difficiles que je connaisse, et un Français qui parle avec un accent à couper au couteau, à l’heure de la sieste, c’est dur (et si c’est dur pour moi, j’imagine pour les non francophones…). D’un autre côté, je pense que j’ai pour quelques semaines de sujets de billets !

Ce dont je veux parler en premier, c’est de l’idée assez iconoclaste de David Roberts, qui voudrait bien révolutionner un peu le monde des superfluides. Il pense que l’effet Casimir peut donner lieu dans les superfluides à une traînée (les explications arrivent, pas d’inquiétude), ce qui est presque contradictoire avec la notion de superfluide. Il a bien du mal à convaincre la communauté, et comme j’ai été plutôt emballé, je veux apporter ma petite pierre à l’édifice. Evidemment, le fait qu’il soit un type très sympathique et abordable, qu’il aime Paris, et que le pain français lui manque aux USA, n’a pas influencé mon objectivité scientifique légendaire.

Ok, je sens que ça va être dur… Vulgariser la force Casimir dans les superfluides, c’est pas évident, d’autant que j’ai un livre passionnant sur le feu. Je vais essayer de définir les termes, de donner des liens vers Wikipédia, et de poser le problème, et si un point n’est pas clair, on en discute en commentaires, d’accord ?

Alors, la force Casimir, c’est un effet purement quantique qui s’exerce entre deux plaques très proches dans un vide poussé. Le vide n’est jamais totalement vide : le champ électromagnétique n’est jamais nul et oscille toujours un peu, de la même façon que le principe d’incertitude d’Heisenberg empêche de connaître absolument à la fois la position et la vitesse d’une particule. Ces fluctuations, appelées l’énergie du vide, se produisent aléatoirement à n’importe quelle longueur d’onde. Toutefois, entre les deux plaques rapprochées, les plus grandes longueurs d’onde sont bloquées : cette faible énergie manquante équivaut à une différence de pression, qui pousse les plaques l’une contre l’autre (la force est très faible, bien sûr).

Les superfluides sont une espèce exotique qui, à très basse température, ne présente aucune viscosité, une conductivité thermique et une conductivité électrique infinies. Le fluide est (idéalement totalement, en réalité localement) un condensat de Bose-Einstein, dans lequel tous les atomes partagent le même état électronique fondamental. En fait, à ce niveau, le fluide n’est plus qu’un gros atome totalement délocalisé. L’hélium est l’exemple classique, mais des analogues dans des gaz dilués peuvent aussi être utilisés.

Dans la théorie classique de Landau, les superfluides, pour peu que la vitesse du fluide soit inférieure à une certaine vitesse critique, ne subissent aucune force capable de faire passer les atomes, à la suite de chocs par exemple, de leur état d’énergie minimale à un état d’énergie supérieure. Cet argument simple montre qu’il n’y a pas de dissipation d’énergie : un superfluide peut réaliser un mouvement perpétuel, même s’il y a un obstacle à contourner sur son chemin.

L’idée de David Roberts, c’est que les fluctuations quantiques, négligées dans la théorie de Landau, sont légèrement dispersées lors du contournement de l’obstacle. Cela donne naissance à une force de traînée qui ralentit le fluide. Ainsi, contrairement à la théorie commune, un superfluide qui rencontrerait des impuretés sur son chemin finirait par s’arrêter !

David Roberts a quelques atouts de son côté : des calculs assez convaincants (suffisant en tout cas pour mes maigres connaissances en physique quantique), un mécanisme cohérent avec un phénomène connu, et une équation finale analogue à celle utilisée dans l’effet Casimir. La plupart des physiciens quantiques, et des mécaniciens des fluides « traditionnels », n’ont pas de problèmes particuliers avec sa théorie. C’est du côté de la communauté des physiciens des superfluides que ça coince : à quelques exceptions près, l’accueil est plutôt négatif. Après tout, c’est presque la définition de la superfluidité qu’il remet en cause, et les expériences habituelles semblent lui donner tort[1] !

Je ne veux pas préjuger de la valeur des uns et des autres : j’essaie farouchement de combattre les préjugés trop répandus des « scientifiques qui conspirent dans leur tour d’ivoire contre les idées nouvelles pour protéger leur dogme ». Entre l’intuition d’un post-doctorant, et une théorie bien développée concordant avec les expériences, s’il fallait faire un choix, il serait vite fait. Mais heureusement, David Roberts n’est pas un de ses farfelus dont les idées patascientifiques s’appuient surtout sur le préjugé précédent. Je lui souhaite donc du courage, pour persévérer dans ses recherches : s’il parvient à monter une expérience suffisamment précise pour montrer l’existence de cet effet, il parviendra à vaincre les réticences psychologiques et les conceptions communément admises.

PS : bon, je n'arrive plus à uploader des images sur Blogger... Snif.



[1] Sans rentrer dans les détails, David Roberts argumente que le mouvement perpétuel observé dans un courant cylindrique n’invalide pas son idée, car la dissipation des fluctuations quantiques d’un côté de l’obstacle est compensée après un tour, quand le fluide revient du même côté de l’obstacle. Ainsi, son effet serait visible dans un régime transitoire, avant la fin du premier tour, ou dans une géométrie linéaire.

Lire la suite