Penseur

lundi, janvier 29, 2007

Une expérience dans votre cuisine

Dans la lignée du billet ou je parlais de certains types de matériaux insolites, continuons avec les fluides non-newtoniens, et une expérience amusante à faire dans votre cuisine.
Petites définitions, tout d'abord. Un fluide est dit newtonien s'il a une viscosité constante dans toutes les expériences. Plus précisément, quand le fluide subit un cisaillement, la force nécessaire est proportionnelle à la vitesse de déformation imposée, et le coefficient de proportionalité est la viscosité. D'un point de vue mathématique, la relation est linéaire, ce qui simplifie beaucoup les équations (et pourtant, la mécanique des fluides reste un des domaines de la physique les plus difficiles mathématiquement. Bon nombre d'étudiants en maths appliquées font en fait leur thèse sur un sujet de mécanique des fluides).

Un fluide non-newtonien s'écarte de cette loi : il a un comportement non-linéaire. La viscosité peut, selon les cas, diminuer ou augmenter avec la vitesse de déformation. Dans le premier cas, le fluide est dit rhéofluidifiant : un bon exemple est la peinture qui adhère au pinceau et au mur, mais qui s'écoule lors de l'application. Dans le deuxième cas, il est dit rhéoépaississant : les polymères présentent souvent ce type de comportement, comme la Silly Putty ou l'amidon de maïs. Le comportement peut parfois être encore plus subtil, comme dans les fluides à seuil.

Voilà maintenant l'expérience du jour : la rhéologie dans votre cuisine. Munissez-vous d'un batteur à oeufs électrique, d'un grand bol rempli d'eau, et de farine.

Actionnez le batteur dans l'eau : vous verrez une légère dépression se creuser, comme si l'eau "fuyait" le batteur. Il s'agit simplement de l'action de la force centrifuge.

Ajoutez un peu de farine : le comportement ne change pas, le mélange reste newtonien, comme l'eau.

Ajoutez progressivement de la farine, jusqu'à obtenir un mélange relativement dense. Vous observerez, à partir d'un moment donné, le comportement opposé : le fluide "grimpe" le long du batteur, comme s'il était attiré. Il s'agit de l'effet Weissenberg, appellé "rod-climbing" en anglais, que la décence m'interdit de traduire en français. Il est dû au fait que la pâte de farine, tout comme un bon nombre de fluides non-newtonien, exercent des forces perpendiculaires à la déformation, alors que les fluides usuels se contentent de résister dans la direction parallèle. Ce sont ces forces qui vont justement "tirer" la pâte vers le haut.

PS : grrr, j'avais justement plein d'images à mettre pour illustrer l'article, et Blogger fait des siennes...

Lire la suite

Dieu Google et ses saints

Ce blog n'a pas de raison d'être très différents des autres : une bonne partie de mon lectorat, environ 40%, est constituté de visiteurs de passage, qui arrivent ici au hasard d'une recherche sur google. J'ai la chance de ne pas être proposé par les moteurs de recherche pour des requêtes classées X (quoique peut-être, un petit touché rectal, quelqu'un ?) : c'est peut-être moins bon pour l'affluence, mais meilleur pour éviter le spam. Les sujets les plus importants, en terme de volume, sont la cuisine moléculaire, le DHMO, le libre arbitre, le rapport Stern, et quelques autres sujets scientifiques traités ici. Je rigole toujours quand je vois que des gens viennent pour apprendre à faire une bonne présentation.

Mais la meilleure requête du mois de janvier est la suivante : vide quantique + anges et démons. Mais que voulait-il savoir ... ?

Lire la suite

L'aube d'un changement

Les signes d'un changement massif de paradigme concernant le changement climatique se multiplient. L'évolution se fait en trois temps : le lobbying des scientifiques qui influencent, malgré l'inertie, les opinions publiques mondiales, les investissements massifs dans les nouvelles technologies "propres", et, loin derrière, les politiques qui suivent le mouvement.
Les scientifiques du GIEC ont réussi, d'après Le Monde, la plus belle opération de lobbying [scientifique] depuis la réalisation de la bombe atomique par les Etats-Unis durant la deuxième guerre mondiale. Petit à petit, le message passe, et les citoyens commencent à s'inquiéter du réchauffement climatique. Or, les citoyens ne demandent jamais aussi fortement le changement que quand ils l'expriment en tant que consommateurs. S'ils veulent consommer autrement, il se trouvera toujours des investisseurs pour exploiter le filon.

Et justement, les nouvelles technologies "vertes" sont la mine d'or de l'avenir. Comme je l'ai deja dit, à partir des problèmes écologiques, si la recherche et l'innovation sont encouragées, si l'environnement économique est propice, il est possible de faire avancer la science, de faire de l'argent, et de créer des emplois.

Ce genre d'environnement existe en Californie, par exemple. On voit maintenant les investisseurs pousser le gouvernement américain à infléchir sa politique énergétique. Ils n'ont pas encore le poids d'Exxon, bien sûr, mais leur image est bien meilleure, ce qui peut faire réfléchir en période électorale.

La recette pour sauver le monde ? C'est peut-être de mélanger lobbying scientifique, recherche, innovation, et esprit d'entreprise.

Lire la suite

samedi, janvier 27, 2007

Toilettage

J'ai un peu dépoussiéré la mise en page du blog, actualisé les liens, rajouté un logo... Après un peu de travail, alors que j'étais plutôt satisfait du résulat, j'ai eu l'idée saugrenue de passer à la dernière version de Blogger, qui promettait monts et merveilles. J'aurais dû savoir que le mieux est l'ennemi du bien...

Effectivement, le nouveau système de mise en page dynamique par "widgets" est plutôt sympa, même s'il est loin de laisser la liberté que j'espérais. Par contre, ce qui est sûr, c'est que ce changement s'accompagne d'une refonte complète du code, et j'ai eu bien du mal à retrouver l'apparence initiale. Je ne suis pas vraiment satisfait du résultat, et je cherche encore un widget "commentaires récents" qui marche sans réorganiser la mise en page de façon aléatoire, ou qui prenne des heures à se charger. Je ne suis pas sûr que les archives marchent bien non plus. Par contre, je suis content du script Lire la suite/ Replier.

Je présente donc mes excuses aux visiteurs qui sont tombés sur des pages en travaux, et pendant que j'y suis, aux lecteurs qui rencontreraient des éventuels problèmes (liens morts, mise en page étrange, etc).

N'hésitez pas à me dire, en commentaire, ce qui va, ce qui ne va pas, ce qu'il serait bien d'ajouter ou d'enlever...

Lire la suite

vendredi, janvier 26, 2007

La matière noire cartographiée !

Je suis tombé en arrêt, cet après-midi, sur le numéro de Nature de la semaine dernière, car la couverture a attiré mon attention. Il était question de matière noire.

La matière noire, c’est la tarte à la crème de la physique moderne : tout le monde l’étudie sans avoir la moindre idée de sa nature. Tout comme l’éther au début du siècle dernier, une telle énigme est pleine de promesses pour les physiciens. La matière noire sera probablement un jour à l’origine d’une révolution scientifique comparable à la théorie de la relativité d’Einstein, soit par la découverte de ce qu’elle est, soit par la formulation d’une théorie plus générale qui expliquer les observations sans elle. Je vais essayer d’expliquer un peu ce que l’on entend par ces termes, puis je parlerai de l’article en lui-même.

La première observation astrophysique « bizarre » a été la distribution des vitesses des galaxies au sein des amas galactiques, beaucoup trop regroupée par rapport à la masse estimée de l’amas. Il y a eu, ensuite, l’impossibilité de faire coïncider la masse d’une galaxie estimée à partir de ses effets gravitationnels, et celle estimée à partir de sa luminosité : la deuxième est plusieurs dizaines ou centaines de fois trop faible.

Mais l’observation la plus choquante, car la plus précise, est venue de la distribution des vitesses des étoiles au sein d’une galaxie. D’après une des lois de Kepler, cette vitesse devrait décroître avec la distance au centre – elle s’avère, en fait, constante. Tout se passe comme si un halo de matière invisible s’étendait sur le pourtour de la galaxie, halo qui représenterait 90% de la masse de la galaxie !

D’un point de vue phénoménologique, la façon la plus simple de décrire ces différents phénomènes est une matière d’un genre inconnu, qui n’interagit pas avec les photons (la force électromagnétique), mais qui est soumise à la gravitation. Cette hypothèse est cohérente avec les différents points énoncés plus haut, avec son invisibilité, et résout même quelques autres problèmes. Par exemple, elle permet d’expliquer comment les infimes variations de densité de la soupe primordiale, après le Big Bang, ont pu évoluer si vite en galaxie et en amas : la matière noire aurait été là pour accélérer le processus.

Elle n’a que deux défauts, et pas des moindres. Le premier est, par définition, que personne n’a jamais vu un grain de matière noire. Personne n’a même jamais vu de traces de chocs avec la matière noire dans les accélérateurs de particules. Le deuxième est que la matière noire n’a aucune place dans le « Modèle Standard », la vision relativement claire que l’on a de la physique.

La page Wikipédia présente bien les approches correspondant à ces deux problèmes. La première famille d’explications correspond à des particules, soit des objets connus (nuages de gaz, neutrinos, trous noirs) mais pas encore détectés, soit des particules inconnues, de masse non nulle, n’interagissant pas avec les photons. La deuxième famille regroupe des théories alternatives au duo formé par Newton et Einstein, pour expliquer les effets observés sans avoir besoin d’invoquer de la matière invisible. L’état de l’art est le suivant : les programmes d’observation semblent prouver que les objets connus ne sont pas responsables, et les théories alternatives peinent à former un consensus (la théorie des cordes aurait même tendance à faire consensus contre elle).

L’article de Nature, donc, est la traque la plus large et la plus détaillée, à partir des clichés du télescope Hubble, de cette matière noire[1]. Les chercheurs (pas mal de Français dans le lot, au passage) ont cherché les lentilles gravitationnelles[2] dans une petite portion de l’espace (un degré d’angle dans chaque dimension transversale et une faible profondeur), car cet effet donne accès à la densité massique et est indépendant des hypothèses, ce qui est capital quand on ne sait pas ce que l’on cherche.

Après avoir analysé la forme d’un demi-million de galaxies, excusez du peu, ils ont réussi à produire la première carte de la matière noire à l’échelle d’un amas de galaxies, avec une haute précision et une bonne résolution, et, cerise sur le gâteau, à trois instants successifs dans le temps (souvenez-vous que la distance par rapport à la Terre et le temps sont équivalents). Le résultats est splendide : la matière noire forme des zones plus denses, d’abord en forme de filaments, puis en amas, qui attirent encore plus de matière noire et standard, jusqu’à former des galaxies. Cette carte est donc en accord avec les premières idées sur la matière noire que nous avions formulées pour les galaxies, et les étendent à l’échelle des amas.

Ce travail, que l’on devine titanesque, va certainement avoir un rôle pratique capital en astrophysique. Il sera le premier étalon auquel seront mesurées les théories candidates sur la matière noire, et il servira aussi à bâtir des scénarios d’évolution de l’univers. Souhaitons-leur bonne chance.


[1] Les lecteurs attentifs auront compris « matière noire » comme « soit de la matière invisible et inconnue, soit un effet explicable par une théorie pas encore formulée », bien évidemment.

[2] Une lentille gravitationnelle est un effet purement relativiste, dans lequel l’attraction gravitationnelle de la matière courbe la lumière, comme dans une lentille de verre. Il est possible de repérer ces effets, et d’en déduire la masse ayant agi sur la lumière.

Lire la suite

jeudi, janvier 25, 2007

Deux réflexions sur la pluridisciplinarité

Malgré la honte qui m'étouffe, je vais commencer par une évidence : la science d'aujourd'hui est tellement avancée, que la seule maîtrise d'un sous-sous-domaine prend des années, et qu'il est illusoire d'espérer approfondir plusieurs disciplines au-delà des simples bases. Les thèses de doctorat demandent un solide background dans le domaine ne serait-ce que pour en comprendre l'intitulé. Les équipes, dans l'industrie tout comme dans les labos, ont de plus en plus tendance à regrouper des spécialistes de domaines différents. Comment les faire communiquer ?

Le simple fait de poser cette question apporte une réponse à une autre question, le salaire mirobolant des ingénieurs sortis de l'X, de Centrale ou des Mines, alors qu'ils ne savent concrètement rien faire. S'ils ne savent rien faire, c'est que leur formation n'est pas spécialisée. Au contraire, la formation des écoles d'ingénieurs les plus prestigieuse est volontairement très variée, même si cela se fait au prix d'une certaine abstraction : ainsi, ils sont capables prendre la tête d'une équipe, et de comprendre ce dont chacun des spécialistes de l'équipe parle. Pour reprendre une vieille discussion, les doctorants sont par contre vus comme plus spécialisés par les recruteurs de l'industrie, ce qui explique qu'ils ne soient pas particulièrement recherchés en Développement de produit.

Je pense pour ma part que la conduite d'un doctorat demande de s'interesser à beaucoup plus de sujets connexes que ne l'imaginent les industriels (issus, en France, des écoles d'ingénieurs), et qu'ils seraient au moins aussi compétents que les élèves ingénieur : l'exemple d'autres pays comme les USA est là pour nous le montrer.

De toute façon, j'avais prévu de faire ce billet pour vous indiquer deux liens : ce billet de Tom Roud qui donne son exemple personnel de l'incompréhension entre spécialistes de domaines différents, et les commentaires de Pierre sur un ancien billet qui suggère carrément de créer une discipline pour comprendre et maîtriser la multidisciplinarité, qu'il appelle qualicognition. Un qualicogniticien serait un peu l'équivalent, dans une équipe scientifique, de l'ingénieur dont je parlais plus haut. Je n'ai peut-être rien compris à ce qu'il disait - mais au moins, si cela le fait revenir des profondeurs du blog, ça ne serait pas mal !

Lire la suite

mardi, janvier 23, 2007

Les états intermédiaires de la nature

Au Commencement, les choses étaient simples et claires. Il y avait la Terre, solide, l’Eau, liquide, et l’Air, gazeux. Les choses étaient claires… Jusqu’à ce que les physiciens viennent perturber tout cela. Petit inventaire.

Les gaz et pour les liquides s’écoulent, plus ou moins vite en fonction de leur viscosité, à la moindre force ou pression exercée sur eux. La seule question pour ces fluides est de savoir s’ils le font d’une manière régulière ou turbulente. Les gaz, par ailleurs, se distinguent des liquides par leur caractère compressible.

Les solides, eux, répondent à la pression en se déformant. Si le matériau reprend sa forme initiale quand il est relâché, il est élastique : la force nécessaire augmente avec la déformation. Si la force nécessaire est relativement constante, et si le matériau n’a pas tendance à reprendre sa forme, il est plastique. Ils peuvent, enfin, être fragile, et casser quand la force atteint un certain seuil. La plupart des solides sont élastiques à petites déformations, et sont ensuite plastiques ou fragiles.

Cependant, il existe un certain nombre d’états de la matière qui n’entrent pas dans cette classification, et qui font, pourtant, partie de notre vie de tous les jours.

Entre les solides et les liquides, on trouve par exemple ce que l’on appelle des fluides à seuils. En dessous d’une certaine force critique, ils se comportent comme des solides, et au dessus de cette limite, ils fluent comme des liquides. Des exemples ? Ketchup, mayonnaise ou Nutella pour la cuisine, dentifrice et crèmes dans la salle de bain, produits utilisés dans l’extraction pétrolière, certaines argiles en géologie…

Toujours entre liquides et solides, les polymères, composant des plastiques ou des caoutchoucs, ont eux aussi un comportement intéressant. J’en avais déjà parlé ici : tout est une question de temps. Ou de température, d’ailleurs, les deux notions étant équivalentes. Prenez un objet en plastique quelconque pas trop solide, et essayez de le déformer. Le résultat sera à peu de choses près le même si

- vous tirez vite et fort,

- ou moins fort mais pendant plus longtemps,

- ou moins fort, pendant la même durée, mais au-dessus d’une plaque chauffante.

La rigidité d’un matériau polymère « solide » ou la fluidité d’un plastique « fondu » sont donc des notions toutes relatives. A temps long et au chaud, les deux sont fluides, et à temps courts ou au froid, les deux sont solides.

Entre liquide et gaz existent les mousses. Une mousse est un assemblage subtil, dans lequel un fin dôme de liquide est maintenu dans l’air. Habituellement, la tension superficielle (qui représente au niveau macroscopique l’attraction entre les molécules du liquide) tend à le faire s’effondrer, c’est pourquoi la fabrication d’une mousse nécessite le plus souvent l’emploi d’un composé chimique intermédiaire appelé surfactant ou tensioactif, qui se place à la surface du liquide et annule presque sa tension de surface. Dans la vie de tous les jours, il s’agit tout simplement d’un savon ou d’un détergent.

Il est absolument remarquable que l’alliance de deux fluides, air et eau, puisse donner en présence de savon un composé similaire à un solide, dont on peut mesurer des propriétés mécaniques comme l’élasticité. Par ailleurs, les mousses évoluent dans le temps, l’évaporation du gaz à travers la paroi provoquant la coalescence des bulles. Une application intéressante du phénomène est que la Guinness est servie sous pression avec de l’azote, à la différence de la majorité des autres bières qui utilisent du dioxyde de carbone. L’azote diffuse plus lentement à travers l’eau, donc la mousse de la Guinness tient plus longtemps que celle des autres bières, ce qui correspond aux attentes des consommateurs irlandais.

Finissons en beauté avec l’intersection entre solide et gaz, les aérogels, dont j’avais parlé ici. Ces structures, qui résultent du séchage de gels habituels dans des conditions supercritiques, ont des propriétés[1] absolument fantastiques. Il s’agit des meilleurs isolants thermiques et acoustiques connus, ils peuvent supporter plusieurs milliers de fois leur poids en compression bien qu’ils aient une densité à peine supérieure à celle de l’air, et qu’ils sont tellement friables qu’ils servent à récolter des poussières spatiales. Il semble aussi qu’ils fassent partie des matériaux les plus chers du monde au gramme.

Et que pourrait-il y avoir à l’intersection du gaz, du liquide ET du solide ?


[1] Toutes ces propriétés, bien entendu, sont des approximations d’ordre général, puisqu’il existe des aérogels basés sur des composés chimiques très différents, silice, carbone, et même blanc d’œuf !

Lire la suite

Un petit pas

La NASA adopte le système métrique. Enfin !

Je n'ai rien contre le fait que les américains aient leurs unités bien à eux, mais :
- leurs unités ne sont pas décimales. Il y a 128 fluid ounces, soit 8 pints dans un gallon (qui fait aussi 4 quarters ou 231 pouces au cube). Il y a 12 pouces dans un pied, 3 pieds dans un yard, 1760 yards dans un mile.
- cela ajoute de la confusion dans les coopérations internationales (Mars Climat Orbiter et le premier tir d'Ariane 5 sont de bons, mais coûteux exemples).
- Les livres (pounds) peuvent servir d'unité de masse ou de force (à la gravité près) selon le contexte. Comme si on confondait systématiquement masse et poids.

Il est temps de faire un peu le ménage...

Lire la suite

L'avenir de la science

Via Le Doc, Futura-Science propose un aperçu de la science dans 50 ans. En vrac, ordinateurs quantiques conscients, séquençage du génome pour 1000 euros, découverte de traçes de vie extraterrestre...

La liste semble bien incomplète, je me demande qu'elle était la spécialité des scientifiques interrogés. Je note, en particulier, qu'il n'est pas fait mention de la maîtrise de la fusion nucléaire. "La fusion, énergie du futur, pour toujours" ?

Je remarque surtout que les prédictions sont singulièrement moins aventureuses dans le domaine des techniques de la vie de tous les jours que les fantasmes que l'on se faisait au milieu du siècle dernier sur l'an 2000. Exemple : ces prédictions de Science et Vie en 1959. A quand Paris interdit aux voitures ? Par contre, ils ont bien prédit l'iPhone et les livres électroniques (qui tardent un peu, tout de même).

EDIT : le dossier original vient de New Scientist, et couvre de nombreux domaines. Il y est en particulier fait mention d'une nouvelle source d'energie, peut-etre a l'echelle nanoscopique. Mais toujours pas de confiance en la fusion.... merci Enro

Lire la suite

samedi, janvier 20, 2007

La jolie image du weekend

Les derniers billets, politiques par leur thème et austères par leur forme, ne m'ont pas donné l'occasion de les décorer des belles images que j'apprécie habituellement. Ce billet sera donc plus léger et plus coloré : je vous présente les coléoptères tropicaux.Commençons par une petite anecdote trouvée sur Wikipédia : l'ordre des coléoptères est celui qui compte le plus grand nombre d'espèces, ce qui fit dire au philosophe Haldane que ce que l'étude de la nature lui avait appris de Dieu, c'était "un grand amour des coléoptères".

Manifestement, les quelques espèces tropicales de la photo ne vont pas le faire mentir. Regardez en particulier le blanc éclatant (on dirait une pub de lessive) de ces bébêtes : il est unique dans le monde animal.

Généralement, les couleurs, dans la nature, sont dues à des pigments (des composés chimiques) qui peuvent absorber une partie des radiations lumineuses reçues. Par complémentarité, la lumière renvoyée est alors colorée.

Un autre système existe, en particulier chez les papillons : la structure très particulière, très ordonnée, des écailles de leurs ailes, créé des interférences destructives pour certaines longueurs d'onde. Là encore, la lumière qui n'est pas affectée (celle dont la longueur d'onde n'est pas égale à un nombre de fois demi-entier la période de ladite structure) est colorée.

La troisième méthode, utilisée par d'autres papillons, insectes et poissons, est la diffraction. Une certaine rugosité des écailles réfléchissantes fait que certaines teintes sont renvoyées dans toutes les directions, donnant un résultat coloré.

Chez ces coléoptères tropicaux blancs, la structure microscopique est fascinante (lien nécessitant une inscription, gratuite, sans spam) : des protéines sont dispersées aléatoirement à la surface de la carapace, avec deux caractéristiques uniques :

- Il n'y a pas de distance privilégiée, et la diffraction se fait ainsi sur tout le spectre visible, d'où la couleur blanche.
- Les protéines sont relativement dispersées, ce qui donne un des blancs les plus "brillants" du monde animal. Bien plus, par exemple, que certains papillons blancs "sales". Les protéines ne sont cependant pas trop dispersées : juste à la limite, avant que la diffraction n'en soit diminuée.

Au delà de l'aspect esthétique, et de l'émerveillement devant ce que la nature et l'évolution ont réussi à produire, il y a quelques applications intéressantes : le revêtement des lampes à halogènes, utilise les techniques d'interférence pour ne pas refléter l'infrarouge, et donc, ne pas chauffer.

Lire la suite

jeudi, janvier 18, 2007

Moi, crédule ?

Nicolas Sarkozyet Ségolène Royal semblent tout deux vouloir placer la question de la recherche et de l'innovation parmi leurs priorités, non seulement en terme de budget mais aussi en terme de réforme. François Bayrou n'est pas en reste, même s'il semble en retrait des deux autres en termes de propositions, alors que j'aurais pensé l'inverse il y a quelque temps.

Je suis tout d'abord bien content de cette évolution : indépendamment de la franchise ou non des candidats, j'ai l'impression que l'avenir de la recherche française fait maintenant bien plus partie du débat politique que lors des élections précédentes.

Ensuite, j'aurais tendance à croire ces trois candidats plutôt sincères sur ce point, car la question colle bien à ce que l'on peut comprendre de leurs lignes politiques générales, quoique floues qu'elles puissent être. Qu'ils soient sincères maintenant ne présagent en rien, bien sûr, que les promesses soient tenues après l'élection (délicieux paradoxe de la politique), je ne suis pas naïf. François Bayrou, plus modeste sur ses promesses budgétaires, moins révolutionnaire dans ses propositions de réforme, est plus crédible sur sa capacité à effectivement mettre en oeuvre ce qu'il dit. Tsss, François, combien de fois faudra-t-il te répéter que ce n'est pas comme ça qu'on gagne une élection... :-)

Lire la suite

Homéopathie

Cela fait bien longtemps que je voulais faire un article sur l'homéopathie, mais il y a toujours quelque autre sujet pour retarder le moment. Alors, à la place, je vous indique juste cet excellent article sur Agoravox auquel je souscris complètement. Il fait le tour de la question d'un point de vue scientifique, et est très bien écrit. Merci à l'auteur.

Lire la suite

mardi, janvier 16, 2007

Débat éternel

Après un weekend fort agréable, mais allongé contre ma volonté par les caprices de la météo, je découvre cet article du Monde, sur la valorisation de la recherche en France, ce commentaire du Benjamin du Bacterioblog (et des commentaires très intéressants), cette réponse (et quelques chiffres) de l’association Sauvons la Recherche, et, au hasard d’une recherche google, ce rapport du Sénat de mai 2006. Lectures instructives…

L’article initial du Monde (écrit par Annie Kahn, comme souvent sur ce sujet) parle d’un rapport, que l’on aimerait public, sur l’état de la valorisation de la recherche en France. Les axes étudiés sont, à mon avis, essentiels pour la bonne santé de la recherche : les partenariats public-privé, les brevets, et la création de startups technologiques. Le constat est très mauvais sur le premier point (le volume total des contrats mixtes est légèrement décroissant, et est surtout très concentré sur quelques organismes comme le CEA), mitigé pour le deuxième (les dépôts de brevet augmentent, mais ne sont pas toujours rentables, surtout pour les universités), et réservé pour le troisième (les startups existent mais ont du mal à se développer). Le dernier point est que les entreprises françaises ont toujours autant de réticences à engager des jeunes docteurs, plutôt que des jeunes ingénieurs.

D’après mon expérience personnelle, j’aurais tendance à souscrire complètement à ce point de vue. D’ailleurs, j’avais déjà parlé de ces sujets à quelques reprises : la méfiance réciproque des labos publics et des entreprises, qui se traduit par exemple dans le manque de soutien au dépôt de brevets, est à mon avis bien plus dommageable que le pourcentage du PIB dédié à la recherche publique. C’est pourquoi je pense que Benjamin se trompe de cible : je ne crois pas que le rapport dénonce des aides à la valorisation qui seraient détournées pour « développer la recherche fondamentale » ou qu’il se livre à « la désignation facile de boucs émissaires ». Il est question de mesures coûteuses inutiles voire contre-productives, et de pointer du doigt des dysfonctionnements : il ne faudrait pas faire dire au rapport ce qu'il ne dit pas.

Benjamin l'écrit lui-même : les organisations qui fonctionnent bien ont une « philosophie de la valorisation » : le problème est donc bien que les autres organismes, CNRS et universités en tête, ne l’ont pas. Les budgets publics limités ne sont pas la cause du faible pourcentage de la recherche privée « externalisée » dans le financement de thésards CIFRE, ni à la timidité desdits thésards à se lancer dans l’aventure « startup », ni au peu de brevets déposés par les labos publics. D’ailleurs, le pourcentage de PIB investit par la France dans la recherche est loin d’être ridicule (chiffres 2004) par rapport aux autres pays de taille comparable, même si l’évolution est négative. Ce qui manque, c’est la rentabilité.

En fait, pour nuancer mon propos, il y a bien un domaine où les financements publics sont vraiment trop faibles, c’est la biologie. Le secteur d’avenir de la recherche mondiale est le parent pauvre en France. Et comme Benjamin fait de la biologie, je comprends son point de vue, mais j’essaie ici de généraliser.

Pour améliorer la situation des labos français, il serait bon qu'ils essaient de trouver des partenariats avec des entreprises, qu’ils pensent aux applications (il n'y a rien de honteux à cela) et déposent des brevets, et de façon générale qu’ils arrêtent un peu d’avoir en tête le schéma ridicule selon lequel l’argent du privé ne peut être destiné qu’à de la recherche à court terme. De leurs côtés les entreprises doivent voir que les compétences des docteurs leur seraient bien utiles, et pas seulement en Recherche et Développement, et que la recherche à long terme peut être aussi être faite dans les labos publics. Bizarrement, d’après mon expérience personnelle, les labos qui marchent le mieux, et les entreprises qui ont une forte avance technologique dans leur secteur, fonctionnent ainsi. Mais la diffusion de ces façons de faire prend du temps…

EDIT : des membres du c@fé des Sciences me signalent un autre article basé sur le même rapport, qui donne 10 propositions pour dynamiser certains secteurs de la recherche. Certaines me semblent intelligentes : regrouper les universités et leur donner de l'autonomie, simplifier le financement (et l'organigramme, ajouterais-je) des labos, bref simplifier, rationaliser, améliorer la visibilité. Orienter les aides à la recherche vers les PME est intéressant à la fois d'un point de vue économique et scientifique, de même que l'augmentation des thèses CIFRE. D'autres me semblent beaucoup moins adaptées à la réalité de la recherche : si je suis partisan de développer jusqu'à un certain point le financement par projet, sa généralisation ne serait pas forcément une bonne chose.

Lire la suite

mercredi, janvier 10, 2007

Brevets français et américains

Un chercheur ayant réalisé une découverte de quelque importance est confronté à un choix : publier ou breveter ? Publier, c’est la reconnaissance par ses pairs, et la valorisation dans le milieu académique. Breveter, c’est interdire à quiconque d’utiliser votre invention dans le pays du brevet, sauf à vous payer des royalties. En contrepartie, le processus de dépôt de brevet est long, plusieurs années, et couteux, plusieurs milliers d’euros. On comprend donc qu’avant de choisir une telle galère, et je pèse mes mots, un chercheur va soigneusement peser les deux plateaux de la balance.

Il y a un certain nombre de motivations pour déposer un brevet : les royalties, bien sûr, mais surtout, le désir de réaliser quelque chose de concret : un nouveau matériau, une nouvelle molécule, l’amélioration d’un système mécanique ou électronique… Cette motivation, contrairement à ce que peuvent penser les cyniques, est au moins aussi importante que la première.

J’ai déjà parlé des obstacles : temps, coût. Il faudrait aussi mentionner les troubles juridiques qui y sont associés : entre rédiger un brevet et le défendre, les avocats en propriété intellectuelle ont du travail, merci pour eux. Par exemple, j’ai récemment entendu parler d’une affaire de brevet qui se juge actuellement à la Cour Suprême, excusez du peu.

Les universités américaines aident leurs étudiants, doctorants, post-docs, chercheurs, dans ces démarches. Dans tous les grands centres de recherche – et dans la majorité des plus modestes – il existe un Patent Office ou un Licensing Technology Office. Quel que soit son nom, il s’agit d’un bureau prenant en charge les demandes de brevets, pour le volet juridique (la définition précise du brevet) comme pour le volet économique (démarchage d’entreprises intéressées par l’achat d’une licence, ou validation du business plan si l’inventeur veut monter sa boîte). Les royalties des brevets se répartissent de la façon suivante : après remboursement des coûts du brevet (jusqu’à 25 000 $, tout de même, pour une couverture internationale) et déduction de 15% pour le Patent Office, ce qui reste est divisé en trois tiers, l’université, le département, et l’inventeur. Certains pourraient penser, sur un air bien connu de lutte des classes, qu’il s’agit là d’une exploitation honteuse de la matière grise des étudiants, mais il faut voir que toutes les parties ont intérêt à ce que les brevets soient déposés, et à ce que les start-up se créent et réussissent. L’inventeur, souvent jeune, souvent occupé par un travail à temps plein, est en échange bien content d’avoir le soutien d’une grosse machine bien rôdée à toutes les étapes du processus, qui lui dégage l’esprit et l’emploi du temps.

En France, par contre, rien de tel, y compris dans les plus prestigieuses écoles d’ingénieurs ou facultés[1]. Il existe seulement des bureaux dont le nom, du genre Relations industrielles, traduit bien le côté gestionnaire plutôt qu’incitatif et accompagnateur. De plus, et c’est encore plus problématique, le mépris diffus du monde académique pour le monde de l’entreprise (de l’argent) fait que les jeunes doctorants ou post-docs ne sont pas valorisés quand ils souhaitent déposer un brevet, voire se lance dans l’aventure d’une start-up technologique. Cela se traduit de façon peu quantifiable, mais très nette, dans les discours. Si les difficultés réelles demandent de la motivation et du talent pour être surmontées, cette motivation est minée par le manque de soutien.

Deux chiffres rapidement calculés, pour conclure[2]. L’Ecole Polytechnique compte environ 400 doctorants et 750 chercheurs, et dépose 15 brevets par an. Le MIT compte 6000 graduate students, dont environ 2000 en PhD, et 1000 faculty (enseignants-chercheurs, approximativement), et dépose 320 brevets par an. (320/3000) / (15/1150) = 8, les chercheurs du MIT déposent, à la louche, 8 fois plus de brevets par personne que les chercheurs de Polytechnique. Le calcul peut être contesté, mais la tendance lourde est là.



[1] Je suis limité par mon expérience personnelle et les sites internet. Toute information supplémentaire est volontiers acceptée !

[2] Encore une fois, toute donnée chiffrée supplémentaire, sur votre Ecole ou Université par exemple, est bienvenue.

Lire la suite

mardi, janvier 09, 2007

Dynamic Days (7) : La vie, nouveau Meccano

Le billet de Dvanw sur la biologie synthétique décrit cette nouvelle discipline : il s’agit d'envisager la cellule et le code génétique non plus du point de vue des sciences de la vie ( en essayant de comprendre ) mais du point de vue de l'ingénieur ( en essayant de fabriquer ! ). Le but est de concevoir et fabriquer des composants biologiques et des systèmes qui n'existent pas auparavant dans la nature. Je voudrais montrer quelques exemples de cette approche, tirée d’une conférence de James Collins.

Les bioingénieurs de ce domaine sélectionnent, à partir d’une liste qui fait penser à un catalogue d’électronicien ou à une boîte de meccanos, un certain nombre de gènes pour les assembler et réaliser une tâche donnée. Ces gènes sont assemblés en un plasmide (un chromosome circulaire) et sont insérés dans une bactérie comme E. Coli. La bactérie se charge alors de synthétiser les protéines du « programme » (car la meilleure analogie est un programme informatique).

Un premier exemple est la bactérie « On-Off », ou interrupteur biologique. Il s’agit d’un système de trois gènes : deux d’entre eux commande la synthèse d’une molécule qui a pour effet d’inhiber l’activité de l’autre. Ainsi, si l’un d’entre eux prend l’avantage, seule « sa » molécule est présente, et le rôle du troisième gène est justement de faire basculer cet avantage. Cette bascule n’est pas très rapide, donc inutile de rêver à un transistor biologique. Par contre, il est extrêmement stable. Ce troisième gène peut être activé par un évènement extérieur, comme un polluant ou un composé toxique, et les deux premiers gènes peuvent synthétiser des marqueurs colorés. Bientôt des bandes de papier coloré comme détecteurs de fuite de gaz ou d’explosifs ?

Une autre idée est celle du « compteur ». Là, c’est un peu plus subtil. Soit une séquence A synthétisant une protéine (un médicament par exemple) qui doit être distribué à certains moments, un certain nombre de fois, ou avec une certaine régularité. Il suffit (façon de parler, rien que cette étape est assez complexe) d’ajouter un bloqueur b au début de la chaîne, et un déclencheur D à un autre endroit du plasmide. Le bloqueur b empêche la fixation des ribosomes, chargés de la lecture des séquences. Ainsi, A produit un médicament, mais bA ne fait rien. Quand un certain évènement survient, le déclencheur D va synthétiser une protéine qui neutralise b, et permet la synthèse du médicament à partir de A. Un tel évènement peut être la présence d’un composé chimique, l’exposition à la lumière UV, le simple passage du temps… faites votre choix dans la boîte à outils !

La mise en cascade de plusieurs de ces systèmes permet de réaliser un compteur, pour en fin de décompte faire se suicider la cellule : voilà un système intéressant pour éviter que ces bactéries spécialisées ne vivent plus longtemps que nécessaire et prolifèrent. Voilà qui est bien !

Lire la suite

lundi, janvier 08, 2007

Le libre arbitre, le retour de la vengeance II

Le billet sur le libre arbitre a généré quelques réactions, et j’en suis très heureux, mais certaines sont passées inaperçues. Je voudrais les présenter ici. Le billet n’est pas long, mais les liens vous redirigeront vers des lectures très enrichissantes, à condition d’avoir un peu de temps devant soi.

J’ai bien conscience que les trackbacks peuvent être parfois exagérés, et qu’une personne aussi polie que Eric C. peut avoir des scrupules à faire un lien vers un court billet chez lui. Mais justement, son court billet contenait un lien très intéressant vers le New York Times, que j’ai failli rater à cause de lui : donc punition, voilà un lien direct vers son billet.

Tant qu’on est à parler des personnes qui ne devraient pas hésiter à faire un lien, Xavier m’a envoyé par mail (mais pourquoi ne pas l’avoir mis avec ton commentaire ?) cet article de chercheurs en psychologie à Princeton.

Alors, voilà le tableau :

- l’article du New York Times[1] (inscription nécessaire, mais gratuite) fait trois pages, mais est écrit dans un style agréable, facile à lire si vous maitrisez un peu l’anglais. Il parle des différentes idées qui s’échangent sur ce thème, du déterminisme le plus pur au dualisme le plus total, en passant par des thèses intermédiaires que je trouve beaucoup plus intéressantes. En particulier, en page 2, vous trouverez un résumé de ma position sous la plume de Daniel Bennett (quel copieur) :

The belief that the traditional intuitive notion of a free will divorced from causality is inflated, metaphysical nonsense, Dr. Dennett says reflecting an outdated dualistic view of the world.

Rather, Dr. Dennett argues, it is precisely our immersion in causality and the material world that frees us. Evolution, history and culture, he explains, have endowed us with feedback systems that give us the unique ability to reflect and think things over and to imagine the future. Free will and determinism can co-exist.

“All the varieties of free will worth having, we have,” Dr. Dennett said.

- La publication de Green et Cohen est beaucoup plus “péchue”. Le sujet est « comment concevoir la responsabilité – en particulier pénale – en regard des différentes théories sur le libre arbitre. Excellent papier (mais plus ardu que le NYT) dans le sens où ils couvrent en détails les implications de certaines conceptions. Par exemple, la conséquence du déterminisme total n’est pas l’absence de punition, comme on pourrait l’imaginer, mais des punitions « intuitivement » absurde, comme la peine de mort pour un stationnement gênant, ou l’amnistie pour les meurtriers, du moment que l’on maintient l’illusion qu’ils ont été punis. Je suis par contre en profond désaccord avec certaines parties du papier, comme la possibilité de « répliquer » un Hitler en le clonant et en reproduisant son enfance. C’est ignorer toute la complexité dont j’ai essayé de donner un aperçu.

Bon, voilà, allez faire un tour si le sujet vous intéresse. Pour ma part, j’ai commandé le livre de Daniel Dennett, La conscience expliquée : on en reparlera.



[1] Il y a aussi les réponses aux lecteurs à propos de l’article.

Lire la suite

dimanche, janvier 07, 2007

Dynamic Days (6) : la règle 30, hasard et déterminisme

Il semble que le thème du hasard et du déterminisme ne me quitte plus. Après la question du libre arbitre, et avant l'arrivée du livre de Dennett sur la conscience que j'ai commandé (et dont je parlerai ici, évidemment), j'ai eu la chance d'écouter Stephen Wolfram lors des Dynamic Days.
Wolfram est le créateur de Mathematica, LE logiciel de calcul formel, indispensable à la science moderne (quoique Matlab soit plus répandu en France, mais passons). Il est aussi à l'origine de Wolfram's MathWorld, le site de mathématique le plus complet du web. Il a beaucoup contribué au domaine des automates cellulaires, ces dessins animés dont l'évolution de chaque pixel est gouverné par des règles simples, et qui donnent à l'échelle de la page des motifs complexes, qui interagissent entre eux, ou présentent un comportement apparement aléatoire. Cela ne vous rappelle-t-il pas le sujet des neurones ?

En particulier, j'ai appris que la seule fonction génératrice de nombres aléatoires (random(.) dans la plupart des langages de programmation) qui avait résisté depuis dix-huit ans aux efforts des mathématiciens pour y trouver une certaine prévisibilité était la règle 30 : l'état "noir" ou "blanc" de la colonne centrale pour une seule cellule noire comme condition initiale ne montre aucune périodicité ! Qu'un phénomène aléatoire soit gouvernée par huit règles déterministes simples est tout simplement remarquable. Notez cependant que le déterminisme fait qu'un deuxième calcul avec les mêmes conditions initiales donnera le même tableau.

Ah, et si vous êtes un artiste alternatif cherchant une musique conceptuelle pour son prochain happening, ou un adolescent voulant plus que tout une sonnerie de portable unique au monde, ce générateur de musique par des automates cellulaires devrait faire votre bonheur !

Lire la suite

samedi, janvier 06, 2007

Métamatériaux, invisibilité : hmm, du calme

J'aime bien le site Techno-sciences. Leurs articles sont souvent précis, et leurs photos sont belles. Ils permettent de bien suivre l'actualité scientifique : "techno", c'est large, et ça inclut pas mal de physique. Mais là, sur les métamatériaux et l'invisibilité, ils se sont emballés, à moins justement que le rédacteur de l'article soit plus "techno" que "physique".

Déjà, le titre est trop beau pour être vrai : Invisibilité: des métamatériaux opérationnels en lumière visible. La fabrication d'une "cape d'invisibilité" (voire mon ancien billet pour quelques détails) opérant dans le domaine visible est suggérée, mais elle est démentie dans le corps de l'article : les matériaux ont été mis au point, et ils pourraient servir à un dispositif d'invisibilité fonctionnant pour (certaines) longueurs d'onde visibles. Mais entre les métamatériaux et le dispositif, il reste beaucoup à faire : calculs, simulations, et surtout la réalisation proprement dite. Il faut aussi trouver le moyen d'élargir le spectre d'action de ces structures, pour qu'elles ne soient pas cantonnées à une seule longueur d'onde.

En fait, les applications les plus intéressantes à court terme se situent dans les domaines de l'optique et de l'électromagnétique, où les métamatériaux sont une petite révolution. Des lentilles d'indice négatif, c'est un rêve d'ingénieur opticien qui se réalise pour la correction des aberrations des lentilles traditionnelles, une meilleure résolution des objectifs, etc. En matière d'électromagnétisme, on peut imaginer des filtres de meilleure qualité, ou des guides d'onde, pour des communications radio plus précises. Des matériaux opérant dans le domaine teraHertz, habituellement difficile à atteindre, ont aussi été proposés.

Mais bon, le sensationnalisme, pourquoi cela serait-il réservé à la presse traditionnelle ? Et, pour être honnête, il faut avouer que la percée technique est à la fois impressionnante et prometteuse. D'ailleurs, en relisant mon billet précédent ou l’article de PhysicsWeb de l’époque, je me rends compte que le passage au domaine visible était vu comme peu probable, ce qui justifie le ton de l’article : passer ainsi d'un bond du centimètre au dixième de micromètre[1] est remarquablement rapide.

J’ai surtout été choqué, en fait, par les explications physiques déplorables, qui tranchent avec le niveau habituel de Techno-Science :

Ces deniers réfractent la lumière, ou les radiations électromagnétiques, à droite du rayon incident sous différents angles et vitesses. Les métamatériaux, quant à eux, permettent de réfracter la lumière vers la gauche, ou avec un angle négatif. Cette caractéristique donne aux scientifiques la possibilité de contrôler la lumière de la même façon que l'électricité peut être contrôlée grâce aux semi-conducteurs.

Hem.

C’est quoi, la « droite » et la « gauche » d’un rayon lumineux ? L’auteur veut bien sûr dire que le rayon réfracté dans un matériau d’indice négatif est dans le même demi-plan que le rayon incident, et il se trouve que sur le schéma utilisé (celui en haut de cet article), ce demi-plan est à gauche. Quand à « l’angle négatif », il s’agit bien évidement du sinus de l’angle qui est négatif, en accord avec la loi de Descartes-Snell : n1.sin(θ1) = n2.sin(θ2). L'auteur a peut-être aussi fait allusion au fait que les matériaux usuels suivent la loi de la main droite (règle qui provoque bien des contorsions chez les étudiants en physique : si le champ électrique est aligné sur le pouce de la main droite, le champ magnétique selon l'index, alors la direction de propagation est selon le majeur, orthogonalement aux deux autres doigts) alors que les matériaux d'indices négatifs suivent ce que l'on pourrait appeler la loi de la main gauche. D'où le nom, d'ailleurs, de matériaux gauchers.

L’électricité est « contrôlée » par les semi-conducteurs ? Bon, restons calme, dans les semi-conducteurs, le passage du courant est autorisé ou interdit grâce à l’action d’un courant auxiliaire, pour constituer une « porte logique » : rien à voir avec le type de contrôle envisagé pour les ondes electromagnétiques avec les métamatériaux. Ici, le contrôle possible se fera par les angles de réfraction, pour guider la lumière ou l’onde radio là ou on le souhaite, avec une meilleure précision. Et si les métamatériaux pourraient donner lieu à des portes logiques optiques, ce n’est pas le sujet du jour.

Allez, sans rancune monsieur Techno-Science : votre flux RSS est toujours sur ma page Netvibes, et je continuerai à écrire des articles grâce à vos news. Mais arrêtez là les bêtises, ok ?

PS : pour les curieux qui souhaiteraient en savoir plus sur les métamatériaux, je vous conseille les sites (en anglais) de l’Université de Duke (péchu), metamaterials.net (pour les news), et, surtout, la page de l’université de Karlshruhe, où vous pourrez trouver les explications physiques pour cette image d'un liquide d'indice négatif.

La page Wikipédia est en construction, et comporte plusieurs imprécisions pour l’instant, quand ce ne sont pas des erreurs factuelles. La discussion est en cours, mais mieux vaut l’éviter pour l’instant.



[1] Un métamatériau affecte la lumière non pas par sa nature (or, argent, silice, etc.), mais par sa structure (anneaux coupés, matériaux poreux, etc.). La taille de ces structures doit être plus petite que la longueur d’onde pour influencer la radiation, voire même beaucoup plus petite pour apparaître comme un matériau continu. D’où les dimensions nécessaires respectives, quelques millimètres pour les micro-ondes, quelques centaines de nanomètres pour le visible.

Lire la suite

Dynamic Days (5) : Simplicity

Nancy Kopell :

If we want to describe two cells (NdMoi : neurones), we need about twenty-five partial differential equations. In my talk I will use two of them.

Les résultats ne sont pas plus simples : en fonction du type de neurones choisis pour cette simple paire (inhibiteur, excitateur, excitable ou anti-excitable (je ne garantis pas les termes)), on peut obtenir des comportements indépendants, synchornisés, anti-synchronisés, oscillateurs périodiques... A la fin, elle a été jusqu'à 5 ou 6 neurones, et si j'ai bien tout compris, elle s'approchait de comportements type crise d'épilepsie.

Lire la suite

vendredi, janvier 05, 2007

Dynamic Days (4) : Châteaux de sable

Les matériaux granulaires, comme le sable, m’intéressent énormément, mais je n’avais pas eu d’occasion particulière d’en parler jusqu’ici. Les conférences de ce matin sur le sujet, et des conversations avec des spécialistes du sujet, m’ont donné la motivation pour faire cesser cet intolérable manque.

L’étude des écoulements granulaires a beaucoup d’applications pratiques : remplissage et vidage des silos de grains, avalanche de neige, formation des dunes de sable, par exemple. Ce sont des objets physiques curieux : ils sont constitués de particules solides, mais s’écoulent, presque toutes leurs caractéristiques sont fortement non-linéaires, avec beaucoup d’hystérésis, ils sont insensibles à la température… En bref, presque aucun outil traditionnel d’étude des fluides ne leur est adapté.

Puisque les équations sont encore à trouver, une voie « naturelle » pour l’étude des écoulements granulaires semble alors être la simulation. Cependant, Anita Mehta, lors des Dynamic Days, a soulevé un problème intéressant. Les écoulements granulaires forment des structures très particulières, en forme de pont, où les grains s’appuient les uns sur les autres de façon à stabiliser l’ensemble, exactement comme l’arche d’un pont. Ces « ponts » sont responsables du bouchage des silos de grains, par exemple, et sont aussi la raison pour laquelle la fraction volumique des matériaux granulaires dans la nature (le volume occupé par la silice par unité de volume de sable, par exemple) est très faible : 54% environ, alors qu’un rangement aléatoire donne normalement 64%. Seulement, ces ponts ne peuvent se former que si les grains bougent en même temps ! Voilà qui pose des problèmes supplémentaires lors des simulations, qui sont habituellement conduites pas-à-pas.

Autre réflexion digne d’attention, il est possible de simuler la température des liquides normaux en agitant le matériau granulaire. D’ailleurs, c’était le sujet d’un poster intéressant, mais je n’ai pas retenu le nom de celui qui le présentait. En agitant le sable, on lui donne un mouvement désordonné, qui est exactement la définition de la température. Et effectivement, on retrouve des comportements normaux, au début : les configurations les plus probables sont favorisées (les plus probables étant celles qui sont réalisables par le plus d’arrangements différents[1], c’est-à-dire qui ont la plus grande entropie, c’est-à-dire ni la fraction volumique la plus faible possible, ni la plus grande possible, mais quelque part entre les deux). Ainsi, en agitant doucement un pot rempli de sable, il se tasse un peu. Par contre, si l’agitation est trop forte, le comportement devient contre-intuitif, et très éloigné de la température « habituelle » : le sable se dé-tasse, si je peux m’exprimer ainsi, il occupe plus de volume.

Pfff, pas simples, ces machins…


[1] La condition d’équiprobabilité des configurations est loin d’être évidente ici, mais est assez souvent vérifiée.

Lire la suite

Dynamic Days (3) : contraste

Coïncidence...


Anna Lin parle du caractère déterministe des réseaux de neurones : son exposé est clair, simple, les figures sont des schémas géométriques, le modèle est linéaire.

Andrey Shilnikov parle, lui, de leur caractère chaotique : l'exposé est ardu, avec plusieurs représentations de surface de Poincaré et autres attracteurs sur chaque slide, le modèle est une simplification à trois équations différentielles d'un système de 19 équations initiales.

La tentation est grande pour utiliser ces conférences, dans un sens ou dans l'autre, dans nos discussions sur le libre arbitre. Mais c'est bien trop pointu (et donc limité), complexe, et difficile à interpréter. Pour tout dire, à part les jolies images, je suis un perdu...

Lire la suite

jeudi, janvier 04, 2007

Dynamic Days (2) : Croisade quantique et superfluide

Pfiouu, deuxième jour des Dynamic Days… Manque de sommeil, manque de café, sujets ardus : la journée fut longue. Commentaire à chaud : la mécanique des fluides est un des domaines les plus difficiles que je connaisse, et un Français qui parle avec un accent à couper au couteau, à l’heure de la sieste, c’est dur (et si c’est dur pour moi, j’imagine pour les non francophones…). D’un autre côté, je pense que j’ai pour quelques semaines de sujets de billets !

Ce dont je veux parler en premier, c’est de l’idée assez iconoclaste de David Roberts, qui voudrait bien révolutionner un peu le monde des superfluides. Il pense que l’effet Casimir peut donner lieu dans les superfluides à une traînée (les explications arrivent, pas d’inquiétude), ce qui est presque contradictoire avec la notion de superfluide. Il a bien du mal à convaincre la communauté, et comme j’ai été plutôt emballé, je veux apporter ma petite pierre à l’édifice. Evidemment, le fait qu’il soit un type très sympathique et abordable, qu’il aime Paris, et que le pain français lui manque aux USA, n’a pas influencé mon objectivité scientifique légendaire.

Ok, je sens que ça va être dur… Vulgariser la force Casimir dans les superfluides, c’est pas évident, d’autant que j’ai un livre passionnant sur le feu. Je vais essayer de définir les termes, de donner des liens vers Wikipédia, et de poser le problème, et si un point n’est pas clair, on en discute en commentaires, d’accord ?

Alors, la force Casimir, c’est un effet purement quantique qui s’exerce entre deux plaques très proches dans un vide poussé. Le vide n’est jamais totalement vide : le champ électromagnétique n’est jamais nul et oscille toujours un peu, de la même façon que le principe d’incertitude d’Heisenberg empêche de connaître absolument à la fois la position et la vitesse d’une particule. Ces fluctuations, appelées l’énergie du vide, se produisent aléatoirement à n’importe quelle longueur d’onde. Toutefois, entre les deux plaques rapprochées, les plus grandes longueurs d’onde sont bloquées : cette faible énergie manquante équivaut à une différence de pression, qui pousse les plaques l’une contre l’autre (la force est très faible, bien sûr).

Les superfluides sont une espèce exotique qui, à très basse température, ne présente aucune viscosité, une conductivité thermique et une conductivité électrique infinies. Le fluide est (idéalement totalement, en réalité localement) un condensat de Bose-Einstein, dans lequel tous les atomes partagent le même état électronique fondamental. En fait, à ce niveau, le fluide n’est plus qu’un gros atome totalement délocalisé. L’hélium est l’exemple classique, mais des analogues dans des gaz dilués peuvent aussi être utilisés.

Dans la théorie classique de Landau, les superfluides, pour peu que la vitesse du fluide soit inférieure à une certaine vitesse critique, ne subissent aucune force capable de faire passer les atomes, à la suite de chocs par exemple, de leur état d’énergie minimale à un état d’énergie supérieure. Cet argument simple montre qu’il n’y a pas de dissipation d’énergie : un superfluide peut réaliser un mouvement perpétuel, même s’il y a un obstacle à contourner sur son chemin.

L’idée de David Roberts, c’est que les fluctuations quantiques, négligées dans la théorie de Landau, sont légèrement dispersées lors du contournement de l’obstacle. Cela donne naissance à une force de traînée qui ralentit le fluide. Ainsi, contrairement à la théorie commune, un superfluide qui rencontrerait des impuretés sur son chemin finirait par s’arrêter !

David Roberts a quelques atouts de son côté : des calculs assez convaincants (suffisant en tout cas pour mes maigres connaissances en physique quantique), un mécanisme cohérent avec un phénomène connu, et une équation finale analogue à celle utilisée dans l’effet Casimir. La plupart des physiciens quantiques, et des mécaniciens des fluides « traditionnels », n’ont pas de problèmes particuliers avec sa théorie. C’est du côté de la communauté des physiciens des superfluides que ça coince : à quelques exceptions près, l’accueil est plutôt négatif. Après tout, c’est presque la définition de la superfluidité qu’il remet en cause, et les expériences habituelles semblent lui donner tort[1] !

Je ne veux pas préjuger de la valeur des uns et des autres : j’essaie farouchement de combattre les préjugés trop répandus des « scientifiques qui conspirent dans leur tour d’ivoire contre les idées nouvelles pour protéger leur dogme ». Entre l’intuition d’un post-doctorant, et une théorie bien développée concordant avec les expériences, s’il fallait faire un choix, il serait vite fait. Mais heureusement, David Roberts n’est pas un de ses farfelus dont les idées patascientifiques s’appuient surtout sur le préjugé précédent. Je lui souhaite donc du courage, pour persévérer dans ses recherches : s’il parvient à monter une expérience suffisamment précise pour montrer l’existence de cet effet, il parviendra à vaincre les réticences psychologiques et les conceptions communément admises.

PS : bon, je n'arrive plus à uploader des images sur Blogger... Snif.



[1] Sans rentrer dans les détails, David Roberts argumente que le mouvement perpétuel observé dans un courant cylindrique n’invalide pas son idée, car la dissipation des fluctuations quantiques d’un côté de l’obstacle est compensée après un tour, quand le fluide revient du même côté de l’obstacle. Ainsi, son effet serait visible dans un régime transitoire, avant la fin du premier tour, ou dans une géométrie linéaire.

Lire la suite

Opportunity et Spirit deviennent plus intelligent

Les deux rovers martiens font preuve d'une longévité à toute épreuve. Initialement prévus pour durer quelques mois, leurs panneaux solaires devant rapidement s'encrasser, ils sont fidèle au poste depuis bientôt trois ans (on suppose que les vents martiens nettoient périodiquement les panneaux). Ils ont traversé des difficultés techniques impressionantes, et il faut tirer notre chapeau à l'ingéniosité et à la volonté de l'équipe d'ingénieurs de la NASA. Ils nous ont rapporté de belles photos du cratère Victoria, un objectif inimaginable à l'origine. Ils sont maintenant comme de vieux explorateurs, grippés de partout, mais qui continuent à avancer, mètre après mètre, à la seule force de leur volonté (insérer musique lyrique). Si nous étions dans un film hollywoodien, l'un serait piloté par Bruce Willis, le t-shirt déchiré et taché de sang, et l'autre par Clint Eastwood, cigarillo au bec.

Alors, quand j'ai appris que la NASA leur transférait un nouveau logiciel pour les rendre plus intelligents et plus autonomes, je n'ai pas résisté à partager ma joie avec vous ! :-D

Lire la suite

mercredi, janvier 03, 2007

Dynamic Days (1) : des criquets cannibales à l'avenir politique de François Bayrou

Voilà, les Dynamic Days, une des plus importantes conférences sur la dynamique non-linéaire et les phénomènes chaotiques (je me suis un peu planté quand j'en ai parlé la première fois ici, mes excuses), ont commencé aujourd'hui. Comme je le disais, si un des sujets vous intéresse, n'hésitez pas à me le dire, j'essaierai de détailler un peu. De toutes façons, cette suite presque interrompue de sujets variés et passionnants me fournira probablement beaucoup de matière. Menu du jour : criquets cannibales et stratégie politique (avec des vrais morceaux de Bayrou dedans).


Je n'ai pas assisté à la première session, sur la cardiologie, qui m'intéressait assez peu. La suivante, sur l'écologie et les comportements animaux, fut par contre passionnante.

Le premier orateur, Iain Couzin, parle du comportement des criquets. Ces joyeuses bestioles subissent une transition spectaculaire quand la densité d'individus par mètres carrés dépasse un certain seuil critique. Ils passent d'un comportement individuel à un comportement grégaire, en essaim. La modification est aussi physiologique : on les appelle alors des locustes. Iain Couzin s'est particulièrement intéressé aux criquets mormons d'Amérique du Nord, qui ont la particularité, expérimentalement appréciable, de ne pas voler. Il a montré que ce qui provoquait la marche ordonnée de l'essaim était tout autant la recherche de nourriture, que la peur d'être mangé. Après tout, le criquet est une réserve de nourriture, non ? Ainsi, chaque criquet essaie de manger celui qui est devant lui, et de ne pas être mangé par celui qui est derrière lui. C’est marche ou crève ! La Nature a poussé le vice jusqu’à faire des criquets la nourriture préférée de leurs petits camarades. Et le résultat est un essaim au mouvement apparemment coordonné.

L’autre orateur qui m’aura marqué cet après-midi, c’est Timothy Halpin-Healy, sur « les dynamiques de la conformité et de la différence ». Le thème est vaste : du fonctionnement des assemblées de cellules, à la formation des anneaux de Saturne, les phénomènes d’aggrégation/mimétisme et de séparation/différence sont parfois décrits par les mêmes modèles. Des lois microscopiques favorisant le regroupement, tout en laissant la possibilité à la différence, conduisent à l’apparition de motifs et de groupes macroscopiques. En particulier, la recherche présentée ici, celle d’Arne Soulier, est très intéressante. Elle porte sur l’analyse des conséquences en politique du « modèle de sécession ». Dans celui-ci, l’offre politique est quantifiée sur plusieurs (d) axes, par exemple économie (libre marché / étatisme) et société (libertaire / autoritarisme), et l’axe droite/gauche traditionnel en diagonal. Notez qu’il s’agit de la démarche dont j’avais parlé dans les premiers billets de ce blog ! A chaque itération du modèle, les électeurs oscillent aléatoirement (pour représenter une certaine indécision et versatilité) sur cet échiquier politique, avec une tendance à aller vers le plus proche des points suivants : le barycentre de tous les points, ou les points les plus éloignés du barycentre à cet instant. Ce modèle simule le processus d’attraction du groupe sur l’individu, mais aussi le côté attirant des extrémistes, pour peu qu’ils ne soient pas trop étrangers à nos convictions. Cela peut aussi se voir comme un effet de mode : on veut s’agréger à un groupe, à une communauté, mais ce qui est commun à tout le monde n’est pas très attrayant.

Là où les choses deviennent intéressantes, c’est que, pour un nombre d’électeurs suffisamment élevés (supérieur à trois, en fait), après un certain temps, des groupes se forment, en nombre bien précis. Si m=1, c’est-à-dire s’il n’y a qu’un seul axe politique, alors deux groupes stables émergent. Et pour m>1, il y a toujours trois groupes stables. Ces résultats sont obtenus même avec des distributions de départ très biaisées, un gros groupe pour m=1 ou deux gros groupes pour m=2, par exemple.

Cela veut dire que si les partis se répartissent selon un seul critère, et si le modèle est pertinent, alors un parti centriste est évolutivement défavorisé. En terme franco-français, on peut argumenter que l’axe économique n’est pas discriminant : le libéralisme ne semble pas avoir droit de cité, et l’étatisme (gaulliste ou socialiste) est dominant. Ainsi, le degré de liberté principal est le côté redistributif de l’Etat : voilà pourquoi François Bayrou, malgré sa côte de popularité appréciable, ne perce pas. De même, aux Etats-Unis, c’est le free market qui ne fait pas débat, et le seul axe de bataille est celui des valeurs, d’où un bipartisme encore plus fort. En Allemagne, le FPD, parti libéral, et les Verts, ont par contre un poids plus important. Il me semble qu’ils existent non pas entre le SPD et le CSU, mais sur d’autres axes.

Oui, bon, je sais, tout cela, c’est des approximations politiques, appliquées à un modèle qu’il faut encore discuter…

Et bien, discutons-en, justement : pensez-vous qu’une telle analyse soit pertinente ? Croyez-vous en la possibilité de « simuler » des choix de vote ? Si oui, ce modèle est-il intéressant ?

Lire la suite