Penseur

samedi, décembre 30, 2006

Le libre-arbitre, complexité du cerveau contre inné et acquis.

Chez Pikipoki, on trouve de la poésie, de la philosophie, et des billets ayant donné lieu à des discussions captivantes sur l’intelligence, la volonté, le libre-arbitre. J’avais aussi abordé le sujet dans un billet sur l’altruisme et l’égoïsme selon Dawkins. Je mets les liens ici pour que, si vous le souhaitez, vous puissiez remonter un peu le fil des discussions, et constater par vous-même les arguments échangés, au cas où j’aurais déformé les propos de quelqu’un. Je vais essayer maintenant de clarifier un peu ce que je pense sur le sujet, pour mettre mes idées en ordre et pour développer certains arguments.

Tout d’abord, je pense qu’il est important de définir un peu ce dont on parle, car, à défaut, on risque vite de s’embrouiller. Il faut dire que le sujet est riche en possibilités de confusions, conscience, volonté, destin, entre autres. La question du libre-arbitre, donc, est la suivante : est-ce que nous décidons de nos actions ?

Attention, c’est assez long, donc pour capter votre intérêt, je mets directement ma thèse. Pour moi, l’Homme est capable de prendre des décisions indépendantes des influences combinées de l’inné, les gènes, et de l’acquis[1], la société, l’éducation, ou encore l’expérience personnelle. Ces décisions peuvent être biaisées par ces influences, peuvent y être opposées, mais en tout cas n’y sont pas réductibles. Il est par ailleurs fondamentalement imprévisible, même si, là encore, le biais des influences peut être utilisé pour prévoir les comportements statistiques d’un grand nombre de personnes. Liberté de décision et imprévisibilité : l’Homme est doué de libre-arbitre, grâce au système complexe qu’est son cerveau.

Il faut d’abord évacuer une première confusion. Il est question ici de mon voisin, de la personne que je rencontre dans la rue, du collègue de bureau tel que je le vois tout les jours, personnes distinctes de moi-même, avec lesquelles j’interagis sans savoir s’il s’agit de robots androïdes à la Blade Runner, de corps pilotés par une âme ou un homoncule, ou autre chose. Le point est important, il s’agit d’un humain, et pas d’une entité supérieure omnisciente, qui regarde un autre humain.

Je voudrais ensuite préciser que « décider d’une action », ce n’est pas « réaliser une action ». Je peux décider de voler, et sauter du haut d’un toit, mais je n’en serai pas capable pour autant. Est-ce que la Nature a décidé pour moi, en ne me dotant pas d’ailes, et est-ce une limitation de mon libre-arbitre ? Le problème est ici mal posé : comment s’interroger sur la possibilité d’un choix quand une des alternatives est impossible ? La question de la décision doit donc être réduite aux choix dans lesquels les alternatives sont accessibles.

Forts de ces premières précisions, reformulons la question J’ai en face de moi un individu, placé devant un choix non-trivial, c’est-à-dire où plusieurs alternatives lui sont accessibles. Puis-je prévoir le choix qu’il fera ? Il peut être influencé par certains facteurs, l’influence de ses gènes, son histoire personnelle (incluant son éducation, les habitudes de la société qui l’entoure, ou encore ses expériences passées), tout le monde est d’accord là-dessus. Mais ces indications me donnent-elles la certitude de ce que va faire la personne ?

J’ai posé la question de façon non ambigüe. Si je ne suis pas capable de déterminer le choix de cette personne, quels que soient les moyens qui me soient donnés[2], alors elle a pris une décision autonome, elle a fait preuve de son libre-arbitre. Certains pourraient objecter que la personne n’a pas pris de décision, mais à simplement suivi une inclinaison naturelle, et à eu l’impression de prendre une décision. Mais si je ne suis pas capable, absolument pas capable, de prévoir cette décision, quelle différence cela ferait-il ? C’est ici que la confusion et l’ambigüité peuvent se glisser. Qu’est-ce que le libre-arbitre, si ce n’est la possibilité de décider de façon imprévisible ?

Il est possible, en schématisant un peu, de trouver plusieurs classes de personnes en fonction de leur réponse à cette question du libre-arbitre.

Les premiers sont ceux qui croient à l’existence d’une âme (ou d’un homoncule, cela revient au même bien qu’il n’y ait pas de connotation religieuse). Pour les membres de cette première catégorie, il existe quelque chose qui est réellement « moi », le corps humain n’étant qu’un habit, ou qu’un véhicule. Je pense que cette idée est assez naturelle, à première vue, puisque j’ai l’impression que mon moi réel commande à mes doigts d’écrire, commande à ma bouche d’avaler le jus de fruit dans le verre à côté de mon ordinateur… Mais cette conception dualiste peine à se concilier les neurosciences, qui montrent des activités bien spécifiques dans le cerveau lors de l’élaboration de ces ordres. Les philosophes, Descartes et Kant en particulier, nous ont aussi montré qu’il était assez vain de vouloir séparer le siège des décisions – quand bien même il s’agirait d’un organe, le cerveau – des organes des sens qui apporte les informations et de la peau qui forme une limite avec le monde extérieur. Le corps forme un tout.

Ensuite, parmi les matérialistes qui prennent pour acquis l’unicité de l’individu, il est encore possible de faire deux groupes. Le premier groupe est celui qui fréquente les commentaires chez Pikipoki : se réclamant de Spinoza[3] et des progrès de la science moderne, ils nient toute possibilité de libre-arbitre. Xavier, par exemple, écrit ceci :

Cela signifie aussi que nos actions sont totalement déterminées par notre patrimoine génétique d'une part et notre environnement de l'autre. Il n'y a rien d'autre, pas de "volonté" qui surgirait d'on ne sait où. Gènes + environnement = un seul résultat possible.

Penser que nous n’avons pas de libre-arbitre car le fonctionnement biologique du cerveau ne fait pas appel à de la magie ou une volonté supra-matérielle, c’est donner une autre définition au libre-arbitre que moi. C’est dire que le libre-arbitre est l’action de la volonté supra-naturelle. C’est excessif, et la définition du libre-arbitre comme étant la possibilité pour un individu de prendre une décision de manière imprévisible, est plus raisonnable.

Pour Xavier, Pikipoki et les autres commentateurs, « Prendre une décision » n’est qu’une illusion : les lois physiques, nos gènes, et d’autres facteurs externes, nous obligent à la prendre. Si je mange, c’est que j’ai faim, si je fais l’amour, c’est une pulsion (ou plutôt une subtile lutte d’influence entre mes gènes et l’influence de la société malthusienne dans laquelle j’ai grandi).

Ces personnes ont des arguments intéressants à faire valoir. Il y a bel et bien des influences très fortes qui s’exercent sur nos jugements. Nos gènes, via la façon dont notre corps est agencé, définissent une bonne partie de nos possibilités, réduisant d’autant nos choix accessibles. Via la production d’hormones à certains moments précis, ils contrôlent en partie notre comportement : pulsions, inhibitions, enthousiasme, panique… Ensuite, la société qui nous entoure, notre éducation, nos expériences personnelles, sont autant d’informations qui s’accumulent dans notre cerveau, et qui influencent nos décisions. Chat échaudé craint l’eau froide : voilà une bonne illustration.

Cependant, ces ultra-matérialistes sont ironiquement assez proches des dualistes, puisqu’ils s’appuient sur l’absence – a priori prouvée par les neurosciences – d’âme ou d’homoncule pour affirmer que le libre-arbitre d’existe pas. C’est-à-dire qu’ils pensent eux aussi que le moi indépendant devrait être extérieur au corps, et que s’il n’existe pas, alors nous ne sommes guère plus que des robots. En développant leur position, on se rend compte que les règles pilotant ces robots ont beau être compliquées, une technologie encore à découvrir devrait être capable de les comprendre, de les simuler, et de prévoir notre comportement.

Ce point de vue est faux. Le cerveau est un organe complexe. Complexe, ici, veut dire un peu plus que seulement « Houla, c’est compliqué ». S’il n’était que compliqué, comme l’est un ordinateur, une montre, ou un organe comme l’œil, le foie ou les muscles, une étude poussée permettrait d’en comprendre parfaitement le fonctionnement, et une technologie avancée permettrait de le simuler. Mais il est plus riche que cela : le grand nombre de neurones, le très grand nombre de connexions entre neurones, à la fois à courte et longue distance, à courte et longue durée (mémoire), leur possibilité de se réorganiser, leur interaction avec le reste du corps, fait que le fonctionnement n’est pas réductible aux neurones, et a fortiori aux molécules qui les composent ou qui les traversent.

Des motifs émergent des systèmes complexes : dans le cas du cerveau, on les appelle idées et décisions. La complexité est une notion fascinante, qui a plusieurs caractéristiques critiques dans le problème du libre-arbitre. La notion est présentée sur Wikipedia en français est ici. La version anglaise, pour une fois à peine plus complète, mais avec plus de liens, est ici. Si vous n’avez jamais entendu parler de la théorie de la complexité, je vous conseille de lire ces liens avant de poursuivre.

Tout d’abord, un système complexe n’est pas réductible : pour simplement décrire complètement l’état du cerveau avec à un instant t, il faudrait une bonne partie de l’univers parallèle offert par notre bon génie.

Ensuite, le grand nombre d’inconnues rend impossible la mise en équations du problème : écrire les équations occuperait le reste dudit univers parallèle.

Et quand bien même le (très aimable) génie fournirait les outils nécessaires à la simulation totale du corps (deux rappels : le corps entier doit être simulé, puisqu’il est en interaction avec le cerveau, et dans un système complexe, la moindre interaction peut avoir des conséquences énormes), cela ne fonctionnerait toujours pas. Tout simplement parce qu’une prédiction du comportement nécessiterait de simuler les chocs entre molécules : je vous passe l’argument de la puissance de calcul nécessaire, pour rappeler que ces chocs font appels à la physique quantique, irréductiblement probabiliste. Or, ce système n’est pas seulement complexe, il est aussi chaotique : la moindre imprécision de mesure peut faire échouer complètement une tentative de simulation. D’ailleurs, certains neurones fonctionnent de façon aléatoire, ce qui rend encore plus impossible la prévision, et approche peut-être une explication de ce que l’on appelle intuition ou coup de génie. Le cerveau est donc imprévisible dans l’absolu ; cela ne nie pas qu’en termes statistiques, les joueurs de poker et les publicitaires ne puissent pas faire des prévisions.

Il est temps de finir ce billet déjà trop long. Nous avons donc vu qu’à cause de la complexité du cerveau, il était foncièrement imprévisible. Je suis (et vous aussi, cher lecteur) donc un individu capable de prendre des décisions, de façon imprévisible. Certes, « je » n’est pas un être de volonté pure, désincarné, habitant mon corps. Certes, les pulsions et inhibitions de mon corps et de mes gènes, les habitudes de ma société, les exemples de mon éducation, m’influencent et me gouvernent parfois. Mais il reste que je suis capable de choisir, de peser différentes options et de choisir rationnellement, de me laisser porter par un coup de tête irrationnel, ou de choisir sciemment d’aller à l’encontre de tout ce que l’on peut prévoir sur moi, juste pour choquer. J’ai mon libre-arbitre, et vous aussi.


[1] Les automatismes acquis de Pikipoki.

[2] Quand je parle de « tous les moyens », je veux dire que je pourrais demander à un bon génie de braquer des caméras ultra-rapides sur toutes les molécules de son corps, et de m’ouvrir un univers parallèles remplit d’ordinateurs quantiques pour faire tourner des simulations. Avec une telle débauche de moyens, je mérite au moins un Oscar pour les meilleurs effets spéciaux, mais à défaut, je me contenterais de demander que l’on ne me sorte pas l’argument de la technologie qui pourrait s’améliorer dans le futur. Merci :-)

[3] Si j’ai bien compris l’extrait posté par Pikipoki, pour Spinoza, puisque nous pouvons rêver de prendre des décisions, alors les décisions que nous prenons quand nous sommes éveillés sont aussi des rêves. Je ne suis pas trop convaincu… Par contre, ça me motive pour m’intéresser de plus près à Spinoza.

Lire la suite

mercredi, décembre 27, 2006

Back on tracks. Couverture du Times (1939)

Joyeux Noël à tous ! Un petit article rapide, pour vous inviter à parcourir les anciens "Man of the Year" du Time. Phersu critique leurs choix, mais en attendant, il s'agit de photographies instantannées du monde, chaque année depuis 1927. Je vous conseille en particulier à lire celle de 1938, decernant le titre d'Homme de l'Année à Adolf Hitler.

Lire la suite

jeudi, décembre 21, 2006

Blogueur en vacances, projets en cours.

Stop, petite pause. On ne peut pas dire que j'ai été hyperactif ces derniers jours, pour cause d'activités in real life prenantes, mais la semaine prochaine, ça sera vraiment la relâche. Je reviendrai sûrement durant la semaine du Nouvel An.

Pour entretenir la flamme, voilà tout de même les deux sujets sur lesquels je suis en train de préparer un billet : les cellules souches, en particulier après la lecture du billet de Koz (malheureusement fermé en ce moment), et le libre-arbitre de notre esprit, en réponse au débat chez Pikipoki.

Oh, au fait, j'allais oublier. A la rentrée, j'aurais la chance d'assister à la conférence Dynamics Day, à Boston. Il s'agit d'une conférence de dynamique des fluides, sous toutes ses formes. Je prévois de prêter une oreille particulièrement attentives aux séries sur les fluides non-newtonien (c'est plus marrant), et certainement aussi les questions du chaos, et des réseaux. Si vous êtes intéressé par l'un ou l'autre des sujets de la conférence, n'hésitez pas à me le dire en commentaires. Je me ferai un plaisir de prendre quelques notes et d'en faire un billet (ça sera toujours un sujet en moins à chercher :-D ).

Lire la suite

mercredi, décembre 20, 2006

Le C@fé des Sciences compte un blogueur influent

François, ou Phnk pour les intimes, est cité par le Monde pour ses efforts pour la mobilisation des blogueurs face au scandale des infirmières bulgares (et du médecin palestinien, mais c'est moins porteur) condammés à mort en Lybie. L'avis que je lui ai donné, c'est que Khadafi ne va pas mettre en péril sa virginité retrouvée après l'indemnisation des victimes de l'attentat de Lockerby et l'arrêt de son programme nucléaire. Il a plus envie de s'imposer comme leader en Afrique, que de faire un pied de nez à la communauté internationale. J'ai foi en la non-indépendance de la justice lybienne. Les faits semblent me donner tort, mais une issue positive pourrait encore arriver. Je me fonde sur un certain degré de rationalité de Khadafi, est-ce trop demander ?

Lire la suite

Chez Pikipoki, une intéressante discussion sur Spinoza, sur le "déterminisme absolu". Nous serions absolument déterminés par nos gènes, notre environnement, et plus généralement nous n'aurions aucun libre-arbitre. Voilà qui fait écho à une autre discusion que nous avions eu ici.

Inutile de dire que je pars en croisade sur son blog (on se retrouve là-bas, si vous voulez). Mais cela me donne toutefois de la motivation pour lire Spinoza, et une piste de réflexion sur un prochain billet, donc merci Pikipoki !

Lire la suite

mardi, décembre 19, 2006

Diverses petites choses sur la biologie et les nanotechnologies

  • Le Nature de cette semaine n'a que deux out trois articles de physique et de géologie, et tout le reste est de la bio. Nature a toujours été plus orientée que Science, mais tout de même, il faut y voir un signe de dynamisme de la discipline. En France, c'est le parent pauvre du CNRS...

  • Au passage, dans Nature, un dossier sur l'expérimentation animale, très ouvert, qui présente le problème dans toute sa complexité.

  • Au passage toujours, dans Science de cette semaine, un dossier sur Stardust, et une review sur les différentes techniques de lutte contre l'arsenic au Bangladesh. Je suis super trendy en ce moment, à moins que ça soit juste du suivisme.

  • Des tests sur la persistance et la dangerosité des nanotubes de carbone dans l'organisme sont en cours. So far, so good : ils semblent être convenablement filtrés par les reins et le foie, pour être éliminés. Comme je le disais ici, la seule façon d'avancer, c'est de chercher scientifiquement les possibles dangers des nanotechnologies, pas de s'enfoncer dans l'obscurantisme.

  • Un très bon billet du Doc, sur le pourquoi du comment du rejet de la Science. Le discours scientifique peut être manipulé, peut être rendu inquiétant. Des initiatives comme le C@fé des Sciences vont dans la bonne direction pour rationaliser un peu la discussion.

  • Le synchrotron Soleil ouvre ses premières lignes, et permettra un grand nombre de travaux d'analyses. J'ai déjà donné mon avis chez Jules de Diner's Room : en France, il y a de l'argent pour la recherche, à condition qu'il s'agisse d'un grand projet nécessitant de l'infrastructure, comme Neurospin, le LHC, ITER... Si votre projet ne coûte pas cher, et ne permet au politiciens locaux de poser pour les journaux, vous êtes oubliés, par contre. Tiens, d'ailleurs, Neurospin et Soleil sont tous les deux dans l'Essone, avec le CEA, Polytechnique, l'excellente fac d'Orsay... voilà qui commence à ressembler à un beau petit pôle scientifique ça.

Lire la suite

Aérogels

La mission Stardust vient de rentrer sur Terre. Vous n’en avez peut-être pas entendu parler, car elle ne faisait pas parti de ce club fermé des expéditions spatiales qui ont les faveurs des médias. La pauvre, son seul objet était de ramener quelques poussières de l’espace. Qui s’intéresserait au Balai de l’Espace ? Et bien moi, j’avoue avoir un petit faible pour cette Cendrillon de la NASA, principalement à cause de la manière élégante dont lesdites poussières sont récoltées.

Les poussières en elles-mêmes sont plutôt intéressantes, en particulier parce que leur composition peut nous donner des indices pour valider l’hypothèse d’un apport spatial de matière organique dont nous parlions ici. Cependant, ce qui a retenu mon attention, c’est que ces poussières sont « récoltées » en exposant simplement à l’espace libre[1] des panneaux d’aérogel renforcés d’aluminium, dans lesquels les poussières cosmiques viennent s’enfoncer et sont piégées. La beauté de la technique est qu’en plus de récolter des particules, elle nous renseigne sur leur vitesse, leur répartition (par paquets ou dispersées), ou encore leur direction.

Mais qu’est-ce qu’un aérogel, me direz-vous ?

Déjà, première étape, qu’est-ce qu’un gel ? Cet état de la matière, ni vraiment solide, ni vraiment liquide, mais intermédiaire entre les deux, s’obtient quand des chaînes connectées s’étendent d’un bout à l’autre d’un liquide. Ces chaînes peuvent être aussi bien des molécules, qui forment de longues chaînes appelées polymères, que des assemblages électrostatiques de particules chargées, comme dans le cas des argiles. Durant la réaction de polymérisation, ou durant le processus d’assemblage électrostatique, il arrive un moment, appelé point de gélation, où les chaînes sont assez grandes pour relier les bords du récipient contenant le liquide. C’est le moment où le liquide « prend en masse », où sa viscosité et son élasticité montent en flèche, où on peut le manipuler comme un solide. Les gels pour cheveux, la gelée de groseille, ou la gélatine, sont de bons exemples.

Certains scientifiques un peu barges (des californiens, donc), ont tenté dans les années 30 de retirer l’eau des gels, ce qui n’est pas une mince affaire puisque le liquide peut représenter jusqu’à 99,8% du volume du gel. La motivation de départ était un pari (les paris débiles et alcoolisés font tourner le monde, je l’ai toujours dit), celui de retirer toute l’eau d’une confiture sans diminution de volume. Je vous passe les détails techniques, mais il se trouve que simplement chauffer l’eau pour la faire évaporer créé des interfaces vapeur d’eau/eau liquide, à la surface desquelles s’exerce une force appelée tension de surface. La force cumulée de toutes ces interfaces est largement suffisante pour faire s’écrouler tout l’édifice du gel.

L’astuce est de remplacer l’eau par du dioxyde du carbone liquide, sous pression, puis de le faire évaporer. Dans certaines conditions, il s’évapore de façon continue, sans interface liquide/vapeur. Ce qui reste est un aérogel, une délicate architecture de fines chaînes se soutenant l’une et l’autre.



Les aérogels sont les solides les moins denses que l’on connaisse : leur densité peut être aussi faible que cinq fois celle de l’air. Ils sont aussi les meilleurs isolants thermiques, ce dont témoignent ces quelques images. En effet, leur structure très particulière ne permet aucun transfert de chaleur à distance, ni par conduction ni par convection.



Enfin, leur nature solide ne fait aucun doute, puisqu’ils peuvent supporter des briques 2000 fois plus lourdes ! Par contre, ils sont immensément friables, et ne résistent pas aux chocs. C’est cette dernière propriété qui est exploitée par Stardust : la moindre poussière cosmique voyageant un peu rapidement s’y enfonce.


[1] L’équivalent de « à l’air libre », mais dans l’espace.

Lire la suite

samedi, décembre 16, 2006

La marée monte

Pour rebondir sur l'intéressante discussion qui a commencé après un précédent billet, voici une étude montrant que le niveau de la mer pourrait augmenter environ deux fois plus vite que prévu. Lire la page requiert une inscription, mais elle est gratuite et n'envoie pas de spam.

L'idée est la suivante : plutôt que d'essayer de comprendre les complexes interactions entre réchauffement climatique, fonte des glaciers, et niveau de la mer, le chercheur a simplement utilisé les donnés existantes depuis 1880 pour
1) obtenir une relation entre température moyenne et niveau des eaux
2) injecter dans cette relation les prévisions de réchauffement climatique.

Le résultat est simple, il obtient une relation linéaire entre accroissement de la température et montée des eaux. Une relation si simple doit être prise avec des pincettes, mais le chercheur pense que son modèle peut "tenir" jusqu'en 2100. Et les effets correctifs dont il parle iraient plutôt dans le sens d'un accroissement de la montée des eaux...

Lire la suite

vendredi, décembre 15, 2006

Mieux vaut être REACH et bien portant, que riche et malade

Mine de rien, mon mauvais jeu de mots résume le vote des députés européens sur la directive REACH, le 13 décembre dernier. REACH est l’acronyme pour Registration, Evaluation, Authorisation and Restriction of Chemicals - enregistrement, évaluation, autorisation et restrictions relatifs aux des substances chimiques. Pour faire simple et rapide, la directive est un tournant en matière de protection sanitaire, puisqu’elle oblige les industriels à enregistrer leurs produits auprès d’une nouvelle agence de l’Union Européenne, et à apporter la preuve de leur innocuité. C’est ce renversement de la charge de la preuve (auparavant, il fallait prouver qu’une substance était dangereuse pour qu’elle soit interdite) qui est la modification la plus notable.

La directive est critiquée par les écologistes, qui reprochent l’abandon d’un grand nombre de produits du champ d’application de REACH sous l’influence des lobbys industriels. Elle est aussi critiquée par les industriels, qui l’accusent d’être une grosse machinerie inapplicable, coûteuse, et qui va surtout poser d’énormes problèmes aux PME. Ne maîtrisant pas toutes les subtilités du sujet, mon avis personnel est qu’il s’agit, comme beaucoup de choses avec l’UE, d’un bon compromis qui va dans une bonne direction. Il est probable que l’application en soit plutôt difficile et confuse, surtout au début, mais que la protection des consommateurs en soit in fine améliorée.

Je n’ai pas grand-chose de plus à dire sur le sujet. Je ne pensais pas, à vrai dire, écrire quelque chose sur le sujet, mais je voulais juste vous indiquer, chers lecteurs, que Jean Quatremer, correspondant à Bruxelles de Libération, a replacé de façon très intéressante cette directive dans la perspective de la construction européenne, que l’on dit trop souvent être trop éloignée des citoyens, voire inutile. Il est bon de rappeler qu’aucun pays, aussi puissant soit-il, n’aurait pu imposer cette directive seul, tant ses industries auraient été pénalisées. Ici, l’Union permet d’avoir toutes les industries d’une zone soumise aux mêmes règlements, et, espérons-le, suffisamment de poids économique pour peser sur le reste du monde.

Quand nous avons parlé, sur ce blog, des dangers potentiels des nouvelles technologies, il me semble qu’aussi bien moi que mes aimables commentateurs/contradicteurs n’ont pas mis l’accent sur un point important, le suivi et le contrôle. La traçabilité et les études épidémiologiques sont aussi nécessaires pour les nouvelles technologies que pour la chimie et les autres industries « traditionnelles ». De ce point de vue, il n’y a pas de raison d’avoir peur a priori des technologies émergentes, mais il faut exiger au moins autant de suivi, d’études et de contrôles que pour les produits actuels potentiellement dangereux.

Lire la suite

jeudi, décembre 14, 2006

Miscellaneous


Petite paresse intellectuelle, je ne savais pas comment faire des billets cohérents à partir de plusieurs petites choses, alors je met tout en tas. Thèmes : énergies renouvelables, réchauffement climatique, et division par cent.







Deux revues scientifiques, cette semaine, parlent des énergies renouvelables. C’est le dossier central de Nature, le journal scientifique qui donne le « la » de la recherche mondiale. C’est le n°1, sur trois pages, du dossier « les 100 histoires de la science en 2006 » de Discover, une revue de vulgarisation dans le style de Sciences et Avenir. Dans les deux cas, une bonne place est accordée à l’éthanol. Ces bioénergies sont prometteuses pour la lutte contre le réchauffement climatique : on utilise indirectement l’énergie du soleil au lieu de vider les puits de carbone que sont les hydrocarbures. Par contre, il ne faut pas se faire d’illusions en termes environnementaux : n’oublions pas les besoins en eau, en traitements chimiques, les éventuelles menaces sur la biodiversité…

Dans le même numéro de Discover, seize signes du changement climatique. Entre autres exemples, la glace du Groenland fond trois fois plus vite qu’il y a vingt ans. La fonte des glaces du Groenland et de l’Antarctique a déversé vingt milliards de tonnes d’eau dans la mer cette année. Enorme ? Rapide calcul d’ordre de grandeur : le rayon de la Terre fait 8000 km et des bricoles, donc sa surface, 4πR2 est grosso modo 750 millions de kilomètres carrés. La Terre est recouverte de mers sur environ 2/3 de sa surface, soit 500 millions de kilomètres carrés. Les vingt milliards de tonnes d’eau représentent vingt kilomètres cubes, soit une augmentation du niveau de la mer de quatre micromètres. Pas de quoi s’alarmer, pourrait-on dire. Sauf que les phénomènes climatiques ont beaucoup d’inertie, et il reste encore beaucoup de glace à faire fondre (précisions ici). De plus, quels que soient nos efforts pour réduire maintenant nos réductions de gaz à effet de serre, nous ne sommes qu’au début du réchauffement.

Le réchauffement climatique présente un (deux, en fait) gros risque d’être auto-accéléré. En effet, le réchauffement libère le méthane piégé dans le permafrost sibérien, et le méthane est un gaz à effet de serre bien plus puissant que le dioxyde de carbone. D’un autre côté, des tourbières vont peut-être se développer en Sibérie avec le réchauffement, et peut-être piéger une partie de ces gaz. De toute façon, le risque d’une explosion existe. Je n’aime pas citer des sites trop partisans habituellement, mais celui-ci est le plus complet que j’ai trouvé sur la question. Deuxième point, du méthane est piégé dans des « hydrates » (une sorte de glace) au fond de la mer. La stabilité thermique de ces hydrates est très faible, et ils pourraient relâcher leur méthane en cas de réchauffement. Bombe écologique ou pas ? Tout dépend de la quantité de méthane piégé, et l’incertitude est très grande. Cela va de « pas grand-chose » à « plus de carbone que toutes les autres sources cumulées, incluant la biosphère et les réserves de pétrole et de charbon ».

Vu chez Sebastiao : les gens de chez Verizon (une des plus grandes compagnies de téléphone mobile US) ne savent pas compter…



Lire la suite

Rendre l’université payante, mais juste.

Sous ce titre un peu bizarre, se cachent quelques réflexions que je me suis faites sur l’université française en lisant cet article du New York Times. Les parents américains ont si bien intégré l’idée qu’une meilleure université sera plus chère, que des universités « moyennes » avaient multiplié leur nombre de candidats en augmentant la tuition, c’est-à-dire les frais semestriels. Et ce, en augmentant dans le même temps l’aide financière aux étudiants, jusqu’au point où la plupart d’entre eux ne payaient pas le plein tarif.

L’un des exemples est le suivant : Ursinus College, une petite université de Pennsylvanie, a augmenté en 2000 ses frais de scolarité de 17,6 %, et les candidatures ont immédiatement bondi, 200 de plus que l’année précédente, pour 330 admis. Dans le même temps, ils ont aussi augmenté l’aide financière de 20%, signifiant que la charge financière globale pour les étudiants n’avait pas augmentée. Un bon nombre d'autres universités sont citées, y compris la bien connue Notre-Dame.

Des sociologues et des psychologues pourraient se régaler avec cette histoire. Des économistes chevronnés diraient que l’éducation est, comme quelques produits comme les cosmétiques ou les médicaments, de ces choses pour lesquelles la qualité importe plus que le prix. Comme le prix n’est pas un moyen pire qu’un autre pour évaluer la qualité, cela explique que la demande s’accroisse avec le prix.

Mais ce qui me titille particulièrement, alors qu’on parle beaucoup de réformes de l’université, est qu’une telle répartition des coûts est beaucoup plus juste, car moins égalitaire. Je m’explique. En théorie, l’université française est gratuite pour tous, et les syndicats étudiants font beaucoup d’efforts pour combattre les écarts observés en pratique. En effet, si pour augmenter les moyens des universités, on demandait à tous les étudiants des frais élevés, disons 1000€, ceux issus de familles plus modestes seraient pénalisés. Ainsi, puisque l’égalité de frais est érigée en principe comme chez nous, il est juste que ces frais soient faibles. Cependant, il faut bien noter que dans un système où les frais sont faibles mais constants, ce sont les familles aisées qui paient le moins, relativement à leur revenu. L’objectif d’égalité n’est donc pas l’objectif de justice sociale – j’ai l’impression que les syndicats se trompent de grand principe sur lequel s’arc-bouter.

L’exemple américain, par ailleurs implanté récemment au Royaume-Uni, de bourses compensant des frais encore plus élevés, disons 2000€ avec des bourses équivalentes pour la moitié des étudiants, montre qu’il est possible de faire supporter la réforme par les familles les plus aisées, à gain total constant pour l’université. La petite histoire racontée par le New York Times montre même que cette façon de faire pourrait même augmenter l’attractivité de nos universités à l’étranger !

Il resterait, ensuite, à décider de l’attribution des bourses. Il y a en gros deux façons de faire, la « méritocratie » et l’ « impôt sur le revenu ». Dans la « méritocratie », les bourses sont données aux meilleurs élèves, c’est le système américain. Les élèves brillants ne paient pas la tuition, et reçoivent en plus une bourse conséquente. C’est un système qui attire d’autant plus les meilleurs élèves, et où les élèves riches et brillants sont les grands gagnants. Dans le système type « impôt sur le revenu », les bourses sont attribuées en fonction du revenu des parents. C’est un système moins attractif pour les meilleurs étudiants, mais peut-être plus juste d’un point de vue social. C’est, je crois, le système qui a été mis en place par Tony Blair. Le choix entre ces deux systèmes serait un vrai choix politique de type droite/gauche. En comparaison, le système français actuel fait supporter le coût d’un système pauvre aux familles les plus modestes !

Lire la suite

lundi, décembre 11, 2006

Déconseillé aux âmes sensibles

Bon, voilà, si vous êtes arrivés ici via le C@fé des Sciences, et que vous n’avez pas un écran trop grand, vous avez peut-être encore une chance de fermer cette fenêtre. Si vous lisez ces lignes depuis la page d’accueil du blog, vous avez toujours le choix de ne pas cliquer sur « lire la suite ». Les images qui vont suivre ne sont pas très belles à voir, et les histoires qui vont avec ne sont pas plus réjouissantes. Elles sont malheureusement bien réelles. Elles m’ont bien déprimé hier soir, et, même si je tenais à en faire un message sur ce blog, je vous laisse le choix de ne pas gâcher votre café du matin ou votre tisane du soir. C’est comme le mendiant dans la rue : vous pouvez faire semblant de ne pas le voir.







Descendez encore un peu…






Encore un peu…








Alors voilà. Ce week-end j’ai travaillé sur un projet autour du thème de la dépollution de l’eau empoisonnée à l’arsenic au Bangladesh. A la fin de la rédaction du rapport, j’ai googlé un peu quelques images, pour illustrer. Pour faire joli. C’est sur que quand on réfléchit, abstraitement, à l’adsorption de l’arsenic sur de l’hydroxyde de fer III, on reste finalement assez loin de se rendre compte de la situation réelle.



L’arsenic a empoisonné l’eau du Bangladesh dans les années 70, quand, pour répondre à la demande croissante, on a commencé à creuser des puits qui ont révélé à l’air libre un certain type de minéral appelé pyrite. Oxydé par l’air, il génère de l’arsenic, qui se retrouve ensuite dans l’eau de boisson. La concentration en arsenic dans l’eau bue chaque jour par les quelques 18 millions de Bangladeshi concernés est parfois aussi haute que un pour mille (une molécule d’arsenic pour mille molécules d’eau), quand la concentration recommandée par divers services de santé est entre dix et cinquante pour un milliard. Je fais le calcul pour vous : dix mille fois trop.


L’empoisonnement chronique à l’arsenic provoque, entre autres joyeusetés comme le cancer, une forme de gangrène appelée « pieds noirs ». Les photos parlent pour elles. Le visage et les mains se couvrent aussi de points noirs, et l’empoisonnement se double alors d’une catastrophe sociale, les jeunes femmes ainsi défigurées ne peuvent plus trouver de maris.


De la pollution à l’arsenic, il y en a aussi dans certaines régions des Etats-Unis, de la Grande-Bretagne ou de la France. Mais ces pays sont suffisamment riches pour se payer des usines de traitement, où l’arsenic est coprécipité[1] avec des produits comme du chlorure de fer III. Mais ce n’est pas une solution adaptée à un des pays les plus pauvres du monde. Comment les villageois pourraient se débrouiller avec la boue toxique qui est produite ? Ce problème des déchets est le même pour d'autres solutions chimiques, qui sont néanmoins intéressantes car peu coûteuses.

La solution viendra peut-être de l’hydroxyde de fer III. C’est un matériau solide, qui adsorbe (c’est-à-dire qui piège en surface) l’arsenic avec une grande efficacité. Les filtres à base de ce matériau font facilement chuter les taux d’arsenic des eaux les plus empoisonnées en dessous des seuils conseillés. Une fois que le matériau est couvert d’arsenic, il suffit de remplacer le filtre. Les déchets, solides, sont non ou peu toxiques, peu volumineux, et faciles à isoler.

Une solution commerciale qui existe déjà est à base de granules de taille millimétrique. Problème, le matériau de base, et donc le filtre, coûte assez cher. Cette première solution est donc impossible à généraliser à grande échelle, que la facture soit adressée aux villageois Bangladeshi ou à l’OMS. Pour réduire les coûts, et puisque tout se passe à la surface des granules, il faut augmenter la surface disponible par gramme de matériau. Cela signifie, concrètement, de réduire la taille des particules : plus une sphère est petite, plus le rapport entre sa surface et son volume, ou entre sa surface et sa masse, augmente. Et c’est là qu’entre en action les nanoparticules, qui sont ce que nous savons faire de mieux en la matière. Alors, que ceux qui veulent prendre des postures morales sur le principe de précaution, sur le danger on-ne-sait-jamais-donc-vaut-mieux-pas-y-toucher des nanoparticules, le fasse s’ils le désirent. Après tout, ce n’est pas eux qui sont empoisonnés.

Une première idée, du professeur Ashok Gadgil de Berkeley, est d’enduire des particules de fumée d’hydroxyde de fer. Le but est d’obtenir de petits filtres jetables, que le gouvernement, l’OMS ou d’autres organisations comme Médecins sans Frontières pourraient distribuer, un par jour et par famille. L’autre idée serait de recouvrir des matériaux poreux, type éponges, par des nanoparticules d’hydroxyde de fer. Ils constitueraient ainsi des filtres de plus grande taille, pour un village par exemple.

Tout cela prendra encore du temps, malheureusement. Et en attendant, les usines actuelles de traitement semblent bien inadaptées...


[1] C’est-à-dire que les deux produits séparément sont solubles dans l’eau, mais qu’en réagissant ensemble, ils forment un composé insoluble qui précipite au fond du bassin de décantation, formant une boue toxique qui est isolée.

Lire la suite

samedi, décembre 09, 2006

Le C@fé des Sciences est ouvert


Voilà une belle histoire, qui ne fait que commencer. Après avoir décidé de donner à ce blog une tournure plus scientifique que politique (et le commentaire motivant de Laurent Guerby, dont j’espère qu’il continue à fréquenter ces pages), je me suis intéressé à ce que l’on pourrait appeler la « blogosphère scientifique française ». Un nom bien pompeux pour une réalité assez maigrichonne, puisque les blogs sur le sujet ne sont pas bien nombreux, surtout comparés à leurs « confrères » politiques. L’article de Timothée Poisot sur Agoravox m’a cependant montré que d’autres personnes avaient les mêmes centres d’intérêt que moi, et, coïncidence trop curieuse pour être le fruit du hasard, partageaient la même envie de former quelque chose comme une communauté. Une communauté qui parlerait de sciences, mais sans discours de spécialistes, simplement avec notre envie de partager notre intérêt pour la recherche dans toutes les disciplines.

La communauté n’a pas tardé à se former. Les échanges de mails, tout d’abord avec Tom Roud et Enro, puis François, et ensuite le Doc et Benjamin de Bactérioblog, ont été immédiatement constructifs. L’envie de nous regrouper, pour partager des liens, pour créer une dynamique, pour alimenter les conversations entre blog, pour proposer à nos visiteurs d’autres billets intéressants, était déjà présente. Coïncidence de vues, encore une fois, certainement due à l’exemple de Lieu-Commun. Il ne restait plus qu’à allumer la mèche. Le choix du nom, la création du site par Enro, le dessin du logo, tout cela s’est fait à une vitesse ahurissante et avec des échanges de mails incessants.

Voilà, maintenant, le c@fé est ouvert. En cliquant sur l'image dans la colonne de gauche, ou en ajoutant l’adresse cafe.enroweb.com à vos bookmarks, vous aurez accès à un aggrégateur de nos billets. Fonctionnalité supplémentaire, les tags vous permettront de voir d’un seul coup d’œil les billets sur un sujet donné. Vous verrez, les sujets abordés sont nombreux. Evolution, génétique, sciences « dures », philosophie et psychologie des sciences, organisation de la recherche en France et à l’étranger, chacun écrit en fonction de ses goûts et de l’actualité. Nous ne sommes pas, loin de là, d’accord sur tout. Et nous ne sommes pas non plus spécialistes dans tous les domaines. Nous partageons cependant l’envie d’ouvrir le dialogue, entre nous ou avec vous, pour partager nos opinions.

J’espère que le C@fé des Sciences deviendra, comme pour moi, une des premières pages que vous ouvrirez le matin, entre vos mails et le site de votre journal favori. Bien installé dans votre fauteil, une tasse de café dans une main, la souris dans l’autre, découvrez des horizons différents. C’est ouvert.

Lire la suite

mercredi, décembre 06, 2006

Comment faire une bonne présentation ?

Si vous devez, un jour, faire une présentation dans une conférence scientifique ou dans un séminaire, il vous sera utile d'avoir quelques règles de base pour savoir ce qui distingue une bonne présentation d'une mauvaise. Ces règles pourront aussi vous être utiles si vous assistez à une conférence ou à un séminaire, pour savoir, sans vous tromper, et même sans avoir d'expertise particulière dans le domaine, si l'orateur est bon. Voici donc, en exclusivité mondiale chez Matthieu :

Les 4 et demi règles fondamentales d'une bonne présentation scientifique.

1) Parlez de toutes les expériences que vous ayiez jamais faites. Vos auditeurs sont réellement curieux de connaître tous les détails de votre recherche, y compris les variations mineures autour des expériences principales. Et y compris si la conférence s'adresse à un public de non-spécialistes. N'oubliez pas de mentionner les résultats à peine au-dessus du niveau du bruit statistique et ceux compris dans la marge d'erreur expérimentale.

2) Digressez sur les conversations que vous avez eu avec des gens connus, ce dont il était question, et ce que vous avez fait ensuite. Et ce, même si le rapport avec le sujet est vague voire inexistant. Les gens partageront une partie de votre gloire et de votre aura : il est de votre devoir d'illuminer un peu leur vie. C'est ça, le Star-System.

3) Utilisez des couleurs. Beaucoup. Vous vous souvenez, votre premier powerpoint un peu tristounet, quand on vous avait dit que ça serait mieux avec un peu de couleur ? Poussez ce conseil jusqu'à sa limite et utilisez le plus de couleurs possibles. Sur chaque page.

4) Utilisez les préfixes "nano-" et "bio-". Vous montrerez ainsi à vos auditeurs que vous êtes à la pointe de la technologie, cutting-edge breakthrough, fancy, et tout le bazard. N'hésitez pas à employer les deux préfixes dans la même phrase.

4 et demi) Si votre conférence parle de sujets un peu éloignés des sciences dites "dures", et que la loi 4) est trop dure à mettre en oeuvre, voilà une liste d'expressions de secours qui crédibiliseront votre discours. Insérez ces expressions de façon intensive aléatoire dans votre présentation. La liste est la suivante : "effet quantique", "principe d'incertitude d'Heisenberg", "théorème d'incomplétude de Gödel", "champ magnétique", "statistiquement parlant, ...".

Voilà, avec cela, vous êtes parés. Oh, une dernière chose : l'expression "une présentation courte transmet une idée, une présentation longue transmet une idée et demi, quelle que soit sa longueur" ne s'applique bien évidement qu'aux autres participants de la conférence, pas à vous, puisque vous, vous êtes intéressant.

Lire la suite

lundi, décembre 04, 2006

Machine 1 - 0 Homo Sapiens

Allez lire chez Eric la boulette de Kramnik face à Deep Fritz. Même pour quelqu'un comme moi qui ne joue pas aux échecs, c'est marrant.

Low-blogging, encore...

PS : les 4 autres parties sont des nulles, donc pour l'instant, la machine mène 1-0 avant la dernière partie.

EDIT : La machine a finalement gagné 2-0 ...

Lire la suite

dimanche, décembre 03, 2006

Le rapport Stern attire l'attention

Versac nous apprend que "Rapport Stern" est la deuxième requête Google la plus populaire ayant menée à son blog au mois de novembre. De même, pour ce blog, les différentes requêtes Google ayant un lien avec le rapport Stern sont de loin celles qui dirigent ici le plus d'internautes. L'échelle du nombre de visiteurs n'est pas la même, bien sûr, mais le parallèle m'a frappé.

Est-ce un signe que le grand public prend de plus en plus conscience des problèmes environnementaux ? J'y vois aussi et surtout l'espoir à l'idée que ce rapport fasse réellement évoluer la situation au niveau politique et économique, car, pour la première fois, c'est un économiste, et non un climatologue, qui tire la sonnette d'alarme. Cela dit, pour l'instant, à part des voeux pieux, il n'y a pas beaucoup d'actions concrètes qui en sont sorties. Les Echos avaient proposé quelques pistes, mais la montagne - la conférence de Nairobi sur le climat en novembre- a accouché d'une souris.

PS : Après un week-end sevré d'internet, je n'ai pas encore repris le rythme. Donc, low-blogging en ce moment.

Lire la suite