La physique et le vivant: De la résonance magnétique aux molécules uniques
Peu après la fin de la Seconde Guerre mondiale, les physiciens réussirent à polariser des spins nucléaires dans la matière condensée et les gaz, après avoir appris sur des faisceaux de neutrons. Ainsi naquit la résonance magnétique nucléaire. L’application à l’étude de la matière molle puis d’objets d’intérêt biologique comme les membranes lipidiques se fit en une quinzaine d’années. Rapidement, deux axes allaient se dégager : l’imagerie médicale d’une part, la détermination de structures des protéines solubles de taille modérée d’autre part. On peut maintenant comparer les structures déterminées par la diffraction X dans les cristaux à celles obtenues par la résonance magnétique en solution. Quant à l’imagerie fonctionnelle, elle révolutionne jour après jour notre perception du fonctionnement de nombreux organes, en particulier du cerveau.
Dès le début des années 1960, le premier laser était construit. Là encore, médecine et biologie profitèrent largement de cette découverte. La microchirurgie laser n’est pas la moindre des applications. Les spectroscopies optiques permettent de nos jours d’étudier la dynamique enzymatique à des temps inférieurs à la picoseconde (10-12 seconde). La microscopie optique a été portée à ses limites théoriques ultimes par la microscopie confocale classique, biphotonique ou utilisant les techniques de dé-convolution. Récemment, la limite classique de résolution des images a été complètement dépassée par l’utilisation de techniques d’imagerie par molécules individuelles. On obtient des résolutions latérales de l’ordre de vingt nano-mètres et de cinquante nanomètres en profondeur : c’est une révolution pour l’imagerie cellulaire ! Les organelles nous apparaissent sous un jour complètement neuf. La biologie cellulaire connaît un développement exceptionnel grâce à la conjonction de ces améliorations et de l’introduction de nouvelles méthodes de marquage biochimique in vivo. On peut suivre de nombreux processus cellulaires directement sur les cellules vivantes, par exemple voir la membrane nucléaire se fondre dans le cytoplasme au cours de la mitose ou observer la création de nanotubes fluides là où l’on croyait qu’il n’y avait que des vésicules sphériques ! Les lasers permettent l’étude des protéines à l’échelle individuelle : il est en effet possible, en focalisant fortement un laser de puissance modeste, de « piéger » au point focal du laser une sphère de taille micronique sur laquelle on greffe les protéines à étudier. Le déplacement du faisceau laser permet de manipuler les protéines ou les acides nucléiques un par un, ou d’en mesurer les propriétés. On peut ainsi citer l’énergie de rupture des liaisons protéineprotéine, les forces provoquant leurs changements conformationnels, la vitesse des protéines responsables du transport et appelées « moteurs moléculaires », les forces qu’elles développent (quelques piconewtons), etc. Cette technique dite des « pinces optiques » est largement utilisée dans l’étude des molécules uniques (nous décrirons dans l’appendice sur les molécules uniques les pinces magnétiques, au principe très semblable).
Au milieu des années 1970, l’amélioration considérable de la précision des mesures de courant électrique permit d’accéder au domaine des picoampères (10-12 A). Physiciens et biologistes comprirent rapidement que la mesure du courant traversant des canaux ioniques uniques devenait possible. Un canal ionique est un complexe protéique qui permet le passage sélectif de certains ions à travers les membranes biologiques. Encore faut-il isoler électriquement un seul canal sur sa membrane. C’est ce que réalise la technique dite de «patch-clamp », par laquelle une pipette de diamètre micrométrique sélectionne une région très réduite de la membrane sur laquelle en moyenne un seul canal se trouve. La mise au point de cette technique a déclenché une vague d’expérimentations sur objets uniques. Les fluctuations individuelles sont clairement vues et la physique statistique apporte sa contribution à la compréhension de ces systèmes.
Presque simultanément apparut la microscopie en champ proche, immédiatement appliquée à des objets biologiques. La variante la plus utile à cette fin est sans conteste la microscopie à force atomique. Dans son principe, cette technique est très simple : une pointe extrêmement fine de tungstène, de quelques atomes seulement à son extrémité, est approchée d’une surface jusqu’au contact, puis déplacée parallèlement à cette surface. La moindre aspérité courbe le levier qui tient la pointe, et cette courbure est détectée par la déflexion d’un faisceau laser. On peut ainsi construire l’image d’objets placés sur des substrats avec une résolution meilleure que le dixième de nanomètre dans la direction perpendiculaire au substrat, et de l’ordre de la taille de la pointe (moins d’un nanomètre) dans les directions parallèles au substrat. De nombreux objets biologiques comme des protéines, les acides nucléiques mais aussi par exemple le cytosquelette sont ainsi visualisés dans un environnement physiologique. La manipulation du bras de levier permet aussi d’exercer des forces sur les objets étudiés. Les échelles de force sont de quelques piconewtons à quelques centaines de piconewtons, et l’utilisation en est assez semblable à celle des pinces optiques.
De l’influence du hasard à la propagation de l’influx nerveux :
L’apport de la physique à la biologie n’est pas uniquement instrumental. De nombreux apports conceptuels ont aussi jalonné l’histoire de notre appréhension du monde vivant.
Un des concepts issus de la physique introduit dès le xixe siècle est celui de « fluctuation » ; il s’agit d’abord de décrire l’influence du hasard sur la descendance mâle d’un individu donné. Les équations introduites à cet effet se révèlent en retour utiles pour la description des processus impliquant des cascades de branchements, comme la physique des rayons cosmiques ou les problèmes d’accélération d’électron par les grilles ! Ce concept de « fluctuation » est réintroduit en biologie au milieu du XXe siècle par les équipes qui s’intéressent à la génétique des bactériophages. Un problème central est de comprendre pourquoi la réplication du code génétique se fait avec si peu d’erreurs, alors que les énergies de liaison des paires de base sont de l’ordre de l’énergie thermique. Les paires devraient donc se briser spontanément. C’est la « physique statistique hors d’équilibre » qui apporte les éléments de compréhension : on peut obtenir des distributions extrêmement différentes des distributions thermodynamiques habituelles (de Boltzmann) lorsque les processus se développent loin de l’équilibre. Or c’est le cas de la réplication. Le proof reading de Hopfield en est une belle illustration. Il ne faut pourtant pas croire que tout est compris, et les mystères de nombreuses « machines de réparation de l’ADN » restent à percer !
L’existence des fluctuations mais aussi l’existence de conditions externes largement variables conduisent naturellement à un autre concept développé récemment, celui de « robustesse » : un système vivant donné doit être capable de fonctionner dans des gammes de paramètres étendues sans pour autant perdre son identité. Par exemple, la robustesse de la chemotaxie d’Escherichia coli est maintenant très bien documentée et comprise.
Dès les années 1930, avant les études structurales précises, l’idée de l’existence d’un code linéaire était déjà venue, posant immédiatement le problème de sa relation avec un monde tridimensionnel. On comprend aussi très tôt que l’ordre quasi géométrique des systèmes vivants ne peut apparaître qu’au détriment d’une dissipation globale, généreusement fournie au monde extérieur sous forme de chaleur. Les exemples des structures de Turing, réactions chimiques provoquant une structuration de l’espace, illustrent de manière saisissante ce concept déjà connu des physiciens. Les transitions purement chimiques avec brisure de symétrie spatiale sont sans doute assez fréquentes dans le monde procaryote. On sait par exemple qu’elles jouent un rôle important dans la duplication de bactéries comme E. Coli. Des versions plus sophistiquées impliquant le cytosquelette et les moteurs moléculaires sont ubiquitaires dans le monde eucaryote. On découvre très régulièrement de nouvelles situations dans lesquelles les transitions avec brisure de symétrie jouent un rôle physiologique important. Par exemple, on sait maintenant que le concept de bifurcation de Hopf (le point à partir duquel un système peut devenir oscillant) est utile à la compréhension des systèmes de détection sonore que sont les cellules auditives. Chaque cellule de l’oreille interne fonctionne exactement à cette limite dite « critique ». Un tel mode de fonctionnement avait été proposé, mais sans succès, dès 1958. De manière semblable, l’adhésion entre deux cellules se fait dans des conditions équivalentes à un changement d’état : on observe des zones adhérentes coexistant avec des zones non adhérentes, tout comme à une température de 0 °C à pression atmosphérique on observe une coexistence d’eau et de glace.
Un autre concept important est celui de sélectivité : comment les protéines peuvent-elles se reconnaître avec une telle précision ? Les notions d’interaction de Van der Waals et de liaison hydrogène, formes raffinées d’interaction électrostatique, ainsi que l’introduction de l’idée de complémentarité des formes permettent d’avoir une image simple de la notion de sélectivité. Le concept clé-serrure est une illustration imagée de cette complémentarité de forme. En pratique, la sélectivité est obtenue avec des énergies d’une à quelques dizaines de fois l’énergie thermique. Obtenir les formes voulues se fait par un repliement bien précis des protéines. Là encore, la physique intervient pour aider à la compréhension du phénomène, et de nombreux problèmes restent posés (par exemple ceux concernant les protéines « chaperon ».
Un des plus grands succès conceptuels est sans aucun doute l’introduction du modèle électrique de la propagation de l’influx nerveux. Hodgkin et Huxley montrèrent dès 1952 que les axones transmettent un front d’onde électrique appelé « potentiel d’action ». Le mécanisme de transmission des ordres du cerveau aux membres, la perception du monde extérieur, bref, toutes les informations sont véhiculées par un signal électrique. Une part importante du fonctionnement cérébral est liée à cette activité électrique. L’émission du potentiel d’action est un phénomène de physique non linéaire typique ! Plusieurs années plus tard, une modélisation du fonctionnement cérébral est inspirée par l’existence d’un seuil de déclenchement du potentiel d’action : c’est la théorie dite des « réseaux de neurones ». La vision actuelle du fonctionnement neuronal a une composante dynamique plus importante que celle contenue dans les modèles initiaux, mais les modèles de réseaux de neurones sont une riche source d’inspiration pour la physique statistique et se révèlent très utiles dans de nombreuses branches de l’analyse du signal, en particulier des images.
Plus généralement, la biologie des systèmes est à l’heure actuelle en plein développement, tant au plan théorique qu’au plan expérimental. Il est maintenant possible d’étudier in vitro les mécanismes d’évolution, les réseaux d’expression protéique et l’influence sur leur fonctionnement des fluctuations et du désordre. Une analyse théorique élégante a révélé une modularité spectaculaire de ces réseaux : l’évolution a adopté une stratégie d’ingénieur ! On a aussi appris récemment que des bactéries génétiquement identiques peuvent avoir des comportements radicalement différents. La génomique qui suscite des analyses statistiques très subtiles ne peut tout expliquer !
L’irrigation de la physique par les problèmes issus de la biologie s’est aussi concrétisée récemment par l’introduction en physique hors d’équilibre d’égalités, là où jusqu’alors nous ne disposions que d’inégalités. C’est par exemple le cas d’un théorème appelé « théorème des fluctuations » (Fluctuation Theorem), qui relie la probabilité d’une transformation d’un état A à un état B, à sa transformation inverse. L’existence de ces relations est intimement liée à la réversibilité temporelle des équations de mouvement. Elles prennent des expressions simples dans la plupart des cas pertinents en biologie des molécules uniques et permettent d’accéder à des grandeurs thermodynamiques à partir de mesures hors d’équilibre. Ainsi, l’étude du dépliement-repliement de boucles d’ARN a confirmé de manière élégante la validité de ces relations dans le cas de transformations isothermes. Non sans lien avec la précédente, une autre question intéressante pour le physicien est de comprendre comment le vivant « brise le théorème fluctuation- dissipation ». Près de l’équilibre, des égalités très fortes lient les fluctuations spontanées d’un système à la manière dont ce même système répond à des sollicitations externes. Typiquement, en mesurant à la fois les fluctuations et la réponse, on peut en déduire la température du système. Le vivant étant évidemment hors d’équilibre, cette relation n’a pas de raison d’être satisfaite. Sa violation est spectaculaire dans le cas des cellules ciliées de l’oreille interne. On commence aussi à comprendre le cas des gels soumis à l’action des moteurs moléculaires. Très récemment, des généralisations du théorème fluctuation- dissipation aux états stationnaires hors d’équilibre ont été démontrées. Même lorsqu’il n’existe pas de température, il existe des relations fortes entre réponse et fluctuations pourvu que les grandeurs observées soient convenablement choisies. Gageons que le monde biologique fournira de beaux systèmes pour vérifier ces égalités !
Les révolutions à venir :
À l’heure où le code génétique des espèces les plus complexes est « percé », il s’agit de déterminer la relation entre un code donné et le phénotype correspondant, C’est l’ère de la postgénétique qui s’ouvre. Il faut cependant bien avoir en tête que la relation entre génotype et phénotype est en général très complexe, que des progrès ne pourront être obtenus que par un effort de grande envergure mettant simultanément en jeu toutes les compétences scientifiques, biologiques, chimiques, physiques ou mathématiques. Quels domaines de la biologie seront irrigués par la physique dans le futur ? On peut répondre sans se tromper que tous les domaines seront concernés, mais au jeu des pronostics nous pouvons en mettre certains en exergue :
La biologie à l’échelle moléculaire :
Elle a pris une tournure nouvelle avec les expérimentations sur les molécules uniques. On obtient ainsi des informations originales sur la physique des molécules d’ADN uniques, sur la physique des protéines, qu’elles soient « passives » (par exemple dans le cas des molécules d’adhésion) ou quelles représentent de véritables machines capables d’assurer des fonctions comme le repliement d’autres protéines, leur transport, l’ouverture des deux brins d’ADN, leur réplication, la synthèse du carburant de la cellule, la photosynthèse, le transport transmembranaire, etc. La rencontre de la biologie moléculaire et de la physique est en passe de révolutionner notre connaissance des phénomènes à ces échelles. Pour l’instant, les simulations numériques ne sont pas encore capables de compléter les expériences, mais on s’emploie à les rendre opérationnelles dans un avenir assez proche.
La biologie cellulaire :
L’étude des phénomènes d’auto-organisation impliquant les moteurs moléculaires, le cytosquelette, les membranes, la compréhension des réseaux « chimiques » contrôlant la vie cellulaire et leur lien avec la génomique constituera une nouvelle étape dans la compréhension du fonctionnement de la cellule. On a déjà montré que les notions de transitions spatiale et temporelle sont importantes. D’autres notions comme celles de « robustesse » et d’« adaptation » ont émergé et posent des questions théoriques et pratiques d’un grand intérêt, toutes liées à des concepts bien maîtrisés par les physiciens.
La biologie du développement :
Les techniques et les concepts utiles à la biologie cellulaire sont aussi utiles à la biologie du développement. L’application de concepts de physique à la morphogenèse biologique est une vieille idée, qui acquiert une seconde jeunesse avec la connaissance expérimentale de plus en plus précise des phénomènes mis en jeu. Là encore, brisures de symétrie spatiale et temporelle se révèlent importantes, tout comme la notion de « robustesse ».
La biologie des tissus, la physiologie, la médecine :
L’extension naturelle de l’étude de la vie cellulaire est le passage à l’échelle pluricellulaire. Des problèmes comme l’adhésion entre cellules ont une composante « physique » très subtile, qui mêle la physique de la matière molle, celle des moteurs moléculaires et la signalisation. On espère évidemment des retombées dans la compréhension et la maîtrise de la prolifération des métastases. D’autres pathologies comme celles de Creutzfeldt-Jakob, Alzheimer et, plus généralement, toutes celles qui impliquent une cristallisation non contrôlée de protéines nécessitent une compréhension de la physique du phénomène aussi bien que de sa biologie. À une échelle supérieure de complexité, on trouve les systèmes intégrés comme le système immunitaire, le système circulatoire ou le système nerveux. Le défi le plus important est certainement celui de l’étude du fonctionnement du cerveau. Les nouvelles techniques de visualisation permettent de savoir quelle partie du cerveau s’active lors d’opérations mentales bien identifiées. La tendance qui se dégage n’est pas toujours celle d’une localisation précise à l’échelle neuronale, mais plutôt celle d’une structuration dynamique d’ensembles de neurones, avec parfois des successions de dé-focalisation puis de refocalisation de l’information.
La macrobiologie :
C’est un domaine vaste qui recouvre aussi bien l’étude de l’évolution des espèces que l’écologie. Les physiciens y ont apporté les outils de la théorie des systèmes dynamiques et désordonnés. On commence à pouvoir faire des expériences in vitro, par exemple sur l’évolution en effectuant des cycles d’expression de protéines dans des conditions « sélectives », ou in vivo avec des bactéries, voire des êtres plus complexes comme les drosophiles. Il devient donc possible de tester quantitativement les théories existantes et il serait étonnant de ne pas rencontrer des surprises.
De manière plus générale, l’étude du vivant pose des problèmes originaux de physique loin de l’équilibre, façonnés par plusieurs milliards d’années d’évolution : ce sont donc les concepts empruntés à la physique des systèmes complexes – physique statistique, physique non linéaire, physique de la matière molle, hydrodynamique, thermodynamique hors d’équilibre… – qui ont toutes les chances d’être les plus utiles et de nous apporter une vision nouvelle des phénomènes biologiques.