(*) Voir "Comment est née la biologie moléculaire", par Pierre Thuillier, la Recherche , n° 23, mai 1972

Description : C:\Documents and Settings\Propriétaire\Mes documents\images\artrub_not.gif
(1) R.H. Miller, K.H. Prendergast, Astrophys. J ., 151 , 699, 1968.

(2) R.H. Miller, K.H Prendergast et W.J. Quirk, Report Coo ., 614-72, The University of Chicago.

(3) I. Prigogine et G. Severne, Physica , 32 , 1376, 1966.

(4) W.E. Thirring, Ann. Phys ., 16 , 96, 1961.

(5) G. de Vaucouleurs, Science , 167 , 1203, 1970.

(6) M. Haggerty, Physica, 50 , 391, 1970.

(7) S. Chandrasekhar, Hydrodynamic and Hydromagnetic Stability , Clarendon Press, Oxford, 1961.

(8) M. Herschkowitz-Kaufman, C. R. Acad. Sc ., 270, 1970 ; A.M. Zhabotinsky, Oscillatory Processes in Biological and Chemical Systems (en russe), Moscou, 1967,

(9) R. Blumenthal, J,P, Changeux et R. Lefever, J. Membrane Biol ., 2 , 351. 1970.

(10) L.L. Boyarsky, Curr. Mod. Biol ., 1 , 39, 1967.

(11) H.R. Wilson et J.D. Cowan, "Excitatory and Inhibitory Interactions in Localized Populations of Model Neurons", preprint, Univ. de Chicago, 1971.

(12) W.J. Moore, preprint, Univ. d'Indiana, 1971.

(13) E.F. Keller et L.A. Segel, J. Theoret. Biol ., 26, 399, 1970.

(14) M. Paecht-Horwitz, J. Berger, A. Katchalsky, Nature , 228, 636 , 1970.

(15) M. Eigen, "Selforganization of matter and the Evolution of Biological Macromolecules", Naturwissenschatten , 58, 465, 1971.

(16) A. Goldbeter, G. Nicolis, A. Babloyantz, travaux en cours.

 

(1972) Illya Prigogine

La thermodynamique de la vie (texte intégral)

Les phénomènes de la vie peuvent-ils être expliqués par les concepts utilisés en physique? Confrontés à cette question, lors des premiers pas de la biologie moléculaire, biologistes et physiciens ont rencontré une série de problèmes dont l'importance n'a pas échappé à certains scientifiques malgré l'absence d'un véritable débat (*). Pour beaucoup de biologistes, les réflexions sur la thermodynamique de la vie restent encore marginales et, de fait, pour le moment, on les rencontre plus souvent dans des textes sur la biologie que dans des publications de biologie. Confusion de langage, non-assimilation de concepts physiques par les biologistes, barrières idéologiques ont sans doute rendu difficile une vision précise des rapports entre la biologie et la physique. Mais surtout la thermodynamique n'avait pas atteint jusqu'à présent un niveau de raffinement conceptuel suffisant pour être opératoire en biologie. lllya Prigogine montre Ici qu'il a fallu attendre le développement d'une "thermodynamique généralisée" pour commencer à expliquer les principes généraux de sélection et d'évolution à un niveau moléculaire.

Toute discussion de la position de la biologie par rapport aux sciences physiques conduit tôt ou tard au problème de la situation des systèmes vivants par rapport aux grandes lois d'organisation de la physique. C'est tout spécialement la relation entre l'origine et le maintien de l'ordre biologique et la thermodynamique qui depuis de nombreuses années reste un sujet constant de discussions. Depuis Bergson jusqu'à Monod, un grand nombre d'auteurs ont abordé ce problème. Soit pour affirmer comme Bergson et Polanyi l'originalité foncière de la vie, soit pour affirmer qu'il n'y avait là qu'un pseudo-problème et que l'unité des lois de la nature ne faisait guère de doute.

Nous verrons qu'actuellement on peut mieux situer l'ordre biologique et préciser davantage sa dépendance vis-à-vis des lois de la physique. La notion d'ordre, de structure, telle qu'elle nous apparaît aujourd'hui et qui est une des caractéristiques essentielles des systèmes biologiques, est loin d'être aussi simple et aussi "monolithique" qu'on ne le pensait. Aussi, avant de discuter le lien entre biologie et physique, il est bon de présenter un bref aperçu des grandes lois d'organisation et d'évolution de la physique telles qu'elles nous apparaissent aujourd'hui. Parmi celles-ci les lois de la thermodynamique et tout spécialement le second principe continuent à jouer un rôle central.

Le second principe de la thermodynamique, ou principe d'ordre de Boltzmann

Le premier principe de la thermodynamique affirme la conservation de l'énergie pour tous les systèmes. L'accroissement de l'énergie au sein du système est égal à I'énergie reçue par celui-ci. Le second principe Indique qu'un système isolé évolue spontanément vers un état d'équilibre qui correspond à l'entropie maximale, c'est-à-dire au plus grand désordre. Ces deux principes sont à la base de la thermodynamique classique et permettent de décrire la plupart des systèmes en physique.

Considérons un système macroscopique, c'est-à-dire un système qui comporte un très grand nombre N de particules ou d'autres types de sous-unités. Nous supposons que ces particules sont comprises dans une portion de l'espace séparée du monde extérieur par une surface géométrique fictive, de telle sorte que la densité numérique, c'est-à-dire le rapport N / volume, reste finie. Quelques exemples serviront à illustrer cette notion fondamentale. Un centimètre cube d'un gaz à température et pression ordinaires est un système macroscopique comportant quelque 1020 unités en interaction faible qui sont les molécules du gaz. Le chromosome d'une bactérie, pouvant comporter quelque 106 molécules, peut également être considéré comme un système macroscopique. Enfin, à une tout autre échelle, une cellule vivante qui comporte 104 macromolécules peut être considérée, pour certaines propriétés globales, comme un système qui obéit aux lois de la mécanique des milieux continus.

Pour tous ces systèmes, la thermodynamique prévoit des lois d'une validité extrêmement générale que nous énoncerons après avoir donné quelques définitions.

En général un système macroscopique est couplé à son environnement, que nous appellerons souvent "monde extérieur", soit par des forces qui agissent en chaque point à l'intérieur du système (par exemple forces de gravitation ou forces provenant d'un champ électrique), soit par des forces de surface (par exemple la friction). On définit un système isolé comme un système dont les interactions avec l'environnement sont telles qu'il n'y a pas d'échange de matière ou d'énergie avec le monde extérieur. Un système fermé sera un système qui ne peut échanger que de l'énergie avec le monde extérieur. Enfin, un système ouvert est un système pouvant échanger de l'énergie et de la matière avec le monde extérieur. Ainsi la Terre dans son ensemble est un système fermé qui reçoit l'énergie du rayonnement solaire (en négligeant les échanges massiques provenant des chutes de météorites, etc.). Par contre, une cellule de la bactérie Escherichia coli , dans un milieu contenant du glucose, est un système ouvert.

Le premier principe de la thermodynamique affirme la conservation de l'énergie pour tous les systèmes. L'accroissement de l'énergie au sein du système est égal à l'énergie reçue par celui-ci.

Le désordre moléculaire

Le second principe introduit une nouvelle fonction de l'état du système, l'entropie, liée aux échanges calorifiques avec le monde extérieur. Mais contrairement à l'énergie, l'entropie ne se conserve pas. Dès lors, l'accroissement d'entropie s'écrira comme une somme de deux termes liés ; l'un, deS, à l'apport extérieur d'entropie et l'autre, diS à la production d'entropie au sein même du système : dS = deS + diS. L'énoncé du second principe est alors résumé par l'inégalité diS ³ 0, ce qui signifie que les phénomènes irréversibles se déroulant au sein même du système (conduction de chaleur à travers un solide, écoulement visqueux, etc.) ne peuvent donc que créer de l'entropie. Pour un système isolé, le flux d'entropie deS est nul, et nous sommes ramenés à l'énoncé classique dS ³ 0. Le signe d'égalité se réalise à un état particulier, l'état d'équilibre atteint par le système au bout d'un temps long.

Le second principe implique donc que pour un système isolé il existe une fonction de l'état instantané du système, l'entropie S, qui ne peut que croître au cours du temps. Cette loi fournit donc un principe universel d'évolution macroscopique. Mais quel est son sens microscopique ? Que signifie l'augmentation d'entropie à l'échelle des molécules? Cette question a été largement élucidée par les recherches classiques de Boltzmann : l'entropie est une mesure du "désordre moléculaire". La loi de croissance de l'entropie est donc une loi de désorganisation progressive, d'oubli des conditions initiales particulières. Prenons un exemple simple : considérons un récipient formé de deux parties identiques en communication l'une avec l'autre. Un raisonnement élémentaire montre que le nombre le manières P dont nous pouvons répartir N molécules en deux groupes N1, N2 est donné par P = N!/N1!N2!. Quels que soient les nombres N1, N2 dont nous partons à l'instant initial, nous pouvons nous attendre que pour N grand et au bout d'un temps suffisamment long nous réalisions à des petites fluctuations près, une situation d'équilibre correspondant à l'équipartition des molécules entre les deux compartiments (N1 Å N2 Å N/2).

Il est facile de vérifier que l'équipartition correspond à la valeur maximale de P. Au cours de cette évolution, P augmente. Dès lors, à la fois S et P augmentent au cours du temps. L'intuition géniale de Boltzmann a été d'identifier ces deux grandeurs. Plus exactement, Boltzmann a rattaché l'entropie à P par la formule célèbre S = k log P où k est la constante universelle de Boltzmann. Cette formule montre bien que la croissance de l'entropie exprime la croissance du désordre moléculaire mesuré en termes du nombre de complexions P. Cette évolution efface l'effet de conditions initiales dont la symétrie serait "inférieure" à celle du système. En moyenne, pour des temps suffisamment longs, les deux compartiments jouent exactement le même rôle. Le système évolue spontanément vers l'état d'entropie maximale.

Nous avons considéré un exemple correspondant à un système isolé. Si nous nous intéressons maintenant à un système fermé à température T donnée (système plongé dans un thermostat), la situation reste analogue mais nous devons considérer à la place de l'entropie, l'énergie libre F, définie par F = E - TS, où E et S sont respectivement l'énergie et l'entropie du système. A l'équilibre, l'énergie libre F est minimale. La structure même de cette formule exprime une compétition entre l'énergie E et l'entropie S. A basse température, nous pourrons négliger le second terme, et ce sont les structures à énergie minimale et à entropie faible (puisque l'entropie est fonction croissante de la température) qui seront réalisées. À température plus élevée, nous passons au contraire à des structures à entropie de plus en plus élevée, C'est bien ce que l'expérience nous indique puisque, à basse température, nous avons l'état solide à entropie basse qui est une structure ordonnée, tandis qu'à température suffisamment élevée nous réalisons l'état gazeux à entropie plus élevée. Nous voyons donc que la formation de certains types de structures ordonnées en physique est une conséquence des lois de la thermodynamique appliquées à un système non isolé à l'état d'équilibre.

Pour savoir quel est l'état d'équilibre d'un système non isolé, on peut également aborder le problème différemment et, au lieu de considérer les fonctions d'état F et S, se demander quelle est la probabilité pour le système de se trouver dans l'état d'énergie En à l'équilibre. C'est encore Boltzmann qui a résolu le problème et montré que cette probabilité est donnée par P a exp [-En/kT]. A basse température, seuls les niveaux "bas" (à En petit) seront peuplés tandis qu'à température suffisamment élevée les populations tendent à s'égaliser sur tous les niveaux. C'est le principe d'ordre fondamental des états d'équilibre, que nous pouvons appeler le principe d'ordre de Boltzmann. C'est lui qui détermine si deux liquides sont miscibles, si des molécules choisiront l'état solide, liquide ou gazeux. C'est lui encore qui régit les lois qui déterminent les changements de phase dans tous leurs détails.

L'ordre biologique et la thermodynamique

Les structures biologiques, hautement ordonnées, peuvent-elles être décrites comme des états d'équilibre régis par le deuxième principe de la thermodynamique ? Avant de répondre à cette question, il convient de dégager les caractères importants des systèmes vivants : ceux-ci présentent à la fois un ordre architectural (structures macromoléculaires) et un ordre fonctionnel (métabolisme) extrêmement sophistiqués.

Pouvons-nous interpréter toutes les structures qui nous entourent, et en particulier les structures biologiques, en termes du principe d'ordre de Boltzmann ? C'est cela le point central que nous devons discuter. Quelques définitions et remarques d'ordre général aideront à mieux situer le problème. En particulier, la caractérisation inambiguë de l'ordre biologique est délicate. Ici, nous associerons à ce terme une définition intuitive basée sur les caractères communs qui frappent lorsqu'on étudie les systèmes vivants :

- Même dans les cellules les plus simples, le déroulement normal du métabolisme implique plusieurs milliers de réactions chimiques couplées. Il en résulte une nécessité absolue de coordonner tous ces processus. Les mécanismes de coordination constituent un ordre fonctionnel extrêmement sophistiqué.

- De plus, les réactions métaboliques nécessitent des catalyseurs spécifiques, les enzymes, qui sont des macromolécules ayant une organisation spatiale fort complexe. L'organisme doit donc synthétiser ces substances, ces structures.

Ainsi l'ordre biologique sera pour nous un ordre architectural et un ordre fonctionnel. Ajoutons à cela qu'au niveau cellulaire ou supra-cellulaire, cet ordre se manifeste par une série de structures et fonctions couplées de complexité croissante. Ce caractère hiérarchique est une des propriétés les plus caractéristiques de l'ordre biologique. Nous allons alors nous intéresser aux questions suivantes : quels sont les facteurs responsables de l'apparition et du maintien de cet ordre biologique ?

Les structures biologiques sont-elles régies par le principe d'ordre de Boltzmann ? Pour répondre à ces questions, un premier point à considérer est la nature des forces au sein de la cellule. Nous avons vu en effet que les lois de la thermodynamique étaient établies pour des systèmes de particules en interaction faible, et ces lois ne semblent pas convenir à des systèmes d'unités interagissant par des forces à longue portée comme les forces de gravitation par exemple. Ainsi les structures astronomiques ne peuvent pas être décrites par ces lois.

Or, ce que nous connaissons de la constitution physique et chimique des êtres vivants semble indiquer que les interactions au sein de la cellule (ou entre plusieurs cellules dans les organismes plus développés) sont des interactions usuelles à courte portée, analogues donc aux interactions faibles qu'il y a entre les particules des systèmes en équilibre thermodynamique que l'on étudie en physique. La nature des forces au sein de la cellule n'est pas incompatible avec les lois de la thermodynamique classique que nous avons définies. Ces dernières permettent-elles pour autant de rendre compte des structures biologiques? C'est ce que nous allons voir dans la suite de l'article.

Les structures dissipatives : ordre et fluctuations

Pour aborder le thème central de cet exposé, le problème de l'ordre biologique, il est nécessaire d'introduire une notion nouvelle : celle de structure "dissipative", dont "l'instabilité de Bénard" en hydrodynamique fournit un bon exemple.

Nous allons donc maintenant aborder le thème central de cet exposé, le problème de l'ordre biologique.

Il est bien remarquable qu'à la même époque où la thermodynamique était formulée, des théories de l'évolution biologique et sociologique furent également introduites. Mais contrairement à l'idée thermodynamique d'évolution, l'idée d'évolution en biologie et en sociologie est associée à une croissance de l'organisation, à la formation de structures et de fonctions de plus en plus complexes. Spencer est allé jusqu'à parler de "l'instabilité de l'homogène" et d'une force différentiante créatrice d'organisation. Or la multiplication de structures hautement ordonnées paraît incompatible avec le deuxième principe de la thermodynamique : celui-ci implique en effet, comme nous l'avons vu, que tout système macroscopique ne puisse évoluer qu'avec augmentation d'entropie, c'est-à-dire avec dégradation de l'ordre qui le caractérise.

Il est vrai que les biologistes insistent actuellement sur le fait que le théorème d'accroissement d'entropie s'applique au système complet, c'est-à-dire le système vivant plus son environnement. En d'autres termes, un système vivant ne peut être assimilé à un système isolé, pour lequel l'inégalité dS ³ 0 est valable, mais plutôt à un système ouvert, c'est-à-dire un système qui échange de l'énergie et de la matière avec le monde extérieur. Dès lors, l'accroissement d'entropie du système complet est parfaitement compatible avec la diminution d'entropie au sein du système vivant qui a dû avoir lieu lors de la formation des structures organisées. Mais cette manière de voir ne nous apprend rien sur l'évolution du système vivant lui-même, sur les mécanismes qui conduisent à une organisation moléculaire. Il ne nous suffit pas de savoir que l'évolution des systèmes vivants peut correspondre à une augmentation d'entropie de l'univers (pour autant que l'on puisse considérer celui-ci comme un système fermé) et être en accord donc avec le second principe de la thermodynamique. Nous devons chercher s'il existe une description thermodynamique des processus d'évolution du système vivant lui-même, ces processus étant attachés à des états qui sont hors d'équilibre thermodynamique.

Il convient d'abord d'analyser en détail la notion d'état thermodynamique de non-équilibre. Dans un système isolé, nous l'avons vu, le second principe implique que l'entropie croît jusqu'à atteindre son maximum. Le système tend, après un régime transitoire plus ou moins court, vers un état permanent univoque qui est l'équilibre thermodynamique.

Considérons maintenant, au lieu d'un système isolé, un système ouvert pouvant échanger à la fois énergie et matière avec le milieu extérieur. Dans ce cas, et pour autant que les réservoirs externes d'énergie et de matière soient suffisamment grands pour rester dans un état permanent, le système peut tendre vers un régime constant autre que celui d'équilibre. C'est un état stationnaire de non-équilibre. Alors qu'un système isolé à l'équilibre est associé à des structures "en équilibre" - un cristal par exemple - un système ouvert "hors d'équilibre" sera associé à ce que l'on appelle des structures dissipatives, structures que nous allons décrire. Le principe d'ordre de Boltzmann, qui donne une bonne description des états d'équilibre, n'est plus applicable dans ce cas. Les structures dissipatives sont associées à un principe d'ordre entièrement différent, que l'on pourrait appeler "ordre par fluctuation".

L'instabilité de Bénard

Avant d'esquisser la théorie thermodynamique des structures dissipatives, voyons un exemple particulièrement simple dans le domaine de l'hydrodynamique : c'est l'instabilité de Bénard(7).

Nous chauffons une couche liquide par en dessous. Par suite de l'application de cette contrainte, le système s'écarte de l'état d'équilibre correspondant au maintien d'une température uniforme dans la couche. Pour des petits gradients de température, la chaleur est transportée par conduction, mais à partir d'un gradient critique, nous avons en plus un transport par convection. Une photo des cellules de convection photographiées verticalement montrerait un arrangement régulier de ces cellules, qui ont une forme hexagonale.

Nous avons ici un phénomène typique de structuration correspondant à un niveau élevé de coopérativité du point de vue moléculaire. Avant l'instabilité de Bénard, l'énergie du système résidait entièrement dans son énergie d'agitation thermique. Au-delà, une partie est transférée dans des courants macroscopiques ordonnés comprenant un nombre très élevé de molécules. Le fait remarquable est que des structures de ce type sont créées et maintenues grâce aux échanges d'énergie avec le monde extérieur, dans des conditions de non-équilibre. C'est pour cette raison qu'elles s'appellent structures dissipatives.

Il est évident que le principe de Boltzmann ne s'applique guère ici. Il donnerait une probabilité pratiquement nulle au courant macroscopique. C'est seulement parce que nous avons une contrainte extérieure, qui est ici le gradient de température, et que le système est suffisamment loin de l'équilibre, qu'une structure coopérative nouvelle peut apparaître.

On montre que cette structure prend naissance par suite d'une instabilité du système près de l'équilibre thermodynamique. On pourrait se représenter la situation physique comme suit : des petits courants de convection apparaissent continuellement en tant que fluctuations, mais en dessous de la valeur critique du gradient, ces fluctuations régressent. Au contraire, au-delà de ce point critique, certaines fluctuations sont amplifiées et donnent naissance à un courant macroscopique. Un nouvel ordre apparaît, correspondant essentiellement à une fluctuation géante stabilisée par les échanges d'énergie avec le monde extérieur. C'est l'ordre par fluctuation.

Thermodynamique généralisée

Pour expliquer la naissance d'une structure dissipative, il faut prendre en compte les fluctuations susceptibles de l'engendrer dans une thermodynamique des phénomènes irréversibles. Cela est fait dans le cadre de la "thermodynamique généralisée" développée par l'auteur. Structures dissipatives spatiales ou temporelles apparaissent lorsque le milieu extérieur maintient un état de non-équilibre tel que l'amplification des fluctuations devient possible et conduit à des états macroscopiques plus organisés.

L'exemple de l'instabilité de Bénard nous montre que pour comprendre la naissance d'une structure de non-équilibre, il est nécessaire d'incorporer les fluctuations qui pourraient donner naissance à cette structure dans la thermodynamique des phénomènes irréversibles. Plus loin, nous allons étudier en détail le rapport entre structures dissipatives et les structures et fonctions responsables du maintien de l'ordre biologique. Mais nous pouvons dès à présent noter que la différenciation des structures et des fonctions qui caractérise l'ordre biologique suggère que le fonctionnement des êtres vivants s'effectue dans des conditions de non-équilibre.

Une thermodynamique "généralisée" a été développée au cours de ces dernières années par l'auteur et ses collègues de Bruxelles, tout particulièrement P. Glansdorff. Je vais exposer brièvement les bases de cette théorie en suivant une approche intuitive basée sur la théorie des fluctuations. Nous avons vu que l'entropie d'un système isolé est maximale à l'équilibre thermodynamique. Mais à cause de la structure moléculaire du système il faut s'attendre à des fluctuations. Un système macroscopiquement homogène ne l'est plus à l'échelle moléculaire. Ses fluctuations conduisent à un écart au niveau de l'entropie maximale.

Nous pouvons développer l'entropie de l'état fluctuant autour de sa valeur d'équilibre S0 : nous aurons, à des termes d'ordre supérieur près, S = S0 + dS + 1/2 d2S. Comme nous sommes au voisinage d'un maximum, nous aurons dS = 0 et d2S < 0. Pour que l'état de référence S0 soit stable, il faut également que l'entropie d'excès d2S croisse avec le temps : (d/dt) d2S > 0, sans quoi la fluctuation s'amplifierait et le système s'écarterait de son état de référence.

La thermodynamique généralisée que nous avons développée permet d'exprimer cette condition en termes de fluctuations des vitesses des phénomènes irréversibles et des forces généralisées. On trouve en effet (d/dt)d2S = S dJr dXr où les Jr sont les vitesses des phénomènes irréversibles telles que vitesse de réaction chimique, de diffusion, et les Xr les forces correspondantes, appelées affinités dans le cas des réactions chimiques.

Au voisinage de l'équilibre thermodynamique, on démontre aisément que l'inégalité (d/dt)d2S > 0 est toujours satisfaite. Le système est stable, le principe d'ordre de Boltzmann domine même si le système est temporairement perturbé par une fluctuation. Mais loin de l'équilibre thermodynamique, il n'en est plus nécessairement ainsi. En présence non-linéarités appropriées, l'inégalité (d/dt)d2S > 0 peut cesser d'être valable et le système pourra évoluer vers un nouveau régime, notamment un régime donnant lieu à des structures ordonnées.

Au cours des quatre dernières années, nous avons étudié en détail, dans notre groupe, le comportement de systèmes ouverts de réactions chimiques et des phénomènes de transport, et la possibilité d'obtenir des états de "non-équilibre" thermodynamique correspondant à des structures ordonnées. Dans ces cas-là, c'est la thermodynamique non linéaire (pour des états éloignés de l'équilibre, il n'y a plus de lois linéaires entre courants et forces se développant dans le système), qui régit les phénomènes observés.

Le choix de ce type de système a été motivé par le fait que le comportement d'un système vivant dépend en grande partie de certains types de réactions chimiques non linéaires (réactions comprenant des étapes catalysées par des enzymes, contrôle de l'activité de ceux-ci par des processus d'activation ou d'inhibition, etc.), et de phénomènes de transport (passage d'ions à travers les membranes, diffusion des ARN de transfert au voisinage de ribosomes, etc.). On a pu montrer, d'abord sur des modèles chimiques comprenant des étapes non linéaires, qu'on peut en effet avoir des possibilités de non-équilibre.

Alors qu'à l'équilibre thermodynamique et pour de faibles écarts (approximation linéaire) on observe une homogénéité spatiale et temporelle, on peut prévoir pour de tels systèmes et pour de plus grands écarts à l'équilibre un seuil d'instabilité (dépendant de la valeur des paramètres cinétiques et des constantes de diffusion) au-delà duquel le système peut présenter un comportement périodique dans le temps, une rupture spontanée de l'homogénéité spatiale, ou des phénomènes encore plus complexes.

Remarquons que ce comportement loin de l'équilibre n'est pas universel. L'apparition de comportements cohérents de cette sorte exige des conditions particulières alors qu'au voisinage de l'équilibre le principe de Boltzmann est toujours valable (pour les forces auxquelles la thermodynamique s'applique).

L'existence des structures dissipatives

L'apparition des structures dissipatives dans les systèmes non linéaires et à distance suffisante de l'équilibre n'a pas seulement été établie par les expériences avec des calculatrices sur des systèmes modèles. Récemment, il y a eu plusieurs expériences de laboratoire qui démontrent l'existence de telles structures. Avant d'aborder les aspects biologiques, il est intéressant de présenter un exemple venant de la chimie non biologique.

Un cas particulièrement bien connu est la réaction de Zhabotinsky(8) correspondant à l'oxydation de l'acide malonique par le bromate de potassium en présence d'ions cérium. Pour certaines valeurs de concentration, on observe d'abord des oscillations, des battements, puis il se dégage une structure spatiale qui se maintient pendant plusieurs heures.

Comme l'expérience est faite en système fermé, celui-ci évolue obligatoirement vers l'équilibre thermodynamique, caractérisé en particulier par l'homogénéité. à un moment, le système évolue brutalement, et tout le phénomène de structuration disparaît en quelques secondes. Nous avons donc ici un excellent exemple de comportement cohérent rendu possible par un écart suffisant à l'équilibre thermodynamique.

Structures dissipatives en biologie

Quel est le rôle des structures dissipatives dans le fonctionnement actuel des êtres vivants et dans les stades prébiologiques ? Pour le premier point, on montre que des réactions métaboliques, ou les ondes cérébrales, par exemple, peuvent être analysées en termes de structures dissipatives temporelles. En ce qui concerne les stades prébiologiques, les travaux d'Eigen peuvent apporter une contribution fondamentale. Celui-ci a montré en effet que, pour un système formé de protéines et de polynucléotides, les Interactions permettraient au système d'atteindre un état final caractérisé par un code génétique et une stabilité remarquable.

On peut maintenant voir comment rattacher l'ordre biologique aux structures dissipatives. En effet, un système biologique qui métabolise et qui se reproduit doit échanger énergie et matière avec son environnement, il fonctionne donc comme un système ouvert. D'autre part, comme nous l'avons déjà souligné, le maintien de la vie et la croissance dépendent d'un très grand nombre de réactions chimiques et des phénomènes de transport dont le contrôle implique des éléments hautement non linéaires (activation, inhibition, auto-catalyse directe, etc...). Enfin, l'apport d'énergie ou de matière se fait généralement dans des conditions de non-équilibre, puisque les produits de réaction sont soit rejetés par le système vivant, soit envoyés à d'autres sites de la cellule pour remplir d'autres fonctions. En somme, le fonctionnement des systèmes biologiques semble remplir les conditions nécessaires pour l'apparition des structures dissipatives. L'intérêt de ce point de vue vient notamment de ce qu'il peut être testé expérimentalement. Il est utile de distinguer deux types de problèmes :

- Est-ce que des structures dissipatives jouent un rôle dans le fonctionnement actuel des êtres vivants ? Cette question concerne donc le rôle des structures dissipatives dans le maintien de la vie.

- Est-ce que les structures dissipatives ont participé de manière essentielle dans les stades pré-biologiques ? C'est le problème de l'origine de la vie.

Dans les deux cas, nous commençons à avoir quelques indications encore modestes. Résumons certaines d'entre elles.

Métabolisme et structure dissipative.

Quelques réactions enzymatiques importantes ont été étudiées en détail du point de vue de leur cinétique, en particulier la réaction de la glycolyse. Les données expérimentales existant actuellement indiquent que les concentrations des constituants chimiques participant à ces réactions présentent des oscillations entretenues (voir aussi l'article de Th. Vanden Driessche, La Recherche, n° 10, mars 1971). D'autre part, on connaît suffisamment le mécanisme réactionnel et les propriétés des enzymes de ce système pour pouvoir élaborer des modèles mathématiques décrivant la glycolyse. L'étude détaillée de ces modèles indique que ces oscillations peuvent être interprétées comme des cycles limites stables dans le temps (oscillations de période et amplitude constantes) prenant naissance au-delà de l'instabilité d'un état stationnaire de non-équilibre. En d'autres termes, la glycolyse est une structure dissipative temporelle. Comme il s'agit de réactions essentielles pour l'énergétique des cellules vivantes, c'est un résultat important.

On dispose à l'heure actuelle de plusieurs autres exemples d'oscillations entretenues, tant pour les réactions métaboliques que pour la synthèse des protéines au niveau cellulaire. Nous n'entrons pas dans les détails, étant donné que les mécanismes réactionnels sont beaucoup moins bien connus que pour la glycolyse.

Systèmes nerveux et structures dissipatives.

Des résultats intéressants ont été obtenus sur deux plans différents : le niveau élémentaire concernant le phénomène fondamental de l'excitabilité des membranes et le niveau supracellulaire concernant le phénomène d'activité rythmique.

Une membrane excitable, telle une membrane d'une cellule nerveuse, peut exister en deux états permanents au moins : un état polarisé (provenant du maintien de charges ioniques différentes des deux côtés) et un état dépolarisé qui résulte du premier par suite d'un changement de perméabilité. Blumenthal, Changeux et Lefever ont montré récemment (9) que cet état de dépolarisation, qui se présente comme un phénomène discontinu dans le temps, est obtenu par suite d'une instabilité de l'état polarisé, qui est un état "hors d'équilibre". Dans l'état "polarisé", la différence de concentration ionique des deux côtés de la membrane joue le rôle de la contrainte maintenant le système loin de l'équilibre : une instabilité peut se produire, qui donne naissance à un état de dépolarisation cyclique.

Du point de vue du comportement global il est acquis depuis longtemps que le système nerveux central est siège de phénomènes rythmiques entretenus ayant des fréquences caractéristiques reproductibles. Boyarsky (10) a fait une étude suggestive de cette activité rythmique. Plus récemment Cowan et Wilson (11) ont déduit des équations différentielles non linéaires décrivant la dynamique et les couplages entre des populations localisées de neurones contenant à la fois des cellules excitatrices et inhibitrices. Ils montrent que ce système peut présenter des comportements rythmiques dont la fréquence fondamentale dépend du stimulus appliqué. Ces conclusions, ainsi que le résultat théorique qu'un comportement périodique dans le temps apparaît nécessairement au-delà d'une instabilité de non-équilibre, impliqueraient donc que les ondes cérébrales peuvent être analysées en terme de structures dissipatives temporelles. Citons enfin le travail de Moore (12) qui met en évidence l'influence des processus métaboliques de non-équilibre sur la modulation de l'activité rythmique d'un ensemble de neurones.

Croissance et développement ; structures dissipatives.

Un des problèmes les plus passionnants de la biologie moderne est l'analyse des mécanismes du développement : la complexité du phénomène pour un organisme relativement avancé paraît énorme. Quels mécanismes commandent si précisément le début et la fin de la croissance ? Comment l'organisme coordonne-t-il dans l'espace et dans le temps et jusque dans leurs moindres détails les différentes étapes de son développement ? Comment comprendre la différenciation en cellules, tissus et organes ayant des formes et des fonctions bien précises mais distinctes (morphogenèse) ? Le problème revient, en grande partie, à comprendre les mécanismes de communication et d'association entre cellules. En effet, en l'absence de liaisons intercellulaires, les organismes supérieurs se décomposeraient en cellules individuelles et ne pourraient plus se distinguer des formes de vie unicellulaire. Et en l'absence de spécificité et de sélectivité de ces liaisons, il n'y aurait pas de tissus et organes spécialisés, mais simplement une masse amorphe de cellules.

Comprendre la façon dont quelques millions ou milliards de cellules communiquent pour donner lieu à une structure telle, par exemple, que le système nerveux central d'un mammifère semble impossible à l'heure actuelle. Heureusement, il se fait que certains organismes unicellulaires atteignent, pendant leur vie, un niveau d'organisation où des cellules individuelles forment des colonies dans lesquelles on observe une différenciation primitive entre cellules. Un tel niveau d'organisation est observé dans une famille d'amibes, les acrasiales. Ainsi pendant leur cycle de vie, ces amibes peuvent s'agréger spontanément et former un corps multicellulaire. Il est actuellement bien établi que ce processus est médié par une substance chimique, l'acrasine, qui est en fait un AMP cyclique, et qui est sécrétée par les cellules.

Récemment, Keller et Segel (13) ont montré que l'initiation de cette agrégation peut être interprétée comme une instabilité de la distribution uniforme (correspondant donc à l'absence d'une agrégation) de cellules individuelles. Pour établir ce résultat, ils postulent que la production d'acrasine par les cellules est un processus comportant des étapes pratiquement irréversibles, c'est-à-dire loin de l'équilibre thermodynamique. En d'autres termes, les premières étapes, du moins, de l'agrégation pourraient s'interpréter comme une structure dissipative spatiale.

Il est tentant d'extrapoler ces considérations et d'espérer que les phénomènes observés chez les acrasiales puissent fournir des indications concernant le développement des organismes supérieurs. S'il en était ainsi, l'interprétation en termes de structures dissipatives fournirait un principe unificateur dans ces processus extrêmement variés et complexes.

En conclusion, il semble donc établi que des processus biologiques importants impliquent des instabilités qui ne sont possibles que loin de l'état d'équilibre thermodynamique.

Passons au problème des stades pré-biotiques. Le rôle possible des structures dissipatives dans la synthèse abiotique des polypeptides par condensation sur des surfaces catalytiques a été souligné par Katchalsky et al.(14). Mais le problème le plus fondamental est certainement celui étudié par Eigen(15) concernant l'évolution de populations de molécules d'intérêt biologique et la formation spontanée d'un "code génétique" par une succession d'instabilités.

Il faut en réalité distinguer au moins deux types de problèmes :

- La formation de polymères d'intérêt biologique remplissent des fonctions que les monomères ne peuvent certainement pas jouer. Un exemple bien connu est la synthèse de polymères pouvant jouer le rôle de "template" pour leur propre réplication ou pour la synthèse d'autres macromolécules.

- En supposant que des populations de molécules d'intérêt biologique pouvant se répliquer sont déjà présentes, quelle sera l'évolution ultérieure d'un tel, système ?

Le premier problème est peut-être plus simple. On peut montrer, au moins sur des modèles (Goldbeter, Nicolis, Babloyantz(16)), que la synthèse par réplication, par exemple celle des acides nucléiques sur template, ne devient dominante par rapport au mécanisme ordinaire de polymérisation linéaire qu'à partir d'une distance critique de l'équilibre et correspond dès lors à une première instabilité. Le problème étudié par Eigen correspond au second point. La complexité de ce problème est considérable : les phénomènes de réplication conduisant à des erreurs correspondent en somme à un type nouveau de fluctuations au sens thermodynamique. Ces fluctuations peuvent être soit amorties, soit amplifiées. L'évolution correspond à une série de "catastrophes" d'instabilités, c'est-à-dire à une amplification des fluctuations jusqu'à l'apparition éventuelle d'un état dominé par certains types de macromolécules et pourvu d'une stabilité suffisante par rapport aux fluctuations qu'il engendre lui-même. Le travail d'Eigen montre que dans un système formé uniquement par des protéines (sans polynucléotides) la succession d'instabilités se prolonge indéfiniment. Par contre, les interactions entre polynucléotides et protéines permettraient au système d'atteindre un état final caractérisé par un code génétique et correspondraient à une stabilité remarquable par rapport aux "erreurs" de la cinétique, surtout des processus de réplication sur template.

Si la théorie d'Eigen se confirme, il s'agirait là certes d'un domaine de recherche fondamental, car pour la première fois un état hautement organisé, correspondant à un code génétique, émergerait de manière concrète à partir des lois physiques.

Il est possible que le problème de l'origine de fonctions les plus "nobles" de notre cerveau, tel par exemple le langage (voir l'article d'Irène Lézine, la Recherche, n°15, septembre 1971), puisse être formulé dans la même ligne que la théorie d'Eigen. Ce résultat constituerait une synthèse inattendue entre le point de vue statique structuraliste qui est d'habitude celui de la biologie moléculaire et le point de vue historique, qui est celui de la thermodynamique. Principe d'ordre de Boltzmann, structures dissipatives, code sont les maillons d'une chaîne qui conduit de l'équilibre thermodynamique à l'ordre biologique.

Le hasard et la nécessité coopèrent au lieu de s'opposer.

Résumons nos conclusions. Loin d'échapper aux lois de la physique, ou d'apparaître comme l'oeuvre de quelques démons de Maxwell luttant contre le second principe, la vie apparaît comme suivant les lois de la physique avec une plasticité particulière due à sa composition chimique et aux lois cinétiques qui en résultent. N'empêche que pour situer les structures biologiques, il semble essentiel de s'écarter du principe d'ordre de Boltzmann et de tenir compte de ce que les phénomènes biologiques caractéristiques se déroulent loin d'un état d'équilibre thermodynamique. Il y aurait donc un véritable seuil entre vie et non-vie, mais il faut se garder d'idées trop simples. Ce n'est pas l'instabilité mais une succession d'instabilités qui ont permis de franchir le no man's land entre vie et non-vie. Nous commençons seulement à dégager certaines étapes.

Cette conception de l'ordre biologique conduit automatiquement à une appréciation plus nuancée de ce qui peut être le rôle du hasard et de la nécessité, pour reprendre le titre de l'ouvrage bien connu de Jacques Monod. La fluctuation qui permet au système de quitter les états proches de l'équilibre thermodynamique représente l'élément aléatoire, la part du hasard. Par contre, l'instabilité du milieu, le fait que cette fluctuation va croître, représentent une nécessité. Hasard et nécessité coopèrent au lieu de s'opposer.

Pour reprendre un exemple donné par Monod, "considérons le caillou que je tiens à la main". Dans ce qu'elle a d'essentiel la structure de ce caillou peut être déduite des principes de la thermodynamique et de la mécanique des milieux continus, c'est-à-dire du principe d'ordre de Boltzmann. Il est vrai que ce principe ne permet pas de calculer la position exacte à un instant donné des atomes qui le constituent, mais quel intérêt aurait un tel calcul ?

Je crois que la situation de la biosphère est analogue. L'introduction des structures dissipatives, la succession d'instabilités qu'elle implique nous permet d'espérer que dans ce qu'elle a d'essentiel la vie est déductible des "premiers principes".

Bien sûr, sur d'autres planètes les formes que la vie prendra pourront différer puisque les structures dissipatives conservent le souvenir des fluctuations qui leur donnent naissance. Mais il ne semble pas déraisonnable de penser que le phénomène vie est aussi prévisible que l'état cristallin ou l'état liquide.

Iliya Prigogine

Description : C:\Documents and Settings\Propriétaire\Mes documents\Mes sites Web\EPU\_themes\zero\zerrulea.gif

Ouvrages généraux de thermodynamique

I. Prigogine, Introduction to thermodynamics of Irreversible Processes , 3' éd., John Wiley, 1967.

Boltzmann, Vorlesungen uber Gas Theorie , I, II, zweiter unv. Abd. Leipzig, 1912.

L.D. Landau et E.M. Lifschitz, Statistical Physics , Pargamon Press, New York et Londres, 1959.

P. Glansdorff et I. Prigogine, Structure, stabilité et fluctuations , Masson, 1971.

F. Jacob, la Logique de la vie , Gallimard, Paris, 1970.

J. Monod, le Hasard et la nécessité , Seuil, 1970.

E. Schrödinger, Qu'est-ce que la vie ? , Club français du livre, Paris, 1949.

J.T. Bonner, The cellular slime molds , 2' éd., Princeton Univ. Press, New Jersey, 1967.

L. von Bertalanffy, les Problèmes de la vie , Gailimard, 1969.

A. Lwoff, L'Ordre biologique , Laffont, 1969.