Une étude estime les coûts énergétiques du traitement de l’information dans les systèmes biologiques

Le comportement, la physiologie et l’existence des organismes vivants sont soutenus par d’innombrables processus biologiques, qui impliquent la communication entre les cellules et d’autres composants moléculaires. Ces composants moléculaires sont connus pour se transmettre des informations de diverses manières, par exemple via des processus connus sous le nom de diffusion et de dépolarisation électrique ou par échange d’ondes mécaniques.

Des chercheurs de l’Université de Yale ont récemment mené une étude visant à calculer le coût énergétique de ce transfert d’informations entre cellules et composants moléculaires. Leur article, publié dans Lettres d’examen physiqueprésente un nouvel outil qui pourrait être utilisé pour étudier les réseaux cellulaires et mieux comprendre leur fonction.

« Nous réfléchissons à ce projet depuis un moment déjà, sous une forme ou une autre », a déclaré à Phys.org Benjamin B. Machta, l’un des chercheurs qui ont mené l’étude.

« J’ai d’abord discuté des idées qui ont finalement donné naissance à ce projet avec mon directeur de doctorat Jim Sethna il y a environ dix ans, mais pour diverses raisons, ce travail n’a jamais vraiment décollé. Sam et moi avons commencé à en parler en réfléchissant à la manière de comprendre le les coûts énergétiques que la biologie doit dépenser pour calculer – un thème dans une grande partie de son travail de doctorat – et peut-être plus largement pour garantir que ses parties sont cohérentes et contrôlées, et il a compris comment faire ces calculs.

Les travaux récents de Machta et de son collègue Samuel J. Bryant s’inspirent d’articles antérieurs publiés à la fin des années 90, en particulier des efforts de Simon Laughlin et de ses collaborateurs. À l’époque, ce groupe de recherche avait tenté de déterminer expérimentalement la quantité d’énergie dépensée par les neurones pour envoyer des informations.

« Laughlin et ses collègues ont découvert que cette dépense énergétique variait entre 104 et 107 KBT/bit en fonction des détails, ce qui est bien supérieur à la limite « fondamentale » de ~ KBT/bit, parfois appelée la limite de Landauer qui doit être payée pour effacer un peu d’informations », a expliqué Machta.

« D’une certaine manière, nous voulions comprendre : était-ce un exemple de gaspillage de la biologie ? Ou peut-être qu’il y avait d’autres coûts qui devaient être payés ; en particulier, la limite de Landauer ne fait aucune référence à la géométrie ou aux détails physiques. L’application de la limite de Landauer est en soi subtil, car il n’est payé que pour l’effacement des informations qu’il est possible de calculer de manière réversible, de ne jamais rien effacer et de ne payer AUCUN coût de calcul – mais ce n’est pas l’objectif ici.

Un autre objectif de l’étude récente de Machta et Bryant était de déterminer si l’optimisation de ces coûts énergétiques pouvait faire la lumière sur les raisons pour lesquelles les systèmes moléculaires communiquent entre eux en utilisant des mécanismes physiques distincts dans différentes situations. Par exemple, alors que les neurones communiquent généralement entre eux via des signaux électriques, d’autres types de signaux peuvent communiquer via la diffusion de produits chimiques.

« Nous voulions comprendre dans quel régime chacun de ces éléments (et d’autres) serait le meilleur en termes de coût énergétique par bit », a déclaré Machta. « Dans tous nos calculs, nous considérons les informations envoyées via un canal physique, depuis un émetteur physique d’informations (comme un canal ionique « émetteur » qui s’ouvre et se ferme pour envoyer un signal) jusqu’à un récepteur (un détecteur de tension dans la membrane). qui pourrait également être un canal ionique). Le cœur du calcul est un calcul classique du débit d’information via un canal gaussien, mais avec quelques nouveautés.

Premièrement, dans leurs estimations, Machta et ses collègues considèrent toujours un canal physique dans lequel des courants de particules physiques et des charges électriques sont transportés conformément à la physique d’une cellule. Deuxièmement, l’équipe a toujours supposé qu’un canal était corrompu par le bruit thermique présent dans l’environnement cellulaire.

« Nous pouvons calculer le spectre de ce bruit avec le ‘théorème de dissipation des fluctuations’ qui relie le spectre des fluctuations thermiques aux fonctions de réponse proches de l’équilibre », a expliqué Machta.

Une autre caractéristique unique des estimations de l’équipe est qu’elles ont été réalisées à l’aide de modèles relativement simples. Cela leur a permis, aux chercheurs, de toujours fixer des limites inférieures prudentes à l’énergie requise pour alimenter un canal et piloter les courants physiques dans un système biologique.

« Comme le signal doit surmonter le bruit thermique, nous trouvons généralement des coûts avec un préfacteur géométrique multipliant « KBT/bit » », a déclaré Machta.

« Ce facteur géométrique peut avoir la taille de l’émetteur et du récepteur ; un grand émetteur diminue généralement les coûts par bit en permettant à un courant dissipatif de se propager sur une plus grande surface. De plus, un récepteur plus grand permet une plus grande moyenne des fluctuations thermiques, de sorte qu’un un signal global plus faible peut toujours transporter les mêmes informations.

« Ainsi, par exemple, pour la signalisation électrique, nous obtenons une forme de coût par bit qui évolue comme r2/σI σO kBT/bit, où r est la distance entre l’émetteur et le récepteur et σI,σO sont la taille de l’émetteur et récepteur. Surtout, pour les canaux ioniques qui mesurent quelques nanomètres de diamètre, mais qui envoient des informations sur des microns, ce coût pourrait facilement être de plusieurs ordres de grandeur supérieur au kT/bit que des arguments plus simples (ou plus fondamentaux) suggèrent comme limite inférieure.

Dans l’ensemble, les calculs effectués par Machta et ses collègues confirment le coût énergétique élevé associé au transfert d’informations entre cellules. A terme, leurs estimations pourraient être un début d’explication du coût élevé du traitement de l’information mesuré dans les études expérimentales.

« Notre explication est moins » fondamentale « que celle de Landauer, dans la mesure où elle dépend de la géométrie des neurones et des canaux ioniques, ainsi que d’autres détails », a déclaré Machta. « Cependant, si la biologie est soumise à ces détails, alors il se peut que (par exemple) les neurones soient efficaces et confrontés à de réelles limitations d’information/énergie, et pas simplement inefficaces. Ces calculs ne sont certainement pas suffisants pour affirmer qu’un système particulier est efficace, mais ils suggèrent que l’envoi d’informations à travers l’espace peut nécessiter des coûts énergétiques très élevés.

À l’avenir, ces travaux récents de Machta et de ses collègues pourraient éclairer de nouvelles études biologiques intéressantes. Dans leur article, les chercheurs ont également introduit un « diagramme de phases », représentant des situations dans lesquelles l’utilisation sélective de stratégies de communication spécifiques (par exemple, signalisation électrique, diffusion chimique, etc.) est optimale.

Ce diagramme pourrait bientôt aider à mieux comprendre les principes de conception des différentes stratégies de signalisation cellulaire. Par exemple, cela pourrait expliquer pourquoi les neurones utilisent la diffusion chimique pour communiquer au niveau des synapses, mais ils utilisent des signaux électriques pour envoyer des informations sur des centaines de microns depuis les dendrites vers le corps cellulaire ; ainsi que pourquoi les bactéries E. coli utilisent la diffusion pour envoyer des informations sur leur environnement chimique.

« Une chose sur laquelle nous travaillons actuellement est d’essayer d’appliquer ce cadre à la compréhension de l’énergétique d’un système concret de transduction de signal », a ajouté Machta.

« Nos travaux récents ont simplement examiné le coût abstrait de l’envoi d’informations entre deux composants uniques : dans les systèmes réels, il existe généralement des réseaux de traitement de l’information, et l’application de notre limite nécessite de comprendre le flux d’informations dans ces réseaux. Cet objectif s’accompagne également de nouveaux problèmes techniques : appliquer nos calculs à des géométries spécifiques (comme un neurone « sphérique » ou un axone qui ressemble à un tube, chacun étant très différent de la plaine infinie que nous avons utilisée ici). »

Plus d’information:
Samuel J. Bryant et al, Contraintes physiques dans la signalisation intracellulaire : le coût de l’envoi d’un bit, Lettres d’examen physique (2023). DOI : 10.1103/PhysRevLett.131.068401

© 2023 Réseau Science X

ph-tech