Accueil Prévention Pratique Génétique Synthèse


Plan du site
Statuts
Contacts
Liens
Archives
Bibliographie
Recherche

 

Programme des réunions.

Téléchargement du programme 2016

Téléchargement du programme 2017

Dernière mise à jour:
19/06/2016

Maladies cardiovasculaires chez les femmes : un risque spécifique et sous-estimé

Nouvel outils :

Liens intéressants concernant les fructanes et les amidons résistants

 

Mises à jour :

Teneur en fructanes des aliments

Nouveaux documents

La modulation de la transmission cellulaire

Documents modifiés


 

 

___


Biologie clinique appliquée à la prévision personnalisée
 

"La prédiction des maladies ignore l'imprévisibilité de l'individu,
la prévision des états de Santé repose sur une compréhension de sa prévisibilité.

L'état d'une maladie n'est pas représentatif de l'état de santé qui l'a précédé :
comprendre l'interface déformante qui les sépare,
challenge de la médecine préventive du 21e siècle.
"

 

La prévention aujourd’hui

 

Il existe trois stratégies.

La prévention primaire pour empêcher la survenue d’une maladie.

La prévention secondaire pour empêcher les complications d’une maladie installée, malgré les connaissances très incomplètes sur ses mécanismes.

Le dépistage qui est un diagnostic le plus précoce possible, qui présuppose qu’un traitement sera alors plus efficace et qu’en outre ce sera rentable à la fois économiquement et en terme de santé de la population.

Ce dépistage se heurte au fait que de nombreuses maladies (et en fait probablement toutes) se développent à bas bruit durant des périodes qui oscillent entre 3 à 15 ans voire plus.

La prévention primaire est actuellement collective et se pratique en 2 étapes :
bulletune étape statistique avec son premier stade épidémiologique pour établir la corrélation entre un facteur de risque et une maladie suivie d’un deuxième stade pour établir en plus le lien de cause à effet (les études dites d’intervention en sont la meilleure preuve)
bulletune étape d’application collective aux groupes à risque du traitement préventif.

Cette stratégie collective déplace la courbe de risque du groupe vers un risque statistique moyen plus faible.

Mais elle ne tient pas compte d’une difficulté incontournable.

Les facteurs de risque sont des paramètres physiologiques qui ont une signification en terme de santé en raison de leur écart par rapport à leur valeur optimale. Malheureusement aucun d’entre eux n’a de corrélation supérieure à 70% avec une maladie. Ce fait implique alors que l’application aveugle à un individu d’une connaissance collective amène à se tromper environ 3 fois sur 10, ce qui est énorme en terme économique et en iatrogénie potentielle !

Il faut donc une méthode pour appliquer les connaissances épidémiologiques de manière personnalisée, c’est à dire cibler les 70% d’individus concernés.

Cette méthode consiste à se donner les moyens de faire une prévision d’état de Santé et nécessite donc au préalable d’avoir une conception opérationnelle de cette Santé.

La Santé est l’état physiologique global et personnalisé d’un individu, il faut donc se donner un modèle conceptuel global et opérationnel de cette physiologie.

La logique de cette approche amène alors à ramener la prévention à deux stratégies :
bulletla médecine environnementale dont fait partie par exemple un modèle nutritionnel
bulletla prévention personnalisée qui consiste à intriquer 2 modalités : la régulation physiologique individuelle et la prévention collective personnalisée des maladies.

 

 

Une révolution biomédicale à l’horizon du 21° siècle

 

L’apparence finale des systèmes vivants est singulière : complexité, auto-reproduction, biochimie, mobilité, pensée……

Mais, définies de manière précise pour les étudier, ces propriétés deviennent quantitatives et ne sont plus alors caractéristiques !

Reste que l’état initial du Vivant est un état de la matière dense à la frontière entre l’état liquide et solide avec des «impuretés gazeuses» (NO, CO, CO2, O2). Il fait partie de ces états de la matière molle très étudiés pour l’industrie (prix Nobel à Pierre Gilles de Gennes).
La révolution thermodynamique du 19° siècle (mécanique statistique de Boltzmann et Gibbs) puis quantique du début du 20° (article initial de 1905 d’Einstein sur les quanta de lumière) ont été initiées par une approche probabiliste des fluctuations à l’échelle microscopique puis par la définition de lois de changement d’état :
bulletnotion d’état critique et de transition de phase en thermodynamique
bulletétats quantiques et les équations qui les gouvernent (équation de Schrödinger, lois d’incertitude d’Heisenberg)

La Relativité quant à elle, est aussi une théorie de l’espace-temps mais sur un mode géométrique et à l’échelle macroscopique.

 

Ces progrès sont donc issus d’un approfondissement de la notion et de la description des niveaux d’organisation et surtout d’une nouvelle approche globale et non finaliste des modalités de passage entre ces niveaux.

 

Or, le monde vivant s’est construit par rupture d’homogénéité, d’où son absence d’échelle caractéristique et sa propriété en miroir, ses multiples niveaux d’organisation ! Macromolécules, systèmes enzymatiques, membranes, organites cellulaires, cellules, tissus, organes, organismes…...

Les êtres vivants ne se différencient donc que quantitativement…….mais d’une manière exceptionnelle………….des autres états de la matière.

Cette constatation doit permettre d’appliquer et d’adapter les méthodes à l’origine des révolutions dans les domaines sus cités pour décrire scientifiquement leurs lois de fonctionnement et d’évolution.

 

Cette révolution est déjà en marche: depuis une trentaine d’années s’est développée «la physique d’échelle ou scaling physic» par la combinaison de 4 domaines que sont :
bulletles concepts issus de l’étude des phénomènes critiques (transition de phase de 2° ordre) en thermodynamique,
bulletles concepts de la géométrie fractale (Benoît Mandelbrot 1977, 1982 et l’étude des structures auto-similaires), première géométrie des systèmes sans échelle caractéristique,
bulletla modélisation informatique.
bulletles méthodes mathématiques dites de renormalisation issues de la mécanique quantique.

Très complexe dans ses applications mathématiques, l’origine hydrodynamique de ce concept mérite qu’on s’y attarde.

La masse renormalisée (mR) d’un corps en mouvement dans un fluide correspond à sa masse apparente à savoir sa masse réelle (m) modifiée (et donc augmentée) qu’on introduit dans l’équation de son énergie cinétique afin que l’équation habituelle de cette énergie (1/2mRv²) s’applique mais en y intégrant l’énergie cinétique du fluide déplacé par frottement :
1/2mRv² = 1/2mv² + énergie cinétique du fluide déplacé.

Plus généralement, une grandeur renormalisée est sa valeur apparente obtenue en ajoutant à sa valeur intrinsèque des contributions résultant d’interactions, d’influences extérieures, ou de degrés de libertés non explicités dans la description : c’est la voie vers un modèle simplifié et analogue du système étudié.

 

La physique d’échelle est une approche opérationnelle des systèmes à grand nombre d’unités élémentaires (degrés de liberté) qui permet de dégager des lois d’échelle invariantes avec le changement d’échelle, de passer d’un modèle à un autre et surtout de définir des classes universelles de modèles repérables par leurs propriétés.

Les propriétés macroscopiques de ces systèmes répondent à une description classique, purement déterministe et mécaniste, si ces unités sont peu corrélées et si leur fluctuation est limitée.

Les lois d’échelle et l’apparition concomitante d’indéterminisme sous forme d'imprévisibilité (chaos déterministe) vont apparaître :
bulletsi une de ces 2 conditions n’est pas vérifiée
bulletsi la nature des constituants élémentaires et la régularité de leur organisation laisse présager des propriétés d’auto similarité.

 

Les phénomènes critiques correspondant aux transitions de phase de 2° ordre de la matière remplissent ces conditions :
bulletdivergence de la portée des corrélations entre les molécules
bulletfluctuations de toute taille
bulletabsence d’échelle caractéristique

Compte tenu de leur réponse spatiale « anormale » à une perturbation minime, cela les rapproche des systèmes dynamiques chaotiques et leur sensibilité aux conditions initiales. Ces systèmes adaptatifs et évolutifs sont donc des analogues temporels des phénomènes critiques.

L’étude de cette dynamique chaotique aboutit à une approche analogue à l’approche d’échelle: abandon de la notion de trajectoire, description probabiliste guidée par des invariants et des propriétés globales du flot de ces trajectoires.

 

La conclusion essentielle de cette approche…..à consonance très biologique :

la compréhension d’une structure sans échelle caractéristique, c’est à dire avec un grand nombre d’échelles spatiales et temporelles, exige une approche globale, dynamique et multi-échelles de l’ensemble du phénomène qui l’engendre. Il faut alors centrer l’étude sur les échanges entre les divers niveaux d’organisation. Ce sont les compromis entre les contraintes extérieures, les lois internes et les interactions entre les différentes parties du système qui doivent être décrits sous la forme d’un modèle , nécessairement global, d’organisation et de fonctionnement de cette structure.

 

" Le chiffre un est souvent un étouffement de l'esprit. Le chiffre deux, parfois une malédiction.
A trois, la liberté commence à respirer."

Régis Debray " Un mythe contemporain: le dialogue des civilisations "
Editions CNRS 2007.
 

 

Accueil Prévention Pratique Génétique Synthèse