Un peu de tout et de tout un peu

Un peu de tout et de tout un peu

Un peu de sérieux


Petit lexique pour lecture critique 

 

 

Lire un article de façon critique,  interpréter les résultats d’une étude publiée dans la littérature,  comprendre l’utilité d’un test diagnostique nécessitent d’en connaître le jargon statistique et épidémiologique. (article que j'ai publié dans la Revue de la médecine générale n°262 avril 2009)

 

 

Evaluation de la valeur diagnostique d’un test

 

Le mot test dans cette rubrique peut signifier autant un symptôme ou un examen clinique qu’un examen complémentaire.

 

Reproductibilité d’un test 

Permet d’évaluer les résultats donnés par un test. On parle de reproductibilité intraobservateur lorsque le test est répété dans le temps chez les mêmes sujets par le même observateur  et de reproductibilité interobservateur lorsque plusieurs observateurs utilisent le test chez les mêmes sujets.

 

Résultats test

Maladie présente

Maladie absente

Total

>0

 

<0

total

a

 

c

a+c

b

 

d

b+d

a+b

 

c+d

a+b+c+d

 

 

 

 

 

Vrai positif

Le test est positif et la maladie est présente (a)

 

Vrai négatif

Le test est négatif et la maladie est absente (d)

 

Faux positif

Le test est positif et la maladie est absente (b)

 

Faux négatif

Le test est négatif et la maladie est présente (c)

 

Sensibilité d’un test 

Probabilité d’avoir un test positif quand on est malade : % de tests positifs dans une population malade. a/a+c

 

Spécificité d’un test

Probabilité d’avoir un test négatif quand on n’est pas malade : % de tests négatifs dans une population non malade. d/b+d

 

La sensibilité et la spécificité dépendent uniquement des qualités du test et de l’opérateur.

 

Un test avec un taux élevé de faux positifs est très sensible mais peut être peu spécifique.

Un test avec un taux élevé de faux négatifs est très spécifique mais peut être peu sensible.

 

Pour les tests diagnostiques, on privilégiera la spécificité pour limiter les faux positifs.

Pour un dépistage, on veut limiter les faux négatifs pour détecter un plus grand nombre de malades et on privilégiera la sensibilité du test. Dans le cas du dépistage du SIDA où il est important de ne rater aucun diagnostic on privilégie la sensibilité dans le premier test de dépistage

 

Valeur prédictive positive (VPP)

Probabilité d’avoir la maladie quand le test est positif : a/a+b

 

Valeur prédictive négative (VPN)

Probabilité de ne pas avoir la maladie quand le test est négatif : d/b+d

Les valeurs prédictives dépendent du contexte clinique (probabilité prétest) et des caractéristiques (sensibilité et spécificité) du test.

Plus le test est sensible, plus la valeur prédictive négative est meilleure et plus augmente l’assurance du médecin que le patient avec un test normal n’a pas la maladie.

Plus le test est spécifique, plus la valeur prédictive positive est meilleure et plus augmente la

certitude que le patient avec un test anormal est malade.

 

PROBABILITÉ PRÉTEST

Probabilité d’existence de la maladie d’après le contexte clinique avant la réalisation du test.

Un test négatif diminue la probabilité, un test positif l’augmente.

Un résultat de valeur prédictive dans une population donnée n’est pas applicable à une autre population

où la probabilité pré-test serait différente.

Un exemple est celui du diagnostic d’entorses de la cheville dont la probabilité pré-test est de 1 à

4% en médecine générale et 13 % dans les services d’urgence. Une probabilité pré-test faible

donne une valeur prédictive positive faible et une valeur prédictive négative augmentée.

PROBABILITÉ POSTTEST

Probabilité d’existence de la maladie après le test. Si un test n’a aucun faux positif, la probabilité

post test est de 100%

Le test idéal est celui qui est à la fois très sensible et très spécifique. Mais l’idéal étant rarement voire jamais atteint, on cherche des compromis et on utilise alors les éléments qui suivent.

 

Seuil de positivité

Le meilleur compromis entre spécificité et sensibilité d’un test c’est de définir la valeur optimale du seuil de positivité d’un test, c’est-à-dire le choix du seuil déterminant le normal et le pathologique ou l’état de malade ou non malade.

Le choix de la valeur seuil aura une influence sur le taux de faux positifs et faux négatifs. Selon le seuil choisi, il y aura plus ou moins de valeurs normales chez les patients malades ou de valeurs pathologiques chez les patients sains.(cfr tableau 1) Le seuil idéal est donc celui qui  permet de séparer totalement tous les positifs des négatifs sans faux positifs ni faux négatifs

Un test positif aura pour conséquence un examen complémentaire ou une attitude thérapeutique.

Ici intervient le rapport coût-bénéfice. Le coût est le fait de traiter à tort un individu non malade, le bénéfice est le fait de traiter à bon escient un individu malade.

Si les faux positifs et faux négatifs ont le même coût, on choisit comme seuil celui qui donne globalement le plus de diagnostic exact : vrais positifs + vrais négatifs / total patients.

Si les faux positifs ont un coût supérieur, on choisira un test de sensibilité plus faible même au risque d’un plus grand nombre de faux négatifs.

 

Courbe ROC

(Receiver Operating Charactéristics) est une courbe qui exprime la relation entre la sensibilité et la spécificité d’un test diagnostique. Cette courbe montre la relation entre le % de faux positifs et de vrais positifs suivant les différentes valeurs de  seuils de positivités possibles. Cette courbe se construit de façon empirique en calculant la sensibilité puis la spécificité d’un test pour différents niveaux de seuils de sensibilité. Sur l’axe des abcisses, la variable 1 – spécificité est égale au nombre de faux positifs parmi les non-malades.

Lorsque la courbe couvre la diagonale, le test est non informatif, le seuil ne permet pas de discriminer les positifs des négatifs, la proportion de tests positifs est la même chez les malades et les non-malades.

Plus la surface est grande, plus le test est puissant (cfr courbe ROC). Pour le dire autrement : plus la courbe ROC s’éloigne de la diagonale pour rejoindre l’angle supérieur gauche, plus le test est globalement puissant . Mais un test ne doit pas nécessairement être le meilleur toutes catégories confondues ( fig b : A et B sont les courbes ROC schématiques de deux examens entre lesquels on souhaite choisir. A a une meilleure spécificité et sensibilité que B. A sera préféré à B s’il n’a pas d’effets secondaires. C et D sont les courbes ROC schématiques de deux autres examens paracliniques. C est préféré si on veut privilégier la sensibilité, D est choisi si c’est la spécificité qui prime même au prix d’un plus grand nombre de négatifs… Bref on ne peut avoir le beurre et l’argent du beurre…

 

Précision du test

Ensemble des vrais positifs et vrais négatifs par rapport au total des tests effectués (a+d/a+b+c+d)

Cette valeur est particulièrement utile pour comparer différents tests pour une même maladie

 

Rapport de vraisemblance (RV)

Ce terme ne s’adresse qu’aux individus qui ont la maladie.

Le RV pour un test positif correspond au rapport du % des vrais positifs sur celui des faux positifs ou rapport sensibilité/faux positifs ou sensibilité/ (1-spécificité)

RV+ = 1 le test est inutile

RV+ > 2 ou 3 : test utile pour confirmer le diagnostic

Le RV pour  un test négatif est le rapport du % de faux négatifs sur celui des vrais négatifs ou % faux négatifs sur spécificité. (1-sensibilité/spécificité)

RV- < 0.5 test utile pour exclure le diagnostic.

 

 

Evaluation d’une étude

 

1) Différents types d’études

Essai clinique

Il s’agit d’une étude d’intervention où  l’on compare un groupe de sujets exposés à un facteur ou traités par la molécule à évaluer par rapport à un groupe contrôle

 

Etude prospective

Essai clinique réalisé dans le temps après réalisation d’un protocole d’étude.

 

Etude rétrospective

Analyses de résultats basée sur les dossiers antérieurs de patients.

 

Case report

Présentation de cas cliniques de patients traités ou présentant un problème déterminé sans comparaison avec un groupe témoins. Leur utilité est

surtout de poser les questions permettant de créer des protocoles d’étude.

 

Etude contrôlée

Le groupe traité par le médicament est comparé à un groupe témoin traité par placebo ou par molécule de référence. Ceci permet de tenir compte de l’évolution naturelle de la maladie et de l’effet placebo en cas de comparaison à un placebo.

 

Etude comparative

La comparaison doit se faire versus placebo et accessoirement versus une molécule de référence. Des raisons éthiques empêchent parfois la comparaison au placebo et on doit se contenter alors de l’étude comparative avec une molécule de référence. Mais les deux traitements pourraient dans ce cas se révéler également inactifs.

 

Etude randomisée

Les groupes comparés doivent être comparables et pour cela les patients doivent être pris par tirage au sort pour éviter les biais de sélection.

 

Etude en aveugle

Les études menées en double-aveugle permettent d’éviter le biais d’observation favorable au nouveau médicament. Ni l’investigateur ni le patient ne savent si le produit administré est le médicament testé ou le témoin (placebo ou médicament de référence).

Dans l’étude en simple aveugle, seul le patient ignore ce qu’on lui administre.

On fait aussi des études en « ouvert ». Pour un même médicament, les résultats des open label studies sont en général meilleurs que ceux des études en double-blind.

 

Etude transversale

On étudie un échantillon de patients sur une courte période pour un problème de santé déterminé. La fréquence de ce problème est calculé par la prévalence (cfr ultra)

 

Etude longitudinale

L’échantillon de patient est étudié sur une longue période et les résultats en début et en fin d’étude sont comparés entre eux

 

Etude de cohorte

Elle peut être prospective ou rétrospective et observe un groupe d’individus exposés à un ou des facteurs de risque pendant une période donnée pour voir si le groupe exposé court plus de risque que le groupe témoin. On calcule le risque par l’incidence et le risque relatif (cfr ultra)

 

Etude cas- témoin

Une étude cas témoin  sélectionne deux groupes de sujets malades et non malades puis étudie leur exposition à un facteur de risque pour déterminer son rôle dans la survenue de la maladie.

2) Biais et erreurs

La validité d’une étude est fonction des auteurs à éviter les biais ou erreurs.

Le biais de sélection (ou de diversité) : application de l’étude à des patients répartis de façon non strictement aléatoire dans les différents bras de l’étude.

Le biais de vérification : le test de référence n’est pas réalisé lorsque le test est négatif.

Les fluctuations d’échantillonnage : la répétition de la même étude sur un même échantillon et dans les mêmes conditions ne donnera pas nécessairement le même résultat du fait du hasard. On peut le réduire en augmentant la taille de l’échantillon et en utilisant des tests statistiques appropriés.

Les biais de classement sont liés à des erreurs d’observation.

 

3) Analyse statistique

Elle est indispensable pour évaluer la pertinence de l’étude en validant les résultats.

 

Valeur p

Cette valeur exprime la probabilité que la différence observée entre le groupe contrôle et le groupe traité soit due au hasard. Elle est comprise entre 0 et 1. Plus elle se rapproche de 0 et plus elle est significative car le risque d’erreur est plus faible. Un p<0.05 est généralement éxigé (moins de 5% de risque d’erreur).

 

Intervalle de confiance(IC)

Il s’agit d’une fourchette de valeurs contenant la valeur réelle du paramètre considéré

avec une probabilité donnée.

On l’exprime en % ou en déviations standards

L’intervalle [a,b] est centré sur la valeur numérique estimée du paramètre inconnu  et contient la valeur vraie avec un probabilité α fixée a priori. Cette probabilité permet de s'adapter aux exigences de l'application.

α est le coefficient de confiance. Une estimation par intervalle de confiance sera d'autant meilleure que l'intervalle sera petit pour un coefficient de confiance grand.

Cet intervalle de confiance peut être calculé pour toutes les valeurs citées.

Une valeur de 95% est souvent choisie pour l’IC, 95% de chances que la valeur réelle soit bien dans la fourchette des valeurs données.

 

 

 

Malades

Cas dans les enquêtes cas témoins

Non malades

Témoins dans les enquêtes cas témoins

Exposés

a

b

Non exposés

c

d

 

Prévalence d’une maladie (P)

C’est la proportion des individus atteints de la maladie étudiée par rapport au nombre total d’individus dans la population étudiée

P = a + c/ a+b+c+d

 

Incidence d’une maladie (I)

C’est la proportion d’individus atteints de la maladie par rapport au nombre total  d’individus présents dans la population étudiée et non malades au début de l’intervalle de temps donné pendant une période déterminée.

I = a+c/a+b+c+d par période définie (an, mois, décennie)

 

Risque attribuable

C’est la différence entre les taux de maladie chez les individus exposés et non exposés.

 

Risque absolu.

Il s'agit d'une proportion, un rapport entre le nombre d'événements observés et le nombre de patients, de sujets testés.  Cette proportion est le plus souvent exprimée en pourcent (%).

 

 

Risque relatif

Cette valeur correspond au rapport des taux de maladie chez les individus exposés et non exposés.

RR = (A/VA+B)/(C/C+D) à supprimer

Si RR = 1, cela signifie qu’il n’y a pas d’association entre l’exposition et la maladie. S’il s’agit de l’exposition à un traitement, RR=1 signifie que le traitement est inefficace.

RR < 1, le traitement sera jugé efficace

RR > 1, le traitement est nocif.

 

Odd ratio

Cette valeur permet d’estimer le risque relatif lorsqu’il est impossible de mesurer les risques de la maladie chez les sujets exposés et non exposés.

L’ods ratio (en français rapport de cote) est toujours supérieur au risque relatif sauf si la maladie étudiée est rare et le risque relatif faible. Dans ce cas les deux valeurs sont proches.

OR = AD/BC

Il s’agit d’une valeur utilisée surtout dans les études épidémiologiques rétrospectives, dans les enquêtes de cohorte ou dans les enquêtes de type cas/témoin.

 

Réduction du risque relatif

C’est l’expression en miroir du risque relatif. Elle ne tient pas compte de la fréquence réelle du risque dans le groupe témoin et ne permet donc pas de mesurer le bénéfice absolu d’une intervention. (Cette valeur est celle qui est le plus souvent présentée par les laboratoires pour présenter les résultats de leurs études …).

RRR = 1 – RR

 

Réduction du risque absolu

Elle exprime la différence entre le risque absolu dans le groupe témoin et celui du groupe traité. On l’exprime en % ou en différence d’incidence par 1000 années-patients. Cette valeur permet de relativiser la réduction du risque relatif.  Cette notion est capitale. C’est elle que nous devons traquer à la lecture d’une étude.

 

Nombre de sujets  à traiter

Number needed to treat : NST

Il s’agit du nombre de patients à traiter pour éviter un seul événement pathologique en traitant pendant le même temps qu’aura duré l’étude.

Elle est fonction inverse de la réduction du risque absolu.

NNT = 1/RRA

Cette notion est particulièrement utile pour connaître l’ampleur de l’utilité d’un traitement.

 

Toutes ces valeurs RR, OR, RRR et RAR doivent en principe être présentées munies de leur intervalle de confiance.

 

3) Metaanalyse

Il s’agit d’une méthode quantitative pour combiner les résultats d'études indépendantes (habituellement tirées de la littérature) et synthétiser les sommaires et les conclusions qui peuvent être employées pour évaluer l'efficacité thérapeutique, planifier de nouvelles études, etc.

On procède à l’analyse statistiques de données provenant de plusieurs analyses.

Les métaanalyses sont surtout utiles pour comparer des études aux résultats discordants ou de puissance insuffisante.

La métaanalyse est elle-même exposée à différents types de biais :

Le biais de publication : toutes les études sur le sujet n’ont pas été publiées

Le biais de sélection

Le biais d’extraction

Les résultats sont présentés comme dans le tableau 3.

La longueur des rectangles est proportionnelle à l’intervalle de confiance à 95 %.

Le trait vertical dans chaque rectangle a pour abscisse la valeur du RR ou de l’OR : si le trait est proche de la verticale d’abscisse 1, RR <1. Si le rectangle coupe la verticale : RR = 1 est contenu dans l’intervalle de confiance et donc la différence n’est pas significative.

Le rectangle le plus bas est calculé sur l’ensemble des essais c’est-à dire sur le total des patients. A gauche de la verticale d’abscisse 1, les études sont positives, à droites elles sont négatives.

(Dans l’exemple défini par le tableau3 le résultat global de la métaanalyse est positif).

 

 

Pour en savoir plus

 

  1. Pestiaux D, Bouilliez DJ, Bouniton Marc, Denis B et al : L’information médicale, une jungle à déchiffrer. Ed Quorum Ottignies 1997
  2. Junod A. F. : Décision médicale ou la quête de l’explicite. Med & Hyg Paris 2003
  3. Van Driel M, Chevalier P  Minerva Glossaire des termes utilisés en Evidence Based Medicine 2004
  4. Devresse P-Y : Le goût du risque RMG 2004 ;(27) 217 : 455-7

 

 


15/08/2020
1 Poster un commentaire

Les maladies auto-immunes : une histoire de tolérance rompue.

Un bactériologiste allemand, Paul Ehrlich déclarait au début du XXè siècle qu'il était impossible pour l’organisme vivant de retourner contre lui-même ses défenses immunitaires. Impossible vraiment ?

Depuis que l'on a progressé dans la compréhension du système immunitaire, on a compris que le concept d’auto-immunité était bel et bien l’explication pour toute une série de maladies chroniques inflammatoires comme la polyarthrite chronique, la myosite, la spondylarthrite ankylosante, le lupus, le diabète de type I, la thyroïdite d’Hashimoto, ou la sclérose en plaque…  appelées pour cette raison maladies auto-immunes. Celles-ci touchent 6-7% de la population générale et constituent la 3e cause de maladies chroniques après les maladies cardiovasculaires et le cancer . Leur fréquence a d’ailleurs tendance à augmenter avec le vieillissement de la population.

 

Lymphocytes mal éduqués

L’auto-immunité est donc une réaction immunitaire qui s’exerce contre l’organisme lui-même. Les acteurs de l’auto-immunité sont cependant naturellement présents chez tout être vivant. Nos cellules immunitaires (lymphocytes) subissent après leur naissance ?  une « éducation » au cours de laquelle ils apprennent à distinguer les auto-antigènes – qui marquent nos propres tissus et qu’il faut préserver – des antigènes extérieurs qu’ils doivent éliminer. Au cours de cette étape d’éducation, une grande partie des lymphocytes sont détruits soit parce qu’ils ne savent pas fabriquer les récepteurs pour reconnaître les différents types d’antigène, soit parce qu’au contraire, ils produisent des auto-anticorps. Les mécanismes d’élimination de ces lymphocytes « mal éduqués » dits auto-réactifs, ne sont cependant pas suffisants pour les supprimer tous et il persiste donc dans l’organisme des lymphocytes agressifs pour nos propres antigènes. Mais le système immunitaire a les moyens de maintenir ces éléments subversifs sous contrôle en calmant leur intolérance naturelle. Un peu comme une société démocratique qui tolère en son sein l’existence de groupuscules extrémistes tout en veillant à ce qu’ils ne puissent passer à l’action pour la détruire. Cette auto-immunité  a d’ailleurs son utilité car elle permet d’éliminer des auto-antigènes vieillis ou détruits et elle participe ainsi à la régulation de la réponse immunitaire.   

Cependant, sous l’influence de différents facteurs tant externes qu’internes, ce système d’autorégulation immunitaire peut devenir défaillant, et une fois la tolérance rompue, ces lymphocytes auto-réactifs agressent les cellules et les tissus de l’organisme comme si ceux-ci étaient des éléments toxiques externes. La maladie auto-immune se développe alors soit dans un organe spécifique (le pancréas dans le diabète de type I, la thyroïde pour la thyroïdite d’Hashimoto, le foie pour l’hépatite auto-immune,  ...) soit dans l’organisme tout entier (on parle de maladies de système, comme dans le lupus, la polyarthrite chronique,  …).  Rien n’étant jamais simple d’ailleurs en médecine, ces différents types de maladies auto immunes peuvent coexister.

 

Des causes internes et externes

Les causes de cette dérégulation – non du système immunitaire en tant que tel mais de ses mécanismes d’autocontrôle – sont multiples. Tout d’abord, le caractère familial de ces maladies plaide en faveur d’un terrain génétique prédisposant,  impliquant  différents gènes. Mais cet élément ne suffit pas à lui seul pour transformer notre lymphocyte auto-réactif tolérant en cellule agressive : l’environnement extérieur intervient aussi. Citons tout d’abord les infections, en particulier les virus, mais aussi des agents toxiques (et certains pointent du doigt le tabac ou encore l’exposition exagérée au soleil) ainsi que certains médicaments. Le risque des maladies auto-immunes est d’ailleurs un des arguments utilisé par les anti-vaccinateurs, mais un rôle déclenchant ou aggravant des vaccinations sur les pathologies auto-immunes n’est prouvé que dans une seule situation[1].  Ces facteurs environnementaux agissent soit par mimétisme moléculaire (parce qu'ils ressemblent à un auto-antigène), soit en modifiant la réponse immunitaire.

Nos hormones sont aussi susceptibles de faire basculer notre auto-immunité naturelle vers un état pathologique.  Les maladies auto-immunes sont ainsi plus fréquentes chez les femmes, surtout en période génitale active. Et enfin, la régulation de l’auto-immunité diminuerait avec l’âge comme en témoigne l’augmentation dans le sang de certains auto-anticorps que l’on observe après 65 ans…

 

Le rôle du stress

Des facteurs psychologiques – comme le stress ou la dépression – peuvent par ailleurs favoriser le développement des maladies auto-immunes. Certes la mise en évidence de la relation de cause à effet n’est pas facile car ces maladies sont elles-mêmes source de stress ou de dépression. Mais de nombreux éléments montrent l’existence d’interactions entre système nerveux et immunitaire : le système nerveux module le système immunitaire qui, de son côté, tient le système nerveux informé de son état de fonctionnement. Et les conclusions de plusieurs recherches vont dans le sens d’un rôle causal du psychologique. Une étude récente démontre que les lymphocytes T sont contrôlés par le système nerveux sympathique, qui gère notre réponse au stress. Selon d’autres chercheurs, des conditions de travail stressantes sont associées avec une augmentation du taux de maladies auto-immunes. Par ailleurs des événements psychologiques traumatiques vécus dans l’enfance sont susceptibles de favoriser le développement de maladies auto-immunitaires à l’âge adulte. Par contre, les symptômes des maladies auto-immunes comme le lupus ou la polyarthrite rhumatoïde évoluent plutôt au gré des stress quotidiens que des gros traumatismes. Un profil de personnalité serait commun aux personnes atteintes par ces maladies (soumission, tendance à éviter les conflits, répression émotionnelle). Un autre argument interpellant est le lien entre dépression et maladies auto-immunes. Non seulement la dépression est fréquemment associée à ces pathologies mais des dérèglements de l’immunité naturelle avec apparition de certains auto-anticorps ont parfois? été mis en évidence au cours de la dépression.  Ces éléments ouvrent des perspectives comme l’importance d’une prise en charge globale de la maladie y compris dans ses aspects psychologiques ou la possibilité de définir des personnes plus à risque de développer des pathologies auto-immunes.

 

 

Le résultat de l’auto-agression immunitaire étant une forte réaction inflammatoire au niveau du ou des organes atteints, la cortisone est souvent le premier traitement prescrit vu ses puissantes propriétés anti-inflammatoires. Celle-ci d’ailleurs non seulement diminue l’inflammation qui détruit les tissus, mais réduit aussi l’expression du système immunitaire. Les médicaments immunosuppresseurs (comme ceux utilisés pour diminuer les risques de rejet d’un organe greffé) sont en effet  l’autre stratégie adoptée pour lutter contre les effets d’une auto-immunité qui n’est plus sous contrôle. Mais actuellement, l’espoir est surtout placé sur les biothérapies, anti-TNF et anticorps monoclonaux. Ces médicaments issus de la biotechnologie (et donc très coûteux …) agissent sur le système immunitaire en mimant une substance naturelle déficiente ou en diminuant l’action d’autres substances produites en excès. Anti-TNF et anticorps monoclonaux peuvent être comparés à des armes de précision qui visent des cibles bien précises  tandis que la cortisone et les immunosuppresseurs sont des bombardiers… Mais, revers de la médaille, en diminuant le pouvoir et les moyens du système de défense, on augmente la vulnérabilité  de l’organisme aux agressions extérieures. Tous ces traitements, y compris les biothérapies, accroissent en effet le risque infectieux et même cancéreux, risque déjà favorisé par la maladie auto-immune elle-même.

Les immunoglobulines, prescrites classiquement dans les déficits d’anticorps,  trouvent aussi quelques indications-certaines reconnues d’autres encore en cours d’évaluation -dans les maladies auto-immunes. Elles auraient en effet un rôle immunomodulateur, en neutralisant par exemple certains auto-anticorps dans la circulation. Côté nutrition, certaines études s’intéressent à l’intérêt d’un supplément d’oméga-3 pour la polyarthrite chronique mais sans résultats encore connus sur le long terme. D’autres préconisent des régimes excluant certains aliments (comme le lait ou les céréales) voire un régime végétarien, mais tout cela nécessite encore d’être évalué pour confirmation.  Et quant aux médecines dites naturelles qui prétendent agir sur le système immunitaire, on attend toujours les preuves de leur efficacité…


publié dans Equilibre en 2011

 


10/04/2015
0 Poster un commentaire

Un problème bien féminin : les pertes blanches, quand s'inquiéter ?

 

 Introduire les termes « pertes blanches » sur Google aboutit à plus de 40.000 réponses dont un nombre important de forums de sites médicaux ou réputés tels, où s'échangent des commentaires et conseils pas toujours des plus pertinents. Visiblement, le problème préoccupe les femmes.

 Les pertes blanches ou leucorrhées sont un motif fréquent des consultations gynécologiques et c’est même la plainte gynécologique la plus fréquemment abordée chez les médecins généralistes qui verraient en moyenne une à deux femmes les consulter a ce sujet par semaine.  On a l’impression en parcourant les forums cités plus haut que bon nombre de femmes en souffrent sans oser consulter et une des réponses apportées à ce problème, qui pour certaines semble même obsessionnel, réside dans l’automédication de toute sorte. 

Normal avant tout!

Il faut savoir tout d’abord que des pertes vaginales glaireuses, non colorées, non épaisses, sont banales. D'une part la région vulvaire comporte des glandes  sébacées, sudoripares et autres, qui émettent naturellement des sécrétions. Par ailleurs, le vagin est un peu à l’instar de la bouche un milieu naturellement humide – la sécheresse vaginale n’est d’ailleurs pas sans poser problèmes – dont l’épithélium de revêtement se renouvelle, desquame et donc s'évacue par les voies naturelles. Ajoutez à cet exsudat vaginal normal, les sécrétions muqueuses en provenance du col de l’utérus et éventuellement des sécrétions d’origine utéro-tubaire en fonction de la période d’activité ovarienne. En voilà bien assez pour tacher et mouiller le linge de manière plus ou moins abondante. La quantité de ces pertes varie en fonction de la période du cycle, de la fréquence des rapports sexuels, de l’imprégnation hormonale (contraception, grossesse, ménopause …)

Ceci dit, il n’en reste pas moins vrai que ces pertes blanches ou leucorrhées, pour les appeler par leur nom, ne sont pas toutes anodines. Elles peuvent aussi être le signe d’une infection  ou d'une mycose (le plus fréquent), d'une irritation chimique ou d'une allergie (produits de bains, parfums des papiers de toilette, chlore des piscines …). Dans ce cas, elles sont rarement isolées, et s’accompagnent de symptômes tels que démangeaisons, douleurs, rougeur vulvaire, odeur nauséabonde, couleur bizarre, aspect grumeleux ou mousseux, présence de sang… Autant d’éléments qui justifient un avis médical toujours préférable à l’automédication, ou aux conseils trouvés sur Internet …

Mycoses

Les  candidoses et autre mycoses sont la cause la plus fréquente des leucorrhées; elles représentent  25 à 44% des cas d’infections gynécologiques basses. Ce sont des affections généralement bénignes qui ne sont d’ailleurs pas considérées comme des maladies sexuellement transmissibles. Rien d’étonnant donc si le médecin ne prescrit pas de traitement systématique du partenaire, que l’on ne retrouve d’ailleurs infecté que dans un cas sur cinq en cas de mycose récidivante chez la femme et encore le plus souvent est-il asymptomatique. Au-delà de quatre épisodes par an, ces candidoses sont considérées comme récidivantes (5% des cas), récidive parfois favorisée par des facteurs irritants ou allergiques, ou certaines maladies comme un diabète mal équilibré, … Un traitement efficace n’exclut pas une récidive possible, et on peut rester porteuse du candida albicans sans symptômes même après avoir été traitée. Au chapitre des facteurs favorisant les candidoses, on trouve les antibiotiques, la diminution de l’immunité, les rapports sexuels multiples. On entend souvent incriminer les vêtements ou sous-vêtements trop serrés surtout si synthétiques, parce que facilitant la macération et l’échauffement local, mais cela n’aurait jamais été prouvé… Pas vraiment prouvé non plus le rôle de la contraception orale comme facteur favorisant des candidoses.

Déséquilibre dans la flore

Une autre cause fréquente de pertes blanches infectieuses est la vaginose bactérienne provoquée par un déséquilibre de l’écosystème vaginal. Le milieu vaginal normal est acide, acidité entretenue grâce à l’acide lactique fabriqué par certains souches de lactobacilles présents naturellement dans le vagin. Cette acidité empêche le développement d’autres germes, eux aussi présents dans la flore vaginale normale mais en faible quantité. Toutes les conditions qui favorisent la diminution de ces lactobacilles entraînent une diminution de l’acidité et le développement d’ autres bactéries dites opportunistes (comme le Gardnerella vaginalis par exemple).  Ces conditions peuvent être favorisées par l’usage de produits douches ou sprays d’hygiène intime, des partenaires sexuels multiples, le port d’un stérilet… Ces vaginoses ne sont pas non plus considérées comme maladies sexuellement transmissibles et ne nécessitent pas de traiter le partenaire. 

Candidoses, mycoses ou vaginose bactérienne, sont parfois présentes simultanément, et évoluent toujours de manière favorable et sans complications même en cas de récidive. Leur traitement peut être local ou général, en dose unique ou pendant plusieurs jours. Rien ne permet d’affirmer qu’un mode de traitement soit supérieur à l’autre, ou qu’un médicament soit plus efficace qu’un autre pour se débarrasser de ce type de germes. Parfois, le traitement local apporte un soulagement plus rapide, mais le traitement oral peut être préféré par facilité … la décision dépendant autant de l’expérience du médecin traitant que de la préférence de la patiente pour l’un ou l’autre.

Moins fréquente que les deux précédentes mais pas rare pour autant, puisque sa fréquence est  de 3 à 5% dans la population jeune (15-40 ans) sexuellement active,  l’infection à Trichomonas mérite d’être citée dans les causes de leucorrhées pathologiques. Cette infection doit toujours être traitée  pour en éviter la dissémination car il s’agit d’une maladie sexuellement transmissible.  Le  partenaire nécessite donc aussi un antibiotique adapté. Ajoutons que cette infection ne répond pas à un  simple traitement local.

Si toutes les pertes blanches ne sont pas d’origine infectieuse, toute infection gynécologique ne se traduit pas nécessairement par des leucorrhées .

Certes des écoulements vaginaux, surtout s’ils sont abondants, sont source d’inconfort et de désagrément. Le degré d’inconfort ressenti est souvent proportionnel à l'image  plus ou moins négative que l’on a du phénomène. Des antécédents personnels ou familiaux peuvent accroître l’anxiété que ces manifestations suscitent, sans parler de toutes les légendes et mythes qui circulent à propos du corps féminin dont le fonctionnement normal reste trop souvent encore méconnu en dépit de l’évolution des mœurs et des connaissances scientifiques. La publicité n’arrête pas de nous renvoyer l’image d’un corps idéalisé, d’où n’émane aucune odeur et dont les sécrétions les plus naturelles sont jugées importunes, voire malséantes. Image fort éloignée somme toute des réalités physiques, responsable d’angoisses injustifiées et de soins d’hygiène intime parfois exagérés, au risque de créer un cercle vicieux …

 

L’excès d’hygiène peut nuire à la santé …

Il n'est pas rare que des femmes tracassées par des pertes blanches qu'elles jugent incommodantes se livrent à des soins intimes intempestifs qui finissent par faire plus de tort que de bien.   Une toilette intime raisonnable ne concerne que la région vulvaire, pas l’intérieur du vagin. Mais laver plus de deux fois par jour cette région  en altère le revêtement protecteur de la peau. Les nombreux produits d’hygiène intime de même que les produits antiseptiques ou antibactériens n’ont pas fait la preuve de leur efficacité pour prévenir ni même pour traiter les infections vaginales et peuvent eux-mêmes être à l’origine d’infections.

L’acidification du vagin semble parfois utile en cas de vaginite bactérienne récidivante, mais au risque  de provoquer une candidose lorsqu’elle se fait de manière trop répétée. L’ail ou l’huile essentielle de tea tree pour ceux qui seraient tentés par les médecines dites douces ou naturelles n’ont fait l’objet d’aucune étude démontrant leur utilité. 

 

Quelle place pour les probiotiques ?

Bien que le rôle des lactobacilles dans le maintien de l’équilibre de la flore vaginale normale soit démontré, jusqu’à présent les preuves sérieuses manquent pour justifier l’administration de probiotiques  pour traiter ou pour prévenir les récidives ou le développement d’une vaginite suite à la prise d’antibiotiques .  Les études dans ce domaine  sont toujours en cours Par contre, durant la grossesse,  l’administration de probiotiques semble utile pour prévenir les infections vaginales mais sans bénéfices démontrés en termes de prévention d’accouchement prématuré. A titre anecdotique, deux études auraient montré une réduction des infections vaginales au cours de la grossesse lors de l’ingestion d’un lait enrichi en probiotiques ou de l’application intravaginale d’un yogourt… mais en l’absence de toute recommandation scientifique précise pour la pratique et vu les controverses  dans ce domaine,  nous nous garderons bien de conseiller de consommer du yogourt de cette façon …

(publié dans le magazine Equilibre novembre 2011)


10/04/2015
0 Poster un commentaire

Les personnes âgés dépriment aussi

Un nouveau défi attend la psychiatrie des années futures : prévenir la dépression chez les plus de 65 ans.

La dépression touche de 3 à 5% (13% selon certaines références) de la population des plus de 65 ans. Près d’un tiers des personnes âgées déprimées ne seraient pas diagnostiquées. 44% des personnes vivant en maison de repos en seraient atteintes. Deux tiers des personnes âgées déprimées ne réclameraient pas d’aide alors que dans 8 cas sur 10, elles tireraient tout bénéfice d’un traitement. Or 15 % seulement d’entre elles sont traitées

 

L’humeur dépressive, la tristesse ou le découragement chez les personnes âgées sont trop souvent encore perçus comme l’expression normale du vieillissement par la personne elle-même, son entourage et même les médecins.  Mais croire que vieillir et déprimer vont de pair est un concept tout à fait faux. Certes, plusieurs conditions favorisant la dépression sont réunies chez les personnes âgées.  Depuis la perte du rôle social au moment de la mise à la retraite, jusqu’à la perte du « chez soi » parce que « placée » en maison de repos, vieillir équivaut à se voir progressivement dépossédé de son existence. A cela viennent s’ajouter des modifications corporelles : on bouge moins vite, on retient moins bien les informations qui nécessitent d’ailleurs plus de temps pour être intégrées, on ne sait plus gérer plusieurs situations en même temps.  Diminution des capacités physiques antérieures, troubles de mémoire, douleurs chroniques, voilà autant d’éléments modifiant l’image personnelle dont la perception peut devenir négative. Or, une image de soi positive est nécessaire pour garantir l’équilibre mental.

Toutes les personnes âgées ne sont cependant pas déprimées, loin de là. La majorité d’entre elles s’adaptent à cette évolution et vont même plutôt bien, tant mieux. Mais lorsque certaines situations viennent se greffer sur cette identité en perte de repères, le mental bascule, la tristesse morale et le désespoir s’installent. La dépression est une vraie maladie qui nécessite d’être prise en charge quel que soit l’âge auquel elle se manifeste.

Les limites sont toutefois floues entre tristesse normale ou pathologique. Le vieillissement est souvent associé d’ailleurs avec une ou plusieurs maladies chroniques et l’humeur dépressive fait parfois partie des symptômes de ces dernières (douleurs chroniques, séquelles d’accident vasculaire cérébral, cancer). Pas toujours facile de faire la part des choses d’autant plus que le pronostic des maladies a tendance à s’aggraver lorsqu’une dépression vient s’y greffer. Sans parler du caractère de la personne elle-même… Comment alors savoir si grand-père ou grand-mère est en train de sombrer dans une vraie dépression ?

Certes le diagnostic de dépression est affaire de médecin. Sachons toutefois qu’il existe des situations à risque qui nécessitent de consulter.  L’isolement social, la perte d’un parent ou d’un ami et Dieu sait combien l’entourage devient plus clairsemé au fil des ans, les problèmes financiers, les conflits familiaux, un déménagement ou tout changement d’environnement, le placement en institution, une hospitalisation sont des éléments sociaux propices au développement d’une dépression.  La mort d’un animal de compagnie équivaut à celle d’un proche pour une personne âgée surtout si elle vit seule.

Un signal d’alarme traduisant une dépression possible est le changement de comportement par rapport à l’attitude habituelle de l’aïeul. Les proches d’une personne âgée ne doivent pas hésiter à consulter si celle-ci devient plus agitée, plus irritable voire franchement agressive, ou à l’inverse se replie sur elle-même, s’isole, se sent persécutée (avec parfois vrai délire de persécution) ou encore manifeste de moins en moins d’intérêt pour les activités quotidiennes ou les hobbies qui l’attiraient jusque-là. La personne peut aussi se plaindre nettement plus souvent ou au contraire négliger ses plaintes.

Autant de signes nécessitant une consultation médicale car toute dépression doit être prise en charge étant donné un risque de suicide deux fois plus fréquent à un âge avancé. Sans aller jusqu’au suicide, une personne âgée dépressive devient moins autonome et cela peut aller jusqu’au placement qui n’arrangera pas la situation. Et enfin, le pronostic des maladies qui sont souvent le lot de l’âge est aggravé lorsqu’une dépression vient s’y ajouter. Le médecin prescrira sûrement l’un ou l’autre examen car une dépression peut signer une maladie débutante ou des problèmes dont le malade ne veut pas parler mais qui le handicapent dans sa vie quotidienne comme d’entendre mal ou d’avoir la vue qui baisse. Certains états dépressifs vont beaucoup mieux après une cure de cataracte ou la correction d’un problème auditif, parfois simplement en ôtant un bouchon de cérumen. Une prothèse dentaire mal adaptée ou mal tolérée ou tout autre problème bucco dentaire risquent d’entraîner inconfort, douleurs, perte d’appétit et état dépressif.

Les signes de la dépression chez la personne âgée peuvent parfois se confondre avec ceux d’une maladie de type Alzheimer. Parfois la dépression peut marquer le début d’une maladie d’Alzheimer ou contribuer à aggraver l’état des personnes qui sont atteintes de cette dernière. Toutes raisons qui nécessitent d’avoir un avis médical, car le traitement de la dépression améliore l’évolution des personnes souffrant de maladie d’Alzheimer ou d’une autre forme de démence. Par ailleurs, des personnes apparemment démentes mais souffrant en réalité d’une dépression retrouvent toutes leurs capacités mentales dès qu’elles reçoivent un traitement.

Lorsque le diagnostic d’une vraie dépression a été posé par un médecin, le traitement est indispensable avec tous les moyens dont on dispose: psychothérapie ou médicaments. Traiter la dépression améliore non seulement l’humeur du patient mais aussi sa santé et sa qualité de vie ainsi que celle de l’entourage. Des possibilités de psychothérapie à domicile existent grâce à des projets spécifiques personnes âgées dans les Centres de santé mentale ou encore par l’intermédiaire des mutuelles.

Trop souvent, le refus de consulter tant de la part de la famille que du malade vient de la peur de devoir prendre des "médicaments".  Les médias insistent d’ailleurs lourdement sur l’abus de prescription dont ils feraient l’objet, en particulier dans les maisons de repos. Il n’existe cependant aucune preuve valide que l’on prescrit « trop » d’antidépresseurs  Et d'ailleurs, c'est quoi "trop"? Les motifs économiques qui poussent nos dirigeants à s’inquiéter d’une surprescription de ces médicaments sont souvent  en contradiction avec ceux des psychiatres pour qui la dépression est sous-diagnostiquée et sous-traitée.

Une crainte couramment exprimée est celle de voir le déprimé « assommé » par ces médicaments. On fait trop souvent un amalgame entre antidépresseurs, neuroleptiques, (ces derniers destinés à traiter les psychoses type schizophrénie ou paranoia et modifiant le comportement des patients) et tranquillisants comme les benzodiazépines. Celles-ci font l’objet de nettement plus d’abus de consommation avec un risque certain de dépendance et des effets néfastes chez les personnes âgés. Dire que les antidépresseurs sont utiles et efficaces chez les personnes âgées en présence d’une dépression sévère n’est pas une publicité mensongère.

La durée du traitement est un autre sujet d’inquiétude. L’effet optimal des médicaments antidépresseurs n’est en effet observé qu’après une période assez longue de six à huit semaines, et six à neuf mois minimum sont nécessaires pour stabiliser la situation. Une fois l’humeur de la personne revenue à la normale, l’arrêt du traitement doit être progressif et toujours sous contrôle médical.  Bref, le traitement va durer un an au minimum. Un consensus actuel conseille un an de traitement pour un premier épisode, deux ans pour un deuxième, trois ans et plus dès la troisième récidive. Parfois même, certaines personnes nécessitent un traitement à vie, mais ça ne concerne pas la majorité des malades.

L’hospitalisation n’est pas une solution sauf en dernier recours; les médecins préfèrent l’éviter et ne l’imposeront qu’en cas de crise suicidaire ou si l’état de santé est gravement altéré par l’état dépressif. Ce changement d’environnement est en effet susceptible d’aggraver la situation en entraînant une perte de repères. D’ailleurs, selon une étude toute récente, traiter les patients âgés déprimés à leur domicile est plus efficace. En cas d’hospitalisation, le médecin devrait orienter le patient vers un service spécifique où « l’on prend le temps »...  

 

Non, il n’est pas normal de déprimer parce qu’on est vieux … et puisqu’il existe des traitements efficaces, il serait dommage de ne pas en profiter au motif qu’avec l’âge ça ne vaudrait plus la peine … 

 (publié dans Equilibre 2011)


16/02/2014
0 Poster un commentaire

La médecine par les plantes désormais contrôlée

(publié dans le magazine Equilibre)

Depuis le 1er avril 2011, les plantes médicinales sont soumises à une standardisation des mesures de contrôle de qualité qui leur sont appliquées. Mais tout le monde ne l'entend pas de cette oreille! Les auteurs de la pétition "Guérison défendue – les remèdes naturels que l'Union européenne et les multinationales pharmaceutiques veulent vous interdire" présentent les mesures de contrôle prévues dans la nouvelle directive comme une déclaration de guerre à la phytothérapie...  Sans faire le jeu des multinationales, on peut tout de même se demander si des critères d’autorisation de mise sur le marché pour la phytopharmacie sont vraiment superflus ? Car les plantes ne sont pas des placebos : si elles contiennent des principes actifs, en raison même de cette efficacité potentielle, elles ne sont pas dénuées de toxicité. Se soigner par les plantes nécessite donc d’abord de savoir de quoi on parle.

 

De la tisane à l'huile essentielle

Or, la chose est loin d’être simple. Le nom scientifique d’un végétal est constitué de deux mots latins, mais une même plante peut porter plusieurs noms latins différents. Par contre, un même nom populaire peut désigner des plantes très différentes : le terme citronnelle par exemple peut désigner la mélisse, la verveine des Indes (vraie citronnelle) ou une variété d’armoise, toutes plantes aux propriétés distinctes.

D’autre part, de nombreux éléments sont à prendre en considération pour établir l’efficacité ou la toxicité des plantes. Celles-ci sont composées de différentes parties, tige, écorce, feuilles, fleurs, fruits, racines, qui n’ont pas les mêmes propriétés. Ainsi, les tubercules de pommes de terre sont comestibles, mais les feuilles et les fruits sont toxiques. Et si les effets des fleurs de la camomille romaine sont utiles pour les troubles digestifs, toutes les parties aériennes de la grande camomille sont nécessaires pour soigner les céphalées…

La composition d'une plante varie aussi en fonction de la région et de la saison où elles ont été récoltées. Sa qualité dépend également de la manière dont elle est conservée après récolte. Et enfin, la composition et la concentration du produit actif sont fonction du mode de préparation, sachant aussi que d’une même partie de plantes, on peut tirer plusieurs produits.

Lorsqu’on consomme des tisanes, qu’elles soient préparées par infusion, décoction ou macération de la plante séchée, seuls les composés hydrosolubles sont ingérés. Par contre, en avalant des gélules de poudre de plante séchée, on absorbe tout le végétal et pas seulement la partie soluble dans l’eau. Quant aux extraits de plante, ils sont obtenus à partir de végétaux secs par évaporation d’un solvant (eau, alcool ou les deux) et ensuite purifiés. La composition chimique dépend alors du solvant, de la température, de la durée, et des techniques de purification… Les huiles essentielles sont acquises grâce à des procédés mécaniques et physiques. Les essences sont extraites à l’aide d’un solvant non aqueux (graisse ou dioxyde de carbone à l’état supercritique) et là encore la composition, la concentration du produit dépendent du type de solvant, de la durée d’extraction …

Etablir la fiche d’identité d’un produit en phytothérapie est donc essentiel non seulement pour savoir ce que l’on consomme – tout ce qui est sur le marché de la phytopharmacie n’est pas d’égale qualité – mais aussi pour assurer une bonne évaluation de la balance bénéfices-risques de ce type de médicaments.

 

"C'est naturel"

Trop de personnes ne considèrent pas les plantes comme des traitements sous prétexte que "c’est naturel" et ne signalent pas à leur médecin qu’elles en consomment … Les conséquences d’un tel type de comportement ne sont pas sans danger. Par exemple, le millepertuis est efficace dans les dépressions légères et modérées. Voilà qui est intéressant pour éviter de prendre trop vite un antidépresseur. Oui, mais il a l’inconvénient d’interférer avec un système enzymatique (le cytochrome P450) qui accélère l’élimination de certains médicaments dont il diminue ainsi l’efficacité. C’est le cas pour les immunosuppresseurs destinés entre autre à éviter le rejet d'une greffe, mais aussi les contraceptifs, les antiviraux utilisés dans le traitement du SIDA, les anticoagulants avec pour résultat des thromboses, des grossesses non désirées, voire des décès par rejet de greffe…  Le millepertuis n’est pas la seule plante à occasionner de telles interactions médicamenteuses potentiellement graves;  mieux vaut donc être prudent avec les plantes quand on prend par ailleurs plusieurs médicaments. Une utilisation prolongée de médicaments à base de plante n’est pas non plus recommandée, bon nombre d’entre eux étant toxiques pour le foie.

 

Efficaces mais…

Les médecins "classiques", de plus en plus éduqués à l’école de la médecine basée sur les faits prouvés, hésitent souvent à utiliser la phytothérapie faute d’essais comparatifs suffisants et valables prouvant son efficacité. Ils n’ont pas toujours tort. Une étude randomisée en double aveugle auprès de 3000 personnes pendant plus de six ans avec le gingko biloba (prescrit même par des neurologues, pour prévenir les troubles de mémoire de maladies comme celle d’Alzheimer) n’a finalement montré aucune efficacité de ce produit par rapport à un placebo. 

Pourtant, les médicaments traditionnels à base de plantes peuvent constituer une alternative intéressante et utile pour traiter certains troubles fonctionnels, à la place de médicaments dont les risques dans certaines situations de faible gravité sont supérieurs aux bénéfices. L’extrait de racine de valériane évite parfois le recours à des somnifères classiques, pour autant que la préparation contienne de l’acide valérénique en quantité suffisante … et pas de valépotriates cancérogènes (surtout présents dans la poudre de la plante et dans les extraits alcooliques à forte concentration). L’efficacité des plantes recommandées pour les troubles digestifs ne repose sur aucune étude solide à ce jour, toutefois, leur utilisation en infusion ne démontrant aucune toxicité, elles peuvent venir à point, comme la menthe poivrée, pour soulager les désagréments d’un colon irritable par exemple.

 

Des règles strictes

La nouvelle réglementation permettra peut-être d’éviter  une nouvelle affaire des plantes chinoises où une confusion de dénomination de plantes prescrites pour maigrir avait conduit  plusieurs personnes à l'insuffisance rénale chronique et au décès. Des échantillons de fangji (Stephania tetrandra) avaient été substitués par du guangfangji (Aristolochia fangchi), cette dernière hautement toxique pour les reins et responsable aussi de cancers des voies urinaires.  Le plus ironique étant que toutes ces plantes amaigrissantes sont inefficaces …

Un autre exemple concerne le ginseng, en principe le Panax ginseng. Mais les préparations à base de ginseng contiennent d’autres plantes du type panax, ou parfois même des plantes d’autres familles vendues sous le nom de ginseng dans d’autres pays. Ces produits sont dotés d’une toxicité importante en cas d’abus, avec hallucinations et même effets tératogènes (masculinisation du fœtus féminin). Mais faute de connaître ce qui est réellement vendu sous la dénomination de ginseng, on ne sait dire si les effets secondaires décrits sont liés au panax ginseng lui-même ou à d’autres produits dénommés comme tels.

Des contrôles de production, une harmonisation et une « phytovigilance » garantissent une utilisation plus sûre des plantes. Dès lors, exiger des médicaments à base de plantes autant que des autres médicaments  n’est-ce pas rendre ses lettres de noblesse à la phytothérapie 

 

 

En 2004, l’Union Européenne a adopté une directive (2004/24/CE) destinée à harmoniser les conditions de mise sur le marché des médicaments traditionnels à base de plantes et des plantes médicinales d’usage établi. Des règles et procédures valables pour tous les Etats de l’Union européenne ont été ainsi introduites et un comité européen des médicaments à base de plante (ESCOP) a été créé au sein de l’Agence européenne du médicament (EMEA). Ce comité a  élaboré des monographies pour chacun de ces produits.

La directive permet une procédure simplifiée d’autorisation de mise sur le marché tout en ciblant des garanties de qualité. Dans cette procédure simplifiée, des essais toxicologiques, pharmacologiques et cliniques ne sont pas exigés pour les plantes pouvant justifier d’un usage traditionnel : un rapport d’expert et/ou une étude bibliographique concernant les données de sécurité suffit. Et une reconnaissance de l’enregistrement d'un usage traditionnel dans un état-membre rend obligatoire la reconnaissance par les autres états membres. Depuis le 1er avril 2011, les médicaments par les plantes ne répondant pas à ces exigences sont retirés du marché.


14/02/2014
0 Poster un commentaire

CMV, toxo, listériose, rubéole

Les futures mamans reçoivent souvent une foule de conseils d'hygiène, dont certains semblent parfois un peu  excessifs. Faut-il vraiment se préserver de tout microbe ? Non, seuls quelques-uns sont potentiellement néfastes pour le bébé. Voici donc les précautions élémentaires et raisonnables.

Elide Montesi

 

Pendant la grossesse, pour préserver le fœtus, l'organisme diminue un peu l’agressivité de ses défenses immunitaires. Le prix à payer est une légère  augmentation de la vulnérabilité des femmes enceintes aux infections de toute nature, virales, bactériennes ou parasitaires. Si la plupart de ces agents infectieux n'ont que des conséquences bénignes sur l’être humain en général, quand ils sont transmis au fœtus, ils sont susceptibles d’altérer son développement d’entraîner des malformations, voire la mort in utero. C'est pour ces raisons que l'on conseille aux femmes enceintes une série de mesures de précautions simples, qui suffisent pour éviter des drames.

 

Un vaccin plus qu’utile

On pense en premier lieu à la rubéole, maladie éruptive bénigne, mais qui peut provoquer chez l’embryon malformations cardiaques, surdité, cataracte, glaucome voire complications cérébrales si la contamination se produit pendant les 18 premières semaines de la grossesse. La prévention est simple pourtant, puisqu’il existe un vaccin efficace qui s'administre vers l’âge d’un an, en même temps que celui contre la rougeole et les oreillons, avec un rappel vers l’âge de 11 ans. En principe, toutes les petites filles sont donc protégées et c'est d'autant plus important qu'on ne peut pas administrer ce vaccin – qui contient du virus vivant atténué – à une femme qui ne serait pas immunisée en début de grossesse. 

 

CMV 

La plus fréquente des infections congénitales virales et aussi la plus contagieuse est celle provoquée par le cytomégalovirus (CMV). Très répandue dans le monde, cette infection est  bénigne et peut même passer tout à fait inaperçue ou se confondre avec une grippe ou une mononucléose. Le virus se transmet surtout par les jeunes enfants, plus souvent infectés que les adultes, par les liquides corporels (salive, urines, sécrétions génitales).. Mais pour un fœtus, le CMV peut avoir des conséquences dramatiques : ralentissement de la croissance, microcéphalie, augmentation du volume du foie et de la rate, troubles de la coagulation, jaunisse, surdité.

Une femme sur deux en âge d'avoir des enfants n’a jamais été en contact avec le CMV et peut donc contracter l’infection en cours de grossesse. Le risque de transmission du virus par la mère à son bébé varie en fonction de l’âge de la grossesse au moment de la contamination: de 9% lorsque l’infection survient dans les semaines précédant la fécondation, il passe à 30% au cours des 20 premières semaines et à 53% après 20 semaines. Cependant il convient de relativiser ce chiffre: sur 100 maman infectées, seules 30 d’entre elles transmettront le virus à leur bébé et 10% de ces bébés seulement développeront des symptômes de cette infection. Et seulement  2/3 de ces 10% auront des séquelles et / ou un risque de décès. Ce qui fait qu'en fin de compte, le taux des infections congénitales par CMV en Belgique est de 0.49%, soit moins de 5 bébés sur 1000.

 

En dépit de la gravité potentielle de cette infection, le dépistage du CMV par dosage des anticorps sanguins  n’est pas recommandé parce que les anticorps ne s’élèvent dans le sang que quatre semaines après le début de la primo infection et peuvent rester élevés pendant plusieurs années après. En outre, une élévation de ces anticorps dans le sang maternel ne signifie pas que la transmission au fœtus a eu lieu et ne précise pas non plus le degré de gravité de l’éventuelle infection fœtale.

En cas de suspicion d’infection, il est possible de vérifier si elle a été transmise au bébé six semaines après la date présumée de l’infection, mais au prix d’une recherche du virus par amniocentèse. Ce test qui n’est pas sans risque, lorsqu’il est positif, ne permet pas non plus de prédire la sévérité de l’atteinte.   

Aucun vaccin n’existe contre le CMV. Mais qu’on se rassure, des mesures d’hygiène simple permettent aux futures mamans de diminuer le risque de contamination : ne pas partager son verre ou ses couverts avec autrui et être prudente avec les autres enfants, potentiellement porteurs du virus: éviter les contacts de bouche à bouche (ne pas prendre en bouche la tutte du petit dernier !), porter des gants pour changer les couches et se laver soigneusement les mains après. C'est d'ailleurs pour cette raison que les femmes enceintes en contact professionnel avec des enfants de moins de 4 ans (crèches, infirmières pédiatriques, institutrices maternelles) ont droit à des mesures d’écartement prises en charge financièrement par le Fonds des maladies professionnelles.

 

Toxoplasmose

Les virus ne sont pas les seuls agents infectieux nocifs pour un fœtus. Ainsi, la toxoplasmose est une maladie parasitaire due au toxoplasma gondii, sans risque pour la mère mais responsable de mort fœtale in utero, de fausse couche, de retard mental ou de problèmes visuels. Le risque de transmission du parasite au bébé augmente avec la durée de la grossesse après contamination. En moyenne, un enfant sur quatre né d’une mère infectée au cours de sa grossesse aura des symptômes. 

Le cycle de vie assez complexe de ce parasite nécessite plusieurs hôtes intermédiaires, dont les chats (hôte obligé pour la reproduction du parasite dont les œufs (oocyste )sont  éliminés avec les fèces des félins) et les animaux à sang chaud (hôtes intermédiaires où le parasite va s’enkyster dans les muscles), ce qui explique les différents modes de contamination possibles. L’être humain peut s’infecter en consommant des légumes souillés par des fèces de chat ou en manipulant celles-ci (nettoyage de litière), ou encore en ingérant des formes enkystées du parasite contenues dans de la viande crue ou mal cuite. Les oocystes de toxoplasma sont résistants à l’eau de Javel mais ne résistent pas à la cuisson, à la congélation et à la dessiccation.   

On comprend donc qu’une des manières de se prémunir de la toxoplasmose pour une femme enceinte non immunisée (47% des femmes en Belgique) soit de consommer les viandes cuites à point, en évitant viandes fumées, marinées ou grillées. Fruits et légumes seront épluchés, bien lavés et cuits correctement. Et les légumes et herbes aromatiques destinés à être consommés crus doivent être débarrassés de toute trace de terre. 

Une autre mesure préventive consiste à faire nettoyer par une autre personne le bac à litière du chat ou de n’exécuter cette tâche qu’avec des gants et en se lavant les mains après avec du savon. Ce conseil est valable aussi pour les travaux de jardinage. Mieux vaut par ailleurs nourrir les chats avec de la viande bien cuite ou des préparations industrielles plutôt qu’avec de la viande crue pour leur éviter la toxoplasmose.  Signalons aussi que le risque de contracter cette maladie en manipulant un chat est quasiment nul : inutile donc de se priver de sa compagnie …

Un dosage des anticorps en début de grossesse permet de connaître  le statut d’immunité par rapport au parasite et de déterminer si ces mesures de prévention sont nécessaires. Dans ce cas-ci, l’infection confère en effet  une protection durable : les femmes immunisées peuvent être rassurées. Plus controversée par contre est l’utilité de prises de sang régulières pour voir si une contamination a eu lieu pendant la grossesse : on ne dispose pas de preuves suffisantes pour justifier ce dépistage systématique. 

 

Listeria

Enfin des moyens de prévention simples permettent aussi d’éviter la listériose, causée quant à elle par une bactérie. Celle-ci a la propriété de se développer à des températures voisines de 0° et se transmet par des aliments contaminés. Si chez un individu normal, ce germe se contente de donner des symptômes  de type grippal, chez une femme enceinte, il est cause de fausses couches,  de retard de croissance pendant la grossesse, de prématurité et même d’infections graves chez le nouveau né. C'est pour cette raison qu'on déconseille aux futures mamans les fromages au lait cru et les poissons fumés ou crus. La croûte des fromages ne doit pas être consommée. Les aliments préemballés seront préférés à ceux vendus en vrac ou à la découpe. Les aliments crus seront conservés séparément des aliments cuits. Les restes alimentaires seront soigneusement réchauffés avant leur consommation qui doit être immédiate. La température du réfrigérateur doit être surveillée et le réfrigérateur nettoyé fréquemment et désinfecté à l’eau javellisée.

 

A toutes ces mesures d’hygiène somme toute assez simples, s’ajoute le fait qu’une femme enceinte devrait toujours demander un avis médical en cas de problème infectieux… simple précaution pour que la grossesse reste l’heureux événement tant désiré.

 


14/02/2014
0 Poster un commentaire

Quand l’organisme est sous pression : petit tour d’horizon de l’hypertension artérielle

La mesure de la pression artérielle est un geste incontournable de toute consultation médicale qui se respecte. Mais la définition de l’hypertension artérielle reste assez floue... 

 

Elide Montesi

 

Le système cardio-vasculaire comporte une pompe (le cœur) propulsant un liquide (le sang) dans un circuit fermé de canalisations souples (les vaisseaux sanguins). La pression qui règne dans ces canalisations varie, à chaque cycle cardiaque, entre une valeur maximale et une valeur minimale. Ces valeurs sont toujours exprimées en millimètres (ou cm) de mercure (Hg). Ainsi une pression artérielle de 140/90 (ou 14/9) signifie que la pression atteint 14 cm de mercure lors de la contraction cardiaque, et chute à 9 cm entre deux battements. Ces chiffres dépendent de la force et de la fréquence des contractions cardiaques, mais aussi de la résistance que les artères opposent à l’écoulement du sang : plus leur diamètre interne est rétréci, plus elles opposeront de résistance et plus il faudra de pression au sang pour pouvoir y passer.

La pression artérielle n’est pas constante. Elle varie chez une même personne en fonction des besoins de chaque instant : elle s’élève ainsi au cours d’un effort, en cas de stress, diminue au repos et varie avec la position. Elle augmente aussi avec l’âge. Plusieurs mécanismes de régulation, notamment un niveau des reins, nous permettent de l’adapter aux circonstances. Si ces dispositifs s’enrayent, une diminution (hypotension) ou une élévation de la pression artérielle (hypertension) s’ensuit, ce qui n'est pas sans conséquences.

 

Un diagnostic malaisé

Le diagnostic d’hypertension artérielle n’est pas si simple qu’on pourrait le croire. De nombreuses erreurs d’évaluation sont possibles, liées à l’appareil de mesure, à la personne qui prend la tension, à l’état du patient. On peut diagnostiquer à tort des personnes comme hypertendues parce que leur pression artérielle, pourtant normale, s’élève de manière excessive lorsqu’elle est mesurée par le médecin. On appelle cela « l'effet blouse blanche » ou « l'hypertension de la blouse blanche » selon que ces chiffres se normalisent ou non lorsqu’on répète la mesure au cours de la même consultation. A l’inverse, des personnes hypertendues peuvent échapper au diagnostic parce que leurs  chiffres sont toujours normaux au cabinet médical: on parle alors d’hypertension masquée. On ne peut donc pas se contenter d’une ou deux mesures isolées pour poser un diagnostic d'hypertension. Des mesures répétées et régulières dans le temps sont nécessaires, ainsi que le recoupement par des auto-mesures réalisées par le patient ou par un enregistrement ambulatoire de 24 h (ou plus). Ce dernier n’est d’ailleurs pas nécessairement le reflet le plus fidèle de la réalité … 

 

Essentielle ou secondaire ?

Les causes de l’hypertension sont multiples et mal connues. Une origine génétique multifactorielle n’est pas exclue. Dans 5% des cas, elle est secondaire à une perturbation des mécanismes de régulation. Certains médicaments peuvent aussi provoquer une hypertension artérielle; c’est le cas des décongestionnants nasaux (voir EQ 65) ou encore de la pilule contraceptive. Quand aucune cause précise ne peut être identifiée, l'hypertension est dite essentielle. Certains éléments favorisent sa survenue comme l’absorption régulière d’alcool, l’obésité, le manque de sommeil, le tabac, ou une consommation trop élevée en sel (sodium) dans l’alimentation. Le risque lié au sel est toutefois assez complexe : il suivrait une courbe en « J » c'est-à-dire qu'une trop faible consommation de sel entraînerait aussi un risque cardiovasculaire plus élevé, mais moindre qu’en cas de surconsommation. Il n'en reste pas moins vrai que le conseil de manger moins salé reste le plus souvent valable, ainsi que celui de perdre du poids en cas d’obésité (10% en moins suffisent), pratiquer une activité physique, arrêter de fumer, apprendre à gérer son stress,… Tous ces petits moyens augmentent l’efficacité du traitement médicamenteux. A un stade débutant, ces actions sur le mode de vie peuvent même suffire à éviter de devoir prendre un traitement.

 

Pourquoi traiter l’hypertension ?

L’objectif du traitement est de prévenir ou de réduire les dégâts liés à une surpression constante dans les artères. Une pression trop élevée favorise en effet les complications cardiovasculaires: infarctus, insuffisance cardiaque, accident vasculaire cérébral, insuffisance rénale. Il est prouvé que l’abaissement de la tension artérielle par des traitements appropriés s’accompagne de manière évidente d’une réduction de ces problèmes.

Le problème est de situer avec réalisme le seuil à partir duquel on peut dire qu'il y a bel et bien hypertension. Cette affection se diagnostique en effet sur des chiffres et non sur des symptômes. Il y a encore un quart de siècle, la cote d’alerte se situait au-dessus de 160 mm Hg de pression systolique et 95 de pression diastolique. Actuellement, l’OMS définit comme hypertendues les personnes dont la tension artérielle est supérieure à 140 /90 mm Hg. Mais cette définition est arbitraire et ne se justifie ni par la répartition statistique de la pression artérielle au sein de la population, ni par une relation objective entre un seuil de pression artérielle et une augmentation du risque cardiovasculaire. Ainsi, après 80 ans, 60% des hommes et 75% des femmes ont une tension artérielle supérieure ou égale au seuil de 140/90 mm Hg. Jusque dans les années 70, on considérait cela comme une conséquence normale du vieillissement; actuellement, c'est devenu une indication de traitement. Et récemment, certains ont créé la notion de pré-hypertension pour les sujets avec des pressions normales hautes (120-139/80-89 mm Hg)… Plus les chiffres dits « normaux » sont bas, plus il y a évidemment de gens à traiter. Ce flou artistique entre normal et pathologique a aussi pour conséquence d’étendre le marché des antihypertenseurs… 

Chez un hypertendu sans autres problèmes de santé, on vise donc une tension inférieure ou égale aux 140/90 mm Hg. Pour les patients diabétiques ou insuffisants rénaux, la barre est encore plus basse. A l’inverse on se méfie de trop réduire la tension artérielle chez les personnes de plus de 80 ans, car cela peut être à l’origine d’orthostatisme (chute de tension au changement de position) provoquant des chutes aux conséquences immédiates parfois dramatiques. Par ailleurs si traiter l’HTA au-delà de 80 ans réduit le risque d’accident vasculaire cérébral, cela n'améliore pas la mortalité globale …

 

Un traitement à choix multiple

A l’heure actuelle, les médecins jonglent avec sept classes différentes de médicaments pour agir sur les mécanismes de régulation de la pression artérielle. Les plus récents (inhibiteurs de l’enzyme de conversion, sartans, inhibiteurs de la rénine) bloquent le système hormonal régulateur principal de la pression artérielle (système "rénine-angiotensine"). Mais les découvertes les plus récentes n’ont pas relégué aux oubliettes les remèdes plus anciens comme les diurétiques ou les molécules dilatant les artères par des mécanismes variables.

Tous ces médicaments peuvent être prescrits seuls ou associés par deux, trois voire plus selon le stade de l’HTA et l’état général. Si ce traitement antihypertenseur doit bien souvent être pris à vie, le type de médicament prescrit, les associations ou les dosages sont sujets à des modifications en fonction de l’évolution et de l’âge du patient, de l’apparition d’autres pathologies ou des effets secondaires.

Pour être efficace, le traitement nécessite d’être bien suivi. Mais la chose est d’autant plus difficile que l’HTA est une maladie silencieuse évoluant sur le long cours. La tentation est grande d’arrêter dès que « la tension est devenue bonne ». Par ailleurs, un traitement même bien suivi ne réduit pas à néant le risque de complications vasculaires… Traiter l’HTA multiplie par ailleurs le nombre de médicaments à prendre : en effet aux antihypertenseurs peuvent s’ajouter d’autres médicaments comme l’aspirine pour éviter le risque de thrombose ou ceux pour diminuer le cholestérol, autre facteur important de risque cardiovasculaire. Pour toutes ces raisons, on n'entame jamais à la légère un traitement antihypertenseur.

 

 Et si l’HTA fait de la résistance ?

Pour les patients « disciplinés » dont l’hypertension artérielle résiste au traitement médical maximal (quatre antihypertenseurs et plus), on peut tenter une technique de pointe – toujours en cours d’évaluation – qui est la dénervation rénale. Elle consiste à diminuer l’activité du système nerveux sympathique rénal en chauffant ce dernier brièvement par des ondes de basse fréquence. La recherche actuelle pour le traitement de ces hypertensions résistantes s’intéresse aussi à la stimulation des sinus carotidiens par l’implantation d’électrodes au niveau des récepteurs de pression présents dans les carotides.

 

 

Références : voir www.equilibre-magazine.be

 


14/02/2014
0 Poster un commentaire

Cancers et virus : petite cause grands effets ?

Les premiers travaux sur l’origine infectieuse des tumeurs datent d’il y a cent ans, mais à l’époque ils ne suscitèrent aucun intérêt notable car on pensait que ces découvertes faites chez l’animal ne pouvaient se transposer en pathologie humaine.   Ce n’est seulement  qu’à partir de la deuxième moitié du XXe siècle que la base scientifique d’une relation entre virus et cancer fut de plus en plus étudiée au niveau humain. A l’heure actuelle,  on estime que les infections virales viennent directement après le tabac comme facteur de risque du développement de tumeurs cancéreuses.  Près d’un cancer humain sur cinq (entre 15 et 20%) serait associé à un virus.

 

Le premier virus cancerogène identifié, voici un demi-siècle, a été le virus d’Epstein-Barr (EBV) plus connu du grand public pour la mononucléose infectieuse.  Dans notre population, 9 personnes sur dix sont contaminées par ce virus au cours de l’enfance ou l’adolescence, contamination qui dans un très petit nombre de cas se manifestera sous la forme d’une mononucléose infectieuse.  L’EBV est associé au développement de tumeurs cancéreuses de type lymphomes. Ce virus a ainsi été découvert pour la première fois en 1964 en Ouganda dans les cellules d’une tumeur  appelée lymphome de Burkitt, affectant de très jeunes enfants. Dans l’hémisphère nord, on retrouve l’EBV associé dans près d’un cas sur deux à la maladie de Hodgkin.    Le rôle cancérogène de ce virus est conforté par le fait que certaines formes de lymphomes survenant chez des patients immunodéprimés (greffés ou sidéens) sont toujours EBV positifs.  L’EBV est aussi associé à certains cancers musculaires, de même qu’à des tumeurs malignes des glandes salivaires et urogénitales.

Mais la plus grande partie (80% ) des cancers induits par des virus est constituée par le  cancer hépatocellulaire et le cancer du col de l’utérus, le premier étant provoqué par le virus de l’hépatite B ou par celui de l’hépatite C, l’autre par certaines souches du Human papilloma virus, incriminé aussi de plus en plus souvent  dans l’apparition de cancers cutanés et bucco-pharyngés.  Le cancer hépatocellulaire, dont la fréquence est très variable sur les différents continents est le 8e cancer mondial. Il affecte un million de patients par an dans le monde.  

On parle ici de cancers provoqués directement par l’activité du virus dans la cellule infectée. Les patients infectés par le virus du SIDA sont aussi plus à risque de cancer en raison principalement de l’immunosuppression déclenchée par cette maladie mais il n’y a pas de cancer spécifiquement induit par ce virus, même si certaines protéines virales joueraient un rôle dans l’apparition du sarcome de Kaposi, un des cancers le plus fréquemment associé au VIH.  

 

Le cancer se caractérise par la prolifération anarchique de cellules d’un organe ou d’un tissu, prolifération cellulaire qui va envahir l’organisme, en perturber gravement le fonctionnement physiologique et entraîner la mort de ce dernier. Une fois transformée par l’agent oncogène, la cellule ne répond plus aux mécanismes de contrôles  naturels de sa multiplication. Et cette transformation se transmet à chaque nouvelle génération cellulaire.

Comment un virus peut-il mettre en route pareille transformation?

Un virus est un organisme réduit à la plus simple expression de toute forme de vie : des gènes. C'est-à-dire de l'ADN ou de l'ARN, emballé pour les plus gros virus dans une capsule de protéines, la capside.  Comme tout organisme vivant, l’objectif d’un virus est de se reproduire. Mais dans le cas du virus, sa reproduction ne peut s’effectuer qu’en squattant une cellule dont il va utiliser les infrastructures et les matériaux qu’il ne possède pas afin de mettre à exécution son programme de réplication. De là d’ailleurs par analogie,  l’appellation de « virus » utilisée pour désigner les logiciels malveillants qui entravent le fonctionnement normal d’un ordinateur pour pouvoir exécuter leur propre programme… Pour les virus à ARN, l’ARN viral est directement utilisé dans la cellule comme vecteur d’information et les informations de cet ARN viral vont être transcrites préférentiellement aux dépens de celles de la cellule contaminée. En ce qui concerne les virus à ADN, leur programme doit d’abord être traduit en ARN (par la machinerie de la cellule infectée)  avant de pouvoir être exécuté, toujours aux dépens du fonctionnement cellulaire normal. Qu’on se rassure tout d’abord : toute infection virale ne sera pas suivie d’une cancérisation : la fréquence des cancers associés à une infection par virus cancérigène est environ cent fois moindre que la fréquence de ces mêmes infections.

Par ailleurs, le virus à lui seul n’est pas suffisant pour déclencher le processus cancéreux. Il n’intervient qu’au tout début du processus de cancérisation. Des cofacteurs environnementaux , génétiques ou immunologiques sont nécessaires pour que la cellule acquière un phénotype cancéreux.    Par exemple, en Afrique centrale, une protéine produite par un champignon parasitant les arachides est l'un des cofacteurs les plus connus du virus HBV pour le cancer hépatocellulaire. En Europe, le carcinome hépatocellulaire induit par le virus de l’hépatite C survient sur un foie détruit par la cirrhose (alors qu’en Afrique il se développe sur foie sain).  La tumeur de Burkitt est quant à elle fréquente en Afrique subsaharienne car associée au paludisme.

 

Tous les virus ne sont pas non plus capables de transformer, loin s’en faut,  une cellule normale en cellule cancéreuse et le processus est loin d’être immédiat. L’infection par HPV n’est ainsi pas d’office synonyme de cancer du col. Cette infection est très fréquente chez les femmes et guérit d’ailleurs souvent spontanément. Seules 3 à 4 femmes sur dix contaminées par un papilloma virus  sont infectées par une souche potentiellement responsable d’un cancer du col utérin et seulement 3% parmi celles-ci sont à risque de développer une tumeur cancéreuse et ce après une période pouvant aller de 20 à 50 ans après l’infection initiale.  De même pour le cancer hépatocellulaire, seule une très faible proportion de personnes porteuses du virus de l’hépatite développera un cancer au cours des deux à quatre décennies après la contamination initiale.  Le processus de cancérisation de la cellule chez l’homme est très long car il implique une série de modifications génétiques conséquences d’erreurs induites par la persistance du génome viral (en tout ou en partie) dans la cellule humaine, parfois même intégré au sein de l’ADN cellulaire. Les mécanismes de cancérisation sont complexes et font encore l’objet de recherche. Les erreurs induites par le programme du virus dans le fonctionnement cellulaire vont se transmettre ensuite à toutes les générations cellulaires successives et ces erreurs s’accumulent au fil du temps.

 

Connaître le rôle de certains virus dans la genèse des cancers permet d’adopter des mesures préventives évidentes comme le dépistage et le suivi des patients porteurs du virus de l’hépatite B ou C ou  les mesures de protection contre les maladies sexuellement transmissibles comme le sont le VHB ou le HPV préviennent le développement des cancers susceptibles d’être induits par ces virus. La réalisation de frottis de col chez la femme est utile pour dépister l’infection par le HPV et assurer le suivi de cette infection, bénigne dans la majorité des cas mais dont la persistance est à risque de cancérisation.    Et nous ne reviendrons pas sur  l’intérêt de la vaccination  en particulier contre l’hépatite B…

 

 

 

Les virus ne sont pas les seuls agents infectieux responsables de cancer. A l’heure actuelle on étudie aussi par exemple  la responsabilité  de l’Hélicobacter pylori, bactérie connue pour provoquer des ulcères gastriques, dans le développement du cancer de l’estomac.  En Afrique de l'Est, la bilharziose (infection par le parasite schistosoma haematobium) est un facteur de risque de cancer de la vessie. Plus d'un quart des cancers survenant dans les pays en développement seraient liés à des agents infectieux. Pour les pays développés, cette proportion est inférieure à 10 %.

 

 


14/02/2014
0 Poster un commentaire

Trop de sel dans nos assiettes …

Trop de sel dans nos assiettes …   

Elide Montesi, publié dans le magazine Equilibre

 

Le sel appartient à notre culture alimentaire depuis l’aube de l’humanité.  Il a en effet été le tout premier moyen de conserver les aliments : la saumure, en diminuant le taux d’humidité des aliments, empêchait la prolifération bactérienne à l’origine de leur putréfaction. Le commerce du sel a aussi joué un rôle non négligeable dans l’histoire de l’humanité, rôle qui se répercute encore dans notre langage. En témoigne le mot salaire, qui désignait à l’origine la somme donnée aux soldats romains pour pouvoir se procurer leur sel, et nombreuses sont encore les expressions utilisant le mot sel qui démontrent son importance : mettre son grain de sel, une facture ou une blague salée…  

 

Super goûteurs

Outre ses propriétés de conservant naturel, le sel augmente la sapidité de la nourriture. Avec le sucré, l’acide et l’amer, le salé fait partie des quatre – cinq si l’on envisage l’umami ou perception du glutamate-  sensations gustatives de base que notre langue est en mesure de capter. Mais notre penchant pour le salé varie selon les habitudes socioculturelles mais aussi une prédisposition génétique influençant notre manière de ressentir plus ou moins intensément le goût des aliments – et donc le salé – de la même manière que nous ne percevons pas tous de la même manière les odeurs ou les saveurs. Les « super goûteurs »  consommeraient plus de sel pour masquer l’amertume d'autres aliments qu’ils perçoivent de manière plus marquée et désagréable tandis qu’à l’autre extrémité de l’échelle de perception, les « non-goûteurs » auraient tendance à jouer de la salière pour tenter d'accroître la saveur des plats.

 

Omniprésent et indispensable

Le sel, présent en quantité variable dans tous les aliments, est absolument nécessaire à notre organisme, et à la vie en général. Le sel est l’association d’ions sodium Na+ et chlorure Cl- :le goût caractéristique du sel est le résultat de cette association et non du sodium seul.  L'ion sodium Na+ est essentiel pour le fonctionnement du corps humain. Sa concentration correcte dans les liquides corporels (3.2 g/litre) assure l’hydratation normale de l’organisme en maintenant un volume liquidien adéquat (du taux de sel dépend en effet l’importance de l’appel d’eau). Le sodium est également indispensable au fonctionnement des cellules dites excitables que sont les cellules nerveuses et les cellules musculaires : ce sont les échanges (instantanés!) de sodium et de potassium à travers les membranes cellulaires qui génèrent les influx électriques responsables de leur action.

Pourtant de plus en plus de voix en santé publique s’élèvent pour recommander de limiter le sel dans notre alimentation.  Pour l’OMS, les apports journaliers en sel ne devraient pas dépasser  5 g; or, dans nos régions, la ration quotidienne de cette substance s’élève   à 7 g par jour chez 70% des gens voire même à 11g par jour pour 10% d'entre nous.

 

Une régulation stricte

La stabilité de la quantité de sodium de l’organisme repose sur l’équilibre entre son apport alimentaire et son élimination par les reins. Si le sodium fourni par l’alimentation augmente, le rein en augmente son élimination dans les mêmes proportions et en quelques jours, la situation se normalise. L’augmentation du sodium dans le sang stimule le système hormonal rénal (rénine-angiotensine-aldostérone) responsable de l’équilibre hydrosodé. Sous l’influence de ce mécanisme hormonal, face à un excès de sel, le rein diminue la quantité d'urine produite (dans le "but" de diluer cet excès de sel). Cette rétention d’eau entraîne une augmentation transitoire du volume sanguin ce qui conduit à une élévation transitoire de la pression artérielle. Cette variation de pression artérielle va à son tour corriger le volume sanguin en favorisant l’élimination du sodium en excès, avec pour conséquence un retour de la pression artérielle à sa valeur de base. Chez un individu sain, de faibles élévations de pression suffisent à corriger de grandes variations du taux de sodium. Toutefois, on peut imaginer que des excès continus de sodium, en stimulant de manière quasi permanente les mécanismes régulateurs rénaux, provoquent une élévation régulière de la pression artérielle avec à la clef le risque de développer une véritable hypertension artérielle responsable de complications cardiaques, cérébrales ou rénales... 

De nombreuses études expérimentales et épidémiologiques tendent à démontrer que l’excès de sel dans l’alimentation augmente effectivement le taux d’hypertension artérielle dans la population. Dans le même sens, on a pu montrer un abaissement des chiffres de la pression artérielle chez des hypertendus s'ils réduisent leur consommation de sel. Chez les personnes dont la tension est normale, la restriction en sel ne diminue que peu la pression artérielle, mais induirait pourtant une diminution du risque cardiovasculaire à long terme.

Le régime pauvre en sel a été longtemps le seul traitement de l’hypertension avant le développement de tous les traitements actuellement disponibles pour traiter l’hypertension.

 

Pas tous égaux

Mais nous ne sommes pas tous égaux devant le sodium … La réponse de la pression artérielle à un régime riche ou pauvre en sel est en effet variable selon les individus à tel point que l’on peut parler de « sensibilité au sel ». Plus un individu est sensible au sel et plus sa pression artérielle s’élèvera s'il augmente sa consommation de sel. Et donc, plus une personne est sensible au sel, plus elle va tirer de bénéfices en ne jouant plus avec la salière!  On constate d'ailleurs que la sensibilité au sel est associée à d’autres facteurs de risque cardiovasculaire et à un taux plus élevé de mortalité. En effet, les apports excessifs de sodium n’influencent pas le seul volume sanguin mais entraînent des altérations du muscle cardiaque et de la paroi des artères …

Aucun élément, à l’heure actuelle, ne permet d’affirmer avec précision qui est sensible au sel et qui va donc réellement bénéficier d’une éventuelle diminution de l’apport en sel. Cette sensibilité varie de surcroît en fonction de différentes situations (grossesse, médicaments, maladies, âge …) mais elle semble en général plus marquée chez les personnes à peau noire, les obèses, et… les hypertendus ! A défaut de savoir dépister  la sensibilité au sel, il semble raisonnable de réduire systématiquement les apports sodés.

Toutefois, la prudence s’impose avant d’instaurer un régime pauvre en sel chez les personnes âgées . Chez ces dernières, une nourriture plus insipide peut restreindre leur plaisir de manger et diminuer leur appétit au risque de provoquer un état de dénutrition dont les conséquences sont plus graves à un âge avancé que celles d’un excès de sel éventuel.

Chez les enfants, les apports de sel ne devraient pas dépasser 3 g par jour entre 4 et 6 ans, et 5 g par jour entre 7 et 10 ans. Les nouveaux- nés n’ont aucune réaction particulière quand ils goûtent du sel alors qu’ils sourient au sucré et grimacent à l’amer.  Cette indifférence pour le goût salé ou non des aliments est une bonne raison pour ne pas créer  chez l’enfant l’habitude de consommer une nourriture trop salée, habitude dont il est si difficile de se défaire une fois installée.  

Supprimer la salière de la table est donc un premier pas, essentiel. Eviter ou limiter le sel « caché » en est un autre tout aussi nécessaire. La balle est cependant dans le camp de l’industrie agroalimentaire car dans une alimentation quotidienne classique, les plus grands pourvoyeurs en sel sont le pain et les aliments préparés industriellement : charcuteries surtout fumées, aliments en saumure, conserves,  potages lyophilisés, chips…

La  guerre du sel est loin d’être gagnée,  mais s’il reste encore du chemin à parcourir, les pressions  exercées par les associations de consommateurs n’ont pas été vaines : la tendance actuelle semble aller vers une diminution de la teneur en sodium dans les plats préparés.  Mais la lecture des étiquettes reste une démarche encore très utile pour savoir quelle dose de sodium nous absorbons avec le « prêt-à-manger ».  A ce propos rappelons que le chiffre sur l’étiquette renseignant la quantité de sodium par portion doit être multiplié par 2.5 pour avoir celle de sel.

Le sel, au goût finalement si prévisible,  est loin d’être le seul condiment  susceptible d’agrémenter le contenu de nos assiettes : la gamme de saveurs multiples offerte par de nombreuses herbes aromatiques est tout aussi capable de surprendre nos papilles gustatives … et de rendre la nourriture tout aussi agréable en salant moins.

 

 

Le sel naturel, non raffiné, est un mélange de plusieurs oligo-éléments (chlorure de sodium, magnésium, calcium). Ce qu'on appelle fleur de sel sont les cristaux de sel récoltés à la surface des marais salants, dont la saveur change d’ailleurs en fonction des régions. La fleur de sel est donc  un sel non raffiné.

Tandis que le sel de cuisine, blanc, est du sel raffiné composé  à plus de 95% de chlorure de sodium (NaCl), le plus souvent au départ de sel gemme, extrait quant à lui des mines de sel.

 

 

Et l'iode?

 

Sel marin  ou fleur de sel- quelle que soit la région dont ils proviennent-  ne contiennent que peu d’iode même si ce dernier est abondant dans l’eau de mer.  Lors de la cristallisation du sel, l’iode en effet s’évapore. Le « sel iodé » est du sel raffiné enrichi expressément en iode.  Pour compenser l’insuffisance en apport d’iode dans nos régions, le Conseil supérieur de la Santé, recommandait en 2009 l’ajout (modéré) de sel iodé lors de la préparation du pain et a conclu depuis lors une convention- non obligatoire- en ce sens avec le secteur de la boulangerie.


14/02/2014
0 Poster un commentaire

Mais qu’est-ce qui les fait tant remuer ?

 

Le TDAH : des causes biochimiques ?

 

Au-delà des débats et des polémiques qui agitent les médias à propos du diagnostic parfois un peu rapide et du traitement médicamenteux du TDAH (trouble déficitaire de l’attention et hyperactivité), de nombreuses recherches sont en cours concernant les origines biochimiques possibles de ce problème de santé publique. Elide Montesi 

 

Une prédisposition génétique existe comme l’attestent la prépondérance masculine (80% des cas), le risque 5 fois plus élevé de voir d’autres enfants souffrir du même trouble dans les familles où l’on a déjà un enfant hyperactif ainsi qu’un taux de concordance 2,5 fois plus élevé pour les vrais jumeaux par rapport aux faux jumeaux. Plusieurs gènes seraient en cause. Mais la génétique n’intervient que faiblement dans le développement de ce trouble. Il s’agit d’un facteur prédisposant mais insuffisant à lui seul. D’autres éléments tant psychologiques qu’environnementaux sont nécessaires pour expliquer les perturbations au niveau des transmissions hormonales cérébrales entraînant inattention, hyperactivité et impulsivité, les trois symptômes caractéristiques du TDAH. Certains affirment qu'il faut pour ces enfants des régimes spécifiques excluant ou privilégiant certaines substances  D'autres incriminent la pollution. Des hypothèses qui ne sont pas tout à fait établies, mais qu'il est intéressant d'examiner.

 

Ils bougent comme ils respirent  ???

Impossible de parler de pollution sans évoquer le tabac. Plusieurs études aboutissent en effet à la conclusion que fumer pendant la grossesse prédispose les enfants au TDAH. Certes, les futures mamans qui fument se recrutent le plus souvent dans les classes socio-économiques défavorisées ou parmi celles qui ont une vie plus stressante, tous éléments favorisant aussi le TDAH et autres problèmes de comportement chez les enfants. Mais même en tenant compte de cela, le tabac consommé par les femmes enceinte est à lui seul un facteur de risque des déficits attentionnels. Le risque lié au tabac est par ailleurs proportionnel au nombre de cigarettes fumées par jour. Effet toxique direct du tabac sur le cerveau en développement ou conséquence du retard de croissance intra-utérin causé par le tabac puisque l’on sait que les enfants avec un trop petit poids de naissance sont eux-mêmes plus souvent prédisposés au TDAH ?  L’un n’exclut pas l’autre. Voilà donc un argument supplémentaire pour convaincre les futures mamans, si besoin en est, que fumer nuit à la santé du futur bébé comme à la leur d’ailleurs.

L’hypothèse d’une relation entre TDAH et la pollution automobile pendant la grossesse et même après la naissance par le biais de la toxicité des hydrocarbures a été avancée par certaines études. Les effets toxiques du plomb sur le cerveau sont bien connus. Mais le rôle des pesticides ou autres polluants atmosphériques reste controversé, même si certaines observations laisseraient entendre une relation possible entre troubles du comportement, criminalité et pollution atmosphérique. Mais si cette hypothèse mérite certes d’être vérifiée de manière plus approfondie quant à un lien direct de cause à effet, elle apporte de l’eau au moulin de tous ceux qui souhaitent que des mesures soient prises pour rendre l’atmosphère plus respirable.

Signalons aussi la fréquence plus importante d’hyperactivité après contamination intrautérine par les bisphénols A, molécules utilisées pour la fabrication des résines plastiques retrouvées dans le recouvrement intérieur des canettes, la paroi des biberons en plastique rigide, les ustensiles ménagers mais aussi dans les amalgames dentaires. On peut d’ailleurs logiquement penser que tous les éléments susceptibles d’altérer le développement cérébral du futur bébé, comme l’alcool ou les drogues, peuvent favoriser le TDAH si l’enfant est déjà génétiquement prédisposé

 

 Alerte rouge aux sucreries colorées

Une récente législation européenne du 20 juillet 2010 oblige à publier sur l’étiquette de certains aliments (en particulier bonbons, gommes et sirops pour enfants) à côté du  nom et du numéro de six colorants (E102, E104, E110, E122, E124 et E129) la mention : « peut avoir des effets indésirables sur l’activité et l’attention chez les enfants ». L’année précédente, les députés européens avaient pris une mesure interdisant ces mêmes additifs dans les aliments pour bébé dans un souci d’harmonisation des législations en vigueur dans les pays de l’UE. Ces décisions ont été prises après que certaines études ont démontré une augmentation non seulement de l’activité chez certains enfants souffrant déjà d’hyperactivité mais également chez des enfants bien portants. Ces colorants pourraient intervenir en perturbant les mécanismes d’action de certaines hormones cérébrales. Ces additifs n’ayant aucune valeur nutritive ajoutée, éviter d’y exposer les enfants même bien portants ne peut qu’être positif si le risque est avéré, et n’a aucune conséquence nuisible s’il est surestimé.

 

Omega 3, encore eux...

A la suite de la démonstration par plusieurs études d’une composition différente d’oméga 3 dans le sang des enfants souffrant de TDAH, certains ont recommandé un supplément de certains oméga 3 comme bénéfique pour ces enfants. Actuellement cependant, les bienfaits de ces oméga-3 présentés comme la panacée universelle tendent à être relativisés par la communauté scientifique. Cela  explique peut-être qu’au fil du temps les conclusions quant aux suppléments d’oméga 3 soient moins catégoriques. L’efficacité des omega3 est en effet plus que modeste par rapport aux médicaments.  En l’absence d’effets secondaires,  cette option est présentée comme une alternative possible surtout en cas de refus d’une prescription médicamenteuse. 

D’autres recherches ont abouti à la recommandation d’associer à ces suppléments d’omega3 certains oligo-éléments, en particulier du zinc et du magnésium avec à nouveau la conclusion que même si l’efficacité d’une telle mesure est limitée, à défaut de faire vraiment du bien, ça ne peut pas vraiment faire de tort.  

 

Supprimer les aliments allergisants ?

Certains vont plus loin et préconisent un régime alimentaire spécifique caractérisé par la suppression de toute une série d’aliments, le few foods diet. Cette recommandation est issue de l’observation que la proportion d’enfants souffrant d’allergies alimentaires est presque 5 à 7 fois plus élevée parmi les enfants atteints de TDAH. Cela ne signifie pas que les enfants souffrant d’allergie alimentaire ont un risque supplémentaire de TDAH Des essais ont été donc menés en supprimant de leur alimentation tous les produits réputés comme très allergisants tels que (entre autres) crustacés, poissons, œufs, cacahuètes, soja, chocolat, fromages, noix, blé, saucisses, hot-dogs mais aussi le raisin et les pommes, même chez les enfants ne présentant aucun signe d’allergie à l’un ou l’autre de ces aliments. Une récente étude publiée en février 2011 effectuée sur un groupe d’enfants TDAH par rapport à un groupe contrôle nourri de manière normale montre  une amélioration significative des tests de comportement et d’attention chez près de 8 enfants sur dix pris en charge de cette manière.   Cependant, très prudemment, les auteurs ne recommandent pas de pratiquer d’office ce régime particulièrement restrictif chez tous les enfants TDAH. Ils concluent simplement au fait qu’un tel régime pratiqué sous surveillance permet d’évaluer si le TDAH est provoqué par une hypersensibilité (qui ne serait pas de nature allergique) à la nourriture.

Mais les preuves ne semblent pas solides non plus pour justifier ce few foods diet.

En janvier 2012, la très sérieuse revue américaine Pediatrics publie un article dans lequel les auteurs,  après révision de toutes les études établissant un lien entre alimentation et TDAH,  remettent en cause l’intérêt de ces régimes trop ciblés considérés comme une « perte de temps et  perturbant la gestion des ménages ». Les effets positifs observés pour les régimes pauvres en aliments allergisants pourraient n’être qu’un effet placebo. Et les suppléments de fer, de zinc ou de magnésium ne se justifient que chez les enfants qui en manquent.

"Porter une attention plus soutenue à l'éducation des parents et des enfants pour qu'ils suivent un régime alimentaire sain, laissant de côté les aliments qui semblent prédisposer au TADH, est peut-être le remède pratique alternatif ou complémentaire le plus prometteur pour traiter l'ADHD» concluent avec un certain bon sens les auteurs.  

 

Toutes ces recherches autour des causes biochimiques du TADH ne doivent pas négliger que le développement des fonctions cérébrales, du comportement et de la personnalité est lié certes  à des facteurs de risque génétiques et neurobiologiques propres à l’enfant où à l’environnement physique mais aussi au contexte psychologique et social dans lequel vit l’enfant.

On finirait presque  par l’oublier tant notre vision occidentale du problème tend à médicaliser tous les problèmes.

 


14/02/2014
0 Poster un commentaire

Quand le sport devient une drogue

L’exercice physique et le sport sont de plus en plus encouragés car source d’innombrables bienfaits. Tout et tous pour le sport, de plus en plus jeune si possible, car c’est bon pour le physique et pour le moral, tellement bon qu’il semble qu’on pourrait en consommer sans modération.  Attention pourtant,  certains y deviennent accrocs, le sport  agissant comme une drogue sur le cerveau …(Elide Montesi, publié dans le magazine Body Talk juillet 2012)

 

 Accroc au sport ? Allons donc ? Comment cela se peut-il ? Et puis tant qu’à faire, mieux vaut cette drogue-là qu’une autre, non ? D’ailleurs, dans les années 70, les premiers à avoir observé le phénomène de dépendance à la pratique sportive l’ont qualifié d’addiction « positive » pour la différencier de l’alcoolodépendance ou des toxicomanies, jugées quant à elles, négatives.  Pourtant, les personnes dépendantes à l’exercice physique présentent les mêmes caractéristiques que les joueurs compulsifs, les accrocs du shopping ou les alcooliques ou les toxicomanes. Elles éprouvent selon la définition actuelle de ce problème « un besoin irrépressible et compulsif de pratiquer régulièrement et intensivement une ou plusieurs activités physiques et sportives pour obtenir des gratifications immédiates et en dépit des conséquences physiques, psychologiques ou sociales » au point de ne plus vivre que pour et par le sport.  Les sportifs amateurs, tous sexes et âges confondus sont aussi susceptibles d’en souffrir que les sportifs de haut niveau, parmi lesquels un tiers serait atteint.

 

 Du plaisir avant toute chose

 

La pratique du sport active des zones du cerveau appelées « circuits de récompense ».  Ces circuits de cellules cérébrales ont été sélectionnés par l’évolution pour favoriser à l’origine la survie : reproduction et recherche de nourriture.  Ces circuits de récompense sont sous le contrôle de nombreuses hormones (dopamine, sérotonine, endorphines, cannabinoïdes, catécholamines). L’alcool, la nicotine, les drogues piratent ces circuits en se substituant aux hormones naturelles. Les antidépresseurs ne font qu’interférer avec les hormones de ces circuits.  Le sport agit sur ces mêmes zones en stimulant la sécrétion par l’organisme des endorphines et des cannabinoïdes, avec pour résultat une sensation de bien-être physique et psychique. L’exercice physique est d’ailleurs recommandé et utilisé (en l’absence de toute contre-indication médicale) comme alternative ou comme complément aux traitements de l’angoisse et de la dépression.   Le sport aide à se sentir mieux dans sa peau et c’est bien la première motivation pour en faire : la recherche du plaisir.

Toutefois, un certain degré de dépendance est observé chez bon nombre de sportifs, même sans addiction vraie. Il est souvent difficile par exemple d’imposer aux sportifs une période de repos en cas de blessure. Lorsqu’ils sont contraints à l’arrêt, certains avouent parfois ressentir un certain degré de manque avec nervosité, irritabilité, anxiété,  sentiment d’état dépressif, (voire parfois boulimie pour compenser…). Et ces sensations peuvent être parfois tellement pénibles qu’elles poussent à reprendre l’entraînement plus tôt que prévu contre l’avis médical, malgré le risque de nouvelles blessures.   

 

Un usage inadéquat

Si toutes les personnes qui pratiquent du sport à quelque niveau que ce soit ressentent le plaisir de cette libération d’endorphines,  cette dernière n’entraîne pas automatiquement chez tous une tendance compulsive à la provoquer. 

L’explication biochimique ne suffit pas à elle seule pour comprendre pourquoi l’on devient accroc à une activité sportive.   Des facteurs psychologiques favorisent aussi ce problème de comportement.

Toutes les addictions sont des mécanismes d’adaptation pour surmonter les stress de conditions de vie difficiles. Les personnes accrocs au sport utilisent elles aussi un produit de manière inadéquate.

Faire du sport est un  moyen d’atteindre un idéal de perfection, d’harmonie esthétique en dépassant les limites physiques, ce qui entraîne la reconnaissance et l’admiration sociale.  Les accrocs au sport accordent énormément d’importance à l’image et la représentation corporelle dont ils ont une perception négative. L’enchaînement des entraînements à l’excès devient un moyen de contrôler son image tant dans le miroir que dans le regard des autres.  Ce trouble de l’image corporelle visant à obtenir une image de soi parfaite s’appelle bigorexie (par analogie et opposition à l’anorexie), une des facettes de l’addiction au sport retrouvée plus particulièrement chez les bodybuilders. Les plus accrocs parmi ceux-ci,  pour  perfectionner leur image n’hésitent pas à utiliser des produits comme le GHB (acide gamma hydroxy butirique)  au potentiel addictif connu, aggravant encore la dépendance.

La pratique compulsive du sport peut aussi se comprendre comme le moyen de soigner une souffrance psychologique provoquée par un manque affectif : le sport anesthésie ainsi la douleur comme le ferait une drogue. Parmi les accrocs au sport, on trouve d’ailleurs beaucoup de personnes qui ont renoncé à une addiction négative (alcool, tabac, ou autres drogues), substituant en quelque sorte une drogue dangereuse par une autre nettement plus bénéfique pour la santé et socialement valorisée. 

 

Une dépendance applaudie …

Plus on pratique un sport et plus le niveau est élevé et plus on est à risque d’addiction au sport.

Qu’on se rassure cependant, on n’est pas dépendant au sport parce qu’on en pratique de longues heures par jour.

Par contre, on peut s’inquiéter si toute votre vie ne tourne qu’ autour du sport. L’addiction au sport se caractérise en effet par  un changement radical du mode de vie qui devient centré de manière obsessionnelle sur l’activité sportive. Habillement, alimentation, organisation des horaires de travail,  loisirs, et jusqu’au choix du partenaire, le sport finit par envahir la vie sociale et la vie intime.

Mais on conçoit la difficulté tant pour le sportif que pour l’entourage de cerner le problème : n’est-ce pas admirable de sacrifier sa vie sur l’autel d’une aussi bonne cause ? On applaudit, sans envisager les conséquences négatives possibles d’un tel comportement.

Certains s’inquiètent de la vulnérabilité des sportifs de haut niveau qui arrivent en fin de carrière après n’avoir vécu que pour celle-ci. L’arrêt du sport intensif serait selon certains chercheurs susceptibles de favoriser le développement d’une autre forme de dépendance si le sportif ne trouve pas de compensation autre à la dépression et au sentiment de dévalorisation que pourrait susciter la perte de son statut. La question mérite d’être posée quand on connait l’investissement physique et psychologique de ces professionnels du sport soumis à une pression médiatique intense pour le culte de la performance. 

On peut aussi s’interroger sur le risque d’addiction au sport auxquels sont soumis les adolescents qui se préparent à une carrière sportive. Dans toutes les formes d’addiction (tabac, drogue, internet, jeux vidéo…) la personnalité joue un rôle déterminant et l’environnement extérieur sert à déclencher et à entretenir la dépendance.  Les adolescents perfectionnistes semblent plus prédisposés à développer cette forme d’addiction qui va être encouragée par les entraîneurs et coaches en charge de ces adolescents ainsi que par leur famille. On admire leur motivation extrême…

 

Pour un usage modéré …

Cette dépendance pour positive qu’elle soit, peut avoir pour celui qui en souffre des conséquences aussi dramatiques qu’une addiction « négative ».

L’addiction au sport prédispose tout d’abord aux blessures, les sujets accrocs ayant un comportement jusqu’au boutiste et n’acceptant pas les périodes de repos nécessaires à la guérison, pour éviter les symptômes de manque.

Pertes d’emploi, séparation familiale sont les autres conséquences d’une vie où l’essentiel du temps est consacré à l’entraînement au détriment du travail et des proches. 

Une autre conséquence réside dans le fait que la tendance au dopage est plus importante chez les sportifs accrocs.  Certains d’ailleurs abordent le phénomène du dopage comme le symptôme d’une « addiction à la victoire » dans une culture axée sur la performance et le sport élitiste aux enjeux financiers énormes.

Tout ceci n’a pas pour but de vous faire méfier de l’exercice physique et du sport, loin de là… Le sport ça reste une bonne chose… mais lui aussi peut-être à consommer avec modération ?  

 

 

 

 

 

 

 

 

 


14/02/2014
0 Poster un commentaire

Surfer sur les vagues de froid

Surfer sur les vagues de froid

 

 

« Il ne passera pas l’hiver » Ces mots prononcés souvent ironiquement traduisent la constatation d’une triste réalité à savoir que l’hiver est la période de l’année pendant laquelle on est le plus souvent malade et qui tue le plus…

Elide Montesi (publié dans le magazine Equilibre)

 

C'est un fait : plus la température diminue et plus la mortalité augmente. Les effets des vagues de froid hivernales ne concernent pas que les sans-abris qui décèdent d’hypothermie; toutes les personnes de santé fragiles sont aussi des victimes potentielles des rigueurs de l’hiver. D'une part, on meurt plus de maladies respiratoires en hiver, mais les maladies cardio-vasculaires, infarctus ou accidents vasculaires cérébraux, connaissent aussi un pic hivernal. Car les réactions de l’organisme pour lutter contre une baisse de température créent des conditions de moindre résistance aux infections et sont à même d’engendrer des complications de problèmes vasculaires préexistants.

 

Rhumes et grippes

 

« Common cold » en anglais, « raffredore » en italien pour désigner le rhume encore appelé « refroidissement » chez nous: le langage populaire, au mépris des données scientifiques, montre toujours du doigt les basses températures comme responsables des maladies hivernales les plus fréquentes. Peut-être ces croyances populaires comportent-elles une part de vérité ?

Certes on ne nie pas le fait que les infections respiratoires sont dues non au froid en lui-même mais aux bactéries et virus qui nous agressent. Si l’on est plus souvent malade en hiver ce serait en raison du fait que l’on vit plus en milieu confiné et dans une promiscuité propice à la diffusion des virus responsables des pathologies hivernales. La pollution atmosphérique plus importante l’hiver est aussi à prendre en considération

Mais la transmission des virus et autres germes, si elle est favorisée par les conditions de vie pendant l’hiver, dépend aussi nettement des conditions climatiques elles-mêmes, en particulier l’humidité relative de l’air et la température ambiante. Un récent rapport du centre australien d’épidémiologie concluait que la mortalité était plus importante pour les habitants de maisons mal chauffées en hiver. Contrairement au préjugé assez répandu selon lequel une bonne gelée « tue les microbes », un temps froid et sec est nettement favorable par exemple à la diffusion de virus comme celui de la grippe. On a constaté de fortes corrélations entre le niveau d’humidité absolue et la survie du virus de la grippe. Lorsque  la température baisse, l’air contient moins d’eau, ce qui favorise la survie prolongée du virus grippal et donc sa propagation.   

 

Gradient de température

 

Du flux de chaleur entre le corps et l’air ambiant dépend le confort thermique, la sensation de froid. Il existe un gradient de température entre la température centrale du corps (37° en moyenne) et la température  de la peau (de 25 à 30°) qui reste toujours cependant supérieure à la température extérieure. Plus l’écart entre la température interne et la température extérieure est grand, plus la sensation de froid est importante et plus l’organisme va mettre en route ses mécanismes de régulation thermique destinés à limiter les pertes de chaleur.

 

Le vent augmente encore plus les échanges de chaleur entre milieu interne et externe. La sensation de froid est toujours plus importante par temps venteux.  Une température de -10°C par grand vent (90km/h) sera ressentie de la même manière qu’une journée à -30°C sans vent. Le vent augmente les échanges de chaleur entre l’intérieur et l’extérieur du corps.

Le corps perd aussi plus de chaleur par temps froid et humide que par temps froid et sec sans vent : les  vêtements perdent jusqu’à 90% de leur pouvoir réchauffant lorsqu’il fait froid, venteux et humide.

La sensibilité de certaines personnes aux courants d’air est tout à fait compréhensible étant donné que ce n’est pas la température en tant que telle qui est importante mais la différence thermique. Inspirer un air froid augmente aussi la perte de chaleur via les poumons. En même temps il diminue les mécanismes de défense comme l’activité muco-ciliaire qui permet d’évacuer les sécrétions et celle des globules blancs responsables de la destruction des germes. Inhaler de l’air froid est aussi connu pour déclencher des crises d’asthme néanmoins, les infections virales font courir plus de risque aux personnes asthmatiques que le froid proprement dit.

 

Hypothermie

 

La sensation de froid – qui varie aussi avec l’âge, la condition physique mais également les facteurs psychologiques –  est donc très importante pour lutter contre le refroidissement. Car si on laisse la température interne descendre trop bas (en dessous de 35°), le corps sombre en hypothermie qui peut être fatale si elle n'est pas contrôlée (nous ne sommes pas de animaux hibernants! 

Ainsi, la conjonction de l'alcoolisme et de conditions de misère –  malnutrition, vêtements inadaptés ou insuffisants – souvent rencontrées chez les sans-abris favorise le décès par hypothermie. La vasodilatation provoquée par l’alcool explique l’impression fugace de réchauffement mais empêche l’effet protecteur de la vasoconstriction de s'exercer. L’alcool provoque par ailleurs une hypoglycémie alors que les besoins du corps en glucose sont augmentés par temps froid.

 

Chaudière interne

 

A l’instar d’une chaudière qui tourne plus souvent et plus longtemps lorsque les températures baissent, l’organisme va aussi travailler à augmenter la production de chaleur pour maintenir la température corporelle interne. Tous les systèmes organiques sont mis à contribution : vasoconstriction cutanée pour isoler les organes centraux, augmentation de la pression artérielle et accélération du rythme cardiaque pour redistribuer le sang aux organes avec pour conséquence une augmentation de la concentration de la plupart des éléments sanguins et de la viscosité du sang. Le métabolisme énergétique va augmenter grâce au tissu adipeux brun et aux hormones telles que l'adrénaline, le cortisol et le glucagon, de même que les hormones thyroïdiennes, ces dernières participant plus à l’acclimatation qu’à la réaction immédiate au froid. L'activité musculaire s’intensifie (frissons) y compris celle du cœur dont les besoins en oxygène vont ainsi être accrus.

Les personnes en bonne santé s’adaptent sans grands problèmes à tous ces changements mais celles à risque cardio-vasculaire (hypertension, hypercholestérolémie, maladie des artères coronaires), sont plus susceptibles de  complications par grand froid. En effet, l’augmentation de la viscosité sanguine et la vasoconstriction sont des facteurs de thrombose et donc d'accident vasculaire cérébral ou d'infarctus cardiaque chez des personnes qui ont une mauvaise circulation cérébrale ou coronaire. 

Les infections respiratoires joueraient aussi un rôle dans les complications cardiovasculaires plus importantes constatées pendant l’hiver. Elles sont en effet plus fréquentes au cours de cette saison, surtout chez les personnes non vaccinées contre la grippe. Signalons que les effets d’une vague de froid sur la mortalité tant respiratoire que cardio-vasculaire ne sont pas immédiats : une à deux semaines de délai sont observées dans le premier cas et deux à quatre semaines pour le deuxième. Ce délai s’explique parce que le décès est dû aux complications en cascade liées au froid et non directement à ce dernier.

 

Isoler!

 

Prévenir les effets néfastes du froid nécessite de s’habiller de manière adaptée, en augmentant l’épaisseur des vêtements pour créer une isolation thermique et en couvrant toute la surface du corps puisque la déperdition calorique est proportionnelle à la surface corporelle exposée. En revanche, la variation de température influençant plus les mécanismes de thermorégulation que la température elle-même, surchauffer les endroits de vie ne semble pas efficace : au sortir d’une maison surchauffée, le froid sera ressenti d’autant plus fort. Par ailleurs, si bonnet, écharpe et doudoune sont utiles pour améliorer le confort thermique en cas de temps froid, ils n’empêcheront évidemment pas de contracter la grippe ou tout autre virus en l’absence d’autres mesures préventives comme le lavage des mains, l’utilisation de mouchoirs à jeter, ou encore la vaccination des personnes à risque, si on veut qu’elles passent l’hiver ...

 

 

 

 

 

 

 

 

 

 


12/03/2013
2 Poster un commentaire

Manque de sommeil : une dette aux lourdes conséquences

Manque de sommeil

Une dette lourde de conséquences (publié dans le magazine Equilibre en 2011)

 

 

L’épidémie d’obésité qui est en train de submerger les pays occidentaux est une triste et incontestable réalité.  Malbouffe et sédentarité en sont indéniablement responsables mais un troisième coupable a été récemment mis en cause : le manque de sommeil !  

 

Au cours des dernières décennies, le temps passé dans les bras de Morphée a sérieusement diminué. Si au début du XXe siècle, la durée moyenne d’une nuit de sommeil était de 9 heures, à l’heure actuelle, on estime que les gens ne dorment plus que 7 heures environ. Ces deux heures auraient été surtout perdues au cours de la deuxième moitié du XXe siècle, en grande partie à cause de …la fée électricité! Pour commencer, la lampe à incandescence (1936), nous a affranchis du rythme de vie imposé jusque-là par le soleil. Cela a notamment permis d’instaurer le travail de nuit. La « pollution » lumineuse a réduit l’obscurité nocturne, propice au sommeil. Et enfin l’électricité a engendré la télévision, les jeux vidéo, internet et ses réseaux sociaux qui offrent, jour et nuit, loisirs et informations sans bouger de chez soi, amputant d'autant le temps de sommeil…

On pourrait aussi évoquer la pollution sonore ou le stress de nos rythmes de vie moderne qui rendent un grand nombre de personnes insomniaques : une personne sur deux souffre de troubles du sommeil à un moment ou un autre de son existence. Les horaires de travail des parents perturbent le temps de sommeil des jeunes enfants et les horaires scolaires ne respectent pas le sommeil naturellement décalé des adolescents. Par ailleurs, dans une société qui valorise rendement, efficacité et dynamisme permanent,  passer un tiers de notre vie à dormir semble du temps perdu. Et voilà comment s’installe une carence de sommeil …  

 

Le prix d’une dette …

Aujourd'hui, les scientifiques  s’interrogent sur les conséquences pour notre organisme de ces « dettes de sommeil »  qui affectent un nombre toujours plus grand d’individus. Et certains n’ont pas hésité à établir un rapprochement entre la réduction du temps consacré au sommeil et l’évolution à la hausse du BMI (index de masse corporelle) sur la même période, en évoquant une possible relation de cause à effet. Plusieurs observations vont dans ce sens. Ainsi, on a pu constater, dans de larges échantillons de populations, une association entre des courtes durées de sommeil et des BMI élevés. On sait aussi que les enfants n’ayant pas dormi un temps suffisant avant l’âge de 5 ans sont plus sujets à développer une obésité infantile.

 

Le chaînon manquant

Certaines hormones sont secrétées principalement pendant le sommeil, d’autres au contraire voient leur production se réduire au cours de cette même période. Le sommeil joue ainsi un rôle de régulateur hormonal : il remet en quelque sorte notre pendule endocrinienne à l’heure en évitant une accumulation de certaines hormones au détriment d’autres.  

Le lien entre manque de sommeil et prise de poids se situerait au niveau d’un trouble de sécrétion des hormones clefs réglementant l’appétit et la satiété, la ghréline et la leptine.  

La ghréline, découverte tout récemment en 1999, est produite entre autres par l’estomac, le pancréas et l’hypophyse. Elle active la sécrétion de l’hormone de croissance, stimule le centre cérébral de la faim et augmente de ce fait l’appétit. Elle est d’ailleurs la seule hormone dotée de ce pouvoir. Pendant la journée, sa concentration dans le sang augmente avant les repas et se réduit ensuite. Pendant la nuit, sa sécrétion diminue pour ré-augmenter au petit matin. On pense que son rôle est d'assurer la croissance harmonieuse de l’organisme en coordonnant la sécrétion d’hormone de croissance et la prise alimentaire, et en réglant ainsi l’équilibre énergétique. Les études sur la ghréline donnent à penser qu’elle joue un rôle déterminant dans la régulation du poids à long terme, ouvrant un champ d’investigations intéressant pour la découverte de nouveaux traitements contre l’obésité.

L'autre hormone clef de la régulation de l’appétit est la leptine, secrétée quant à elle par les cellules graisseuses. La leptine agit sur le cerveau pour diminuer la prise alimentaire en envoyant des signaux de satiété au centre de la faim. Le taux de leptine dans le sang  augmente avec la quantité de cellules graisseuses. Chez une personne obèse, les taux de ghréline sont plutôt bas tandis que ceux de leptine sont élevés : situation normale en somme, l’organisme cherchant à garder un contrôle sur la situation. Mais on parle aussi d’une résistance possible à la leptine dans cette situation. La leptine fait bien entendu aussi l’objet de recherches dans le domaine du traitement du surpoids et de l’obésité.

 

Qui dort peu… mange plus

Mais la sécrétion de leptine est aussi en relation avec la durée du sommeil. Des études ont permis de constater que les personnes dormant peu avaient un taux de leptine plus faible et un taux de ghréline plus élevé que ceux d’individus ayant une durée de sommeil plus longue. Passer de 8h à 5h de sommeil diminuerait ainsi le taux de leptine de 15,5 % et augmenterait celui de ghréline de 14,5% Parallèlement, le BMI augmenterait de 3.6%. En d'autres mots, une leptine basse et une ghréline élevée entraînent une stimulation de l’appétit, autrement dit dormir peu augmente l’appétit et la prise de poids s’ensuit… surtout si la nourriture est vite accessible, riche en calories et si le mode de vie est sédentaire. Le gain de poids provoqué par ce dérèglement de l’appétit provoque des perturbations dans la régulation de l'insuline, qui favorisent à leur tour la prise de poids et le risque de diabète de type II.

Les anomalies dues au manque de sommeil se manifestent  très tôt : des tests en laboratoire sur des jeunes de 20 ans en bonne santé ont montré qu’après 6 nuits de 4 heures de sommeil, les bilans sanguins étaient comparables à ceux de personnes diabétiques!

La situation se complique car l’obésité peut être à l’origine d’apnées du sommeil,  responsables à leur tour d’une réduction du sommeil. Le cercle infernal est lancé. Le taux de ghréline est d’ailleurs plus élevé chez les personnes obèses souffrant d’apnées du sommeil que chez les autres. Mais il diminue déjà après 2 jours de traitement de ces apnées par pression positive (CPAP). Le taux de leptine ne se modifie pas aussi vite mais il se réduit après 8 semaines de thérapie malgré un BMI inchangé.  

 

Le stress s'en mêle…

Leptine et ghréline ne sont pas les seules hormones perturbées par le manque de sommeil : la sécrétion de cortisol (hormone de stress) augmente aussi dans cette situation. Un taux de cortisol plus important dans le sang est responsable d’hypertension artérielle mais aurait aussi des effets sur la production de graisse abdominale. Une expérience effectuée chez des souris a montré que sous l’action du stress et du cortisol, la graisse abdominale augmentemais également la prise alimentaire, surtout pour les aliments riches en sucres.

 

Sommeil n’est pas sédentarité

On ne saurait donc trop recommander de dormir tout son content. Réduire son temps de sommeil, même pour s’adonner à une activité physique, est contreproductif. Une récente observation conclut par ailleurs que suivre un régime hypocalorique n’est pas rentable si l’on dort peu, la perte de poids se faisant à ce moment aux dépens de la masse musculaire avec perte de protéines et non de graisse.

On ne sait pas encore vraiment pourquoi un organisme qui dort trop peu réagit en augmentant l’apport d’énergie, ni si l’annulation de cette dette de sommeil renverse totalement la vapeur. 

Mais il semble en tout cas que le temps de sommeil est un élément à prendre en considération dès l’enfance pour prévenir obésité et diabète. Ne culpabilisons donc pas ceux qui font la grasse matinée : ils paient simplement leur dette !

 

 

A chaque âge, son temps de sommeil :

  • Un bébé a besoin de 18 à 20 heures à la naissance, puis 14 à 15 heures environ à 1 an et 10 à 12 heures au cours de sa petite enfance.
  • Un adolescent a besoin de 9 ou 10 heures de sommeil mais suite aux modifications hormonales de la puberté, le sommeil subit un décalage : endormissement naturel plus tardif (entre 23h et 1h du matin) avec réveil lent entre 9 et 10 h du matin.
  • Un adulte a besoin d'environ 8 heures (mais pas nécessairement continues …)

 

 


27/02/2013
0 Poster un commentaire

Contrairement à ce que l'on croit souvent ...

1) Les nouveaux traitements ne sont pas plus efficaces que les anciens

En fait, les nouvelles générations de médicaments ne sont pas toujours plus efficaces que les traitements plus anciens et leur introduction sur le marché répond plus souvent à des impératifs commerciaux qu'à des nécessités médicales. Mieux vaut tant pour les médecins que pour les patients ne pas se laisser séduire par les dernières nouveautés et se référer à des données scientifiques non entachées de conflit d'intérêt.

 

2)Les technologies médiales de plus en plus sophistiquées ne résoudront pas tous les problèmes de santé 

Moins de 10% du budget mondial de la recherche est dépensé pour les pathologies responsables de 90% des dépenses de santé publique. L'imagerie de plus en plus détaillée augmente le nombre d'interventions chirurgicales pas toujours utiles pour la vessie, les genoux ou la colonne. Il est bon de se rappeler que la plupart des maladies graves ne sont pas guérissables, les médicaments ont des effets secondaires, de nombreuses interventions médicales ont des résultats limités voire carrément insuffisants. Il faut renoncer à espérer des miracles de la technologie et plutôt investir dans l'apprentissage à supporter et à réduire les désagréments liés aux maladies. "Apprendre à vivre avec ce qui ne tue pas"... 

 

3) Détecter une maladie avant tout symptôme n' est pas toujours utile 

 Les dépistages ne sont pas tous utiles et peuvent avoir aussi des effets négatifs : diagnostics et traitement par excès, faux positifs avec anxiété et traitements superflus. Après 30 ans de dépistage de cancer de la prostate par le dosage du PSA chez les hommes on constate que le nombre de décès par cancer de la prostate n'est pas inférieur chez ceux qui ont été dépistés par rapport aux autres. Un dépistage régulier du cancer du colon chez un homme de 55 ans sans risque particulier réduit son risque relatif  de développer un cancer du colon de 18%. En d'autres termes, sa probabilité de ne pas mourir d'un cancer du colon en se soumettant au dépistage passe de 99.22% à ... 99.34%. Chez les personnes âgées, les traitements qui réduisent le risque de mourir d'une maladie spécifique modifieraient simplement la cause du décès sans  prolonger leur vie. Les check up sont donc à éviter, ne pas réclamer au médecin des examens non justifiés par un parcours diagnostique... 

 

4)Les facteurs de risque ne doivent pas toujours être soignés par des médicaments 

Les seuils de normalité pour le cholestérol, la pression artérielle, la glycémie, la densité osseuse sont revus continuellement à la baisse ... augmentant ainsi le nombre de "malades"... et le chiffre de vente de certains produits. Par ailleurs, le bénéfice d'un traitement est surtout visible chez les patients les plus gravement atteints, tandis que les effets secondaires d'un traitement sont surtout visibles chez les patients les moins à risque. Le premier traitement à adopter  est un mode de vie sain et équilibré : manger sainement et en quantité raisonnable, ne pas abuser d'alcool, ne pas fumer, pratiquer de l'exercice physique et avoir des hobbies diversifiés...

 

5) Les émotions et les états d'âme ne doivent pas être médicalisés

 A l'heure actuelle on a tendance à médicaliser la plupart des situations normales de la vie : la vieillesse, l'adolescence  la mort, le deuil, la perte d'un emploi, les échecs, la colère, le pessimisme, la tristesse. Les difficultés de la vie quotidienne ne sont pourtant pas des maladies mais des événements normaux dans l'existence. Par ailleurs, l'être humain a le droit d'être triste ou tracassé par ses difficultés : il faut se réapproprier le droit de pleurer ...

 

 


17/02/2013
0 Poster un commentaire

Echec des régimes amincissants Quand le corps résiste

Echec des régimes amincissants 

Quand le corps résiste

 

 

A suivre des régimes excessifs pour courir  derrière le poids « idéal »,  non seulement notre santé y laisse des plumes mais nous chassons des kilos… qui reviennent au galop! Car notre organisme n’est pas programmé pour maigrir.

Elide Montesi

 

Les médias nous renvoient avec insistance l’image d’une silhouette féminine élancée, au ventre plat et aux fesses hautes, qui ne s’altère pas avec l’âge. Finie par ailleurs l’image de l’homme d’affaire ventripotent, dont l’embonpoint reflétait la bonne santé de ses affaires… Place au jeune cadre dynamique à l’abdomen en tablettes de chocolat et qui, même vieillissant, conserve son allure svelte et sportive de jeune premier. De son côté, le monde médical s’acharne de plus en plus à dénoncer les dangers du surpoids et de l’obésité. Pour être en bonne santé, il faut é-li-mi-ner kilos superflus et bourrelets disgracieux. Au poids corporel,  vient ainsi s’ajouter celui d’une sensation d’anormalité, d’angoisse et de culpabilité suite à ce harcèlement médiatique et médical.

Doit-on s’étonner dès lors si nombre d'entre nous se laissent séduire par le chant des sirènes qui promettent le régime magique et infaillible pour  maigrir, de préférence sans effort ? Faire maigrir le peuple est devenu un excellent moyen de faire son beurre : tout un commerce juteux exploite l’obésité.

 

Un vrai problème

Certes nous ne nions pas que l’obésité, conséquence d’une vie de plus en plus sédentaire et d’une alimentation trop riche en graisses et en sucres, est un vrai problème de santé publique plus encore qu’une question d’esthétique.  Car les personnes en surpoids, en plus d’une mauvaise qualité de vie, voient en effet leur espérance de vie diminuée par  le diabète, l’hypertension artérielle, l’hypercholestérolémie, mais aussi certains cancers. Les problèmes articulaires comme l’arthrose sont aggravés, de même que les maladies respiratoires, tandis que la grossesse et l’accouchement sont plus compliqués pour les femmes obèses. Autant de raisons qui justifient une prise en charge, d’autant qu’il est prouvé qu’une perte de poids même limitée améliore la plupart de ces problèmes. Mais traiter l’obésité ne peut se limiter à suivre un ou des régimes.

 

… une réponse inappropriée

Tout d’abord une perte de poids n’est vraiment utile pour la santé que si l’obésité est très importante ou si elle est compliquée par des maladies. Les personnes en simple surpoids et par ailleurs en bonne santé ne tirent pas ou peu de bénéfices d’un régime amaigrissant. Ce sont elles pourtant qui, pour satisfaire à la mode, recourent le plus aux régimes extrêmes parfois des plus fantaisistes. Ceux-ci ne sont pas dépourvus de nocivité: carences vitaminées, fonte musculaire, fractures, calculs biliaires ou rénaux… tel est le prix de toutes ces diètes miracles. Perdre du poids peut être plus dangereux pour la santé que les kilos superflus.

Par ailleurs, la grande majorité des personnes au régime voient l’aiguille de leur balance se stabiliser malgré leurs efforts et remonter allègrement dès qu'ils relâchent leur discipline. Une étude comparant ainsi différentes interventions pour maigrir a  montré qu’après 5 ans, 64% des personnes avaient repris tout le poids perdu et 5% seulement avaient maintenu leur poids abaissé. D’où la spirale classique: nouveau régime, nouvelle perte de poids suivie d’une reprise. Ce que l'on ignore trop, c'est que cet effet yoyo est statistiquement associé à une élévation de la mortalité.  

 

Pas une question de volonté

Contrairement à une opinion encore trop souvent répandue, les personnes obèses ne reprennent pas du poids parce qu’elles seraient de mauvaise volonté et ne respecteraient pas les consignes diététiques. L’échec des régimes s’explique par des mécanismes physiologiques.

Maigrir n’est pas normal : un amaigrissement spontané cache bien souvent une maladie quelconque, responsable d’une consommation accrue d’énergie. Notre poids, génétiquement prédéterminé, est censé rester constant; il résulte de l’équilibre entre les rentrées alimentaires et les dépenses caloriques. On maigrit lorsque les dépenses sont supérieures aux rentrées, comme nos comptes en banque qui sombrent dans le négatif dès lors que les versements ne suivent plus pour couvrir les dépenses. A l’inverse, grossir équivaut à « épargner » sous forme de graisse l’excédent de calories ingérées et non dépensées. Le principe d’un régime consiste à diminuer les rentrées pour que le corps puise dans ses réserves. Le compte courant n’étant plus alimenté, on utilise le compte épargne.

Cependant, quelqu’un qui gère son compte en banque en « bon père de famille », s’il doit faire face à une importante diminution des rentrées financières, va adapter son train de vie en limitant les postes les plus coûteux pour diminuer les dépenses, et ainsi sortir du rouge sans grignoter son capital épargne.

Le corps humain réagit exactement de la même manière. Lorsqu’il est soumis à un régime hypocalorique excessif et carencé, on pourrait penser qu’il va brûler en priorité ses graisses excédentaires. En réalité, il va diminuer ses dépenses énergétiques en arrêtant d’entretenir ses muscles, ceux-ci étant le poste le plus cher du budget énergétique. Avec la fonte musculaire, le corps retrouve des calories disponibles. Et pis encore, suite aux régimes, le corps augmente sa capacité de stocker des graisses. On appelle pondérostat ce système de régulation hormonal du poids, par analogie avec le thermostat qui assure le maintien de la température d’un système. Le cerveau est renseigné en permanence sur les modifications des réserves d’énergie par la leptine (hormone de la satiété, produite par les cellules graisseuses) et la ghréline (hormone stimulant l’appétit, produite par l’estomac) et il réagit en conséquence. Interviennent aussi l’insuline et les glucocorticoïdes pour la gestion des réserves énergétiques.  Chez les obèses, le pondérostat semble réglé à un niveau plus élevé, augmentant l’appétit et réduisant les dépenses alors que la situation ne le justifie pas, tel l’avare qui évite les moindres dépenses et fait des économies de bouts de chandelles par peur de puiser dans sa cassette.  

 

« Bougez, éliminez »

Un régime seul, quel qu’il soit, n’est donc pas efficace. Cela ne justifie pas pour autant de recourir aux médicaments coupe-faim : ils sont inefficaces ou toxiques. Quant à la chirurgie de l’obésité, elle devrait être réservée aux obésités graves et compliquées. Mais un moyen aussi simple que l’œuf de Colomb permet de perdre du poids sans en reprendre: bouger!  Plusieurs études prouvent que le maintien du poids après amaigrissement n’est possible que si une activité physique est associée à la diminution des calories ingérées. En effet, si nous ne sommes pas programmés pour maigrir, nous sommes construits pour bouger. Notre corps stocke des réserves pour alimenter le travail de nos différents organes et surtout de nos muscles. Plus le travail musculaire augmente, plus les dépenses augmentent. Point n’est besoin d’ailleurs de se lancer dans la préparation d’un marathon : marcher tous les jours, prendre l’escalier plutôt que l’ascenseur, le vélo au lieu de la voiture, jardiner…  peut suffire.  Certes le corps va réagir en augmentant l’appétit pour reconstituer les stocks et il faudra contrôler la qualité et la quantité des apports. Mais de cette façon on agit sur les deux plateaux de la balance sans déséquilibrer l’un ou l’autre, en améliorant l’état général … et la silhouette.

Les régimes qui apportent trop peu de calories, ceux qui engendrent des carences en vitamines et ceux susceptibles de faire fondre nos muscles sont donc à proscrire puisqu’ils ne permettent pas une activité physique normale. La seule alternative valable pour éviter d’affoler le pondérostat est un régime équilibré de manière à éviter toute carence, et modérément hypocalorique pour que la perte de poids soit progressive.

Inutile aussi d’avoir des attentes irréalistes. Une perte de 10% du poids corporel est déjà suffisante pour améliorer la santé, autrement dit passer de 100 à 90 kg améliore déjà le bien-être sans provoquer de dégâts. Par ailleurs, pour éviter la reprise de poids, un soutien psychologique est plus qu’utile : groupes de paroles, psychothérapie mais aussi tout simplement soutien de l’entourage : quand les proches participent à l’effort tant diététique que physique, cela facilite aussi les choses.

(article publié dans le magazine Equilibre)

 

 


09/02/2013
2 Poster un commentaire