Nutrition, Science, Statistiques et Gloubiboulga

Je traduis en ce moment un article à haute teneur scientifique (dont le sujet est évidemment top secret…pas de fuites !), c’est pour ça que j’aborde ce sujet, qui touche en partie mon univers professionnel (à base de statistiques, peut-être moins de science). J’ai failli effacer cet article car je n’en étais pas totalement satisfait, il y a un fil conducteur, mais ça part un peu dans tout les sens, sans véritable construction, et j’aurais du l’agrémenter de davantage d’exemples concrets. Le manque de temps m’a poussé à abréger l’ensemble.  Je demande indulgence et clémence…


La science n’est pas simple, on le sait tous. La science nutritionnelle, encore moins. A vrai dire c’est même l’une des plus complexes, Gary Taubes a même baptisé un de ces articles « The Soft Science of Dietary Fat » soit la science légère des graisses alimentaires. Son travail depuis le début des années 2000 a consisté à traquer la mauvaise science dans le domaine de la nutrition.

La mauvaise science, en général fait un mauvais usage des statistiques. Voilà une liste de quelques erreurs souvent commises, par les professionnels…hélas !

Des études peuvent être conduites…avec des biais statistiques. Si c’est un biais de sélection des individus participant à l’étude, il faudra être vigilant quant à l’interprétation des résultats. Si une étude comme celle-ci dit que les femmes préménopausées perdent plus de poids grâce à ce régime,  on ne peut pas étendre de manière automatique ces résultats à toute la population, mais cela constitue un indice de plus.

Certaines études, souvent épidémiologiques, sont parfois menées en enlevant les individus qui « dérangent » les conclusions auxquelles on veut parvenir. Ancel Keys a ainsi éliminé de son analyse des pays comme la France qui avait un fort taux de cholestérol et une faible incidence des maladies cardiaques. Ainsi il a gardé les pays qui confirment son intuition. Et c’est probablement un des plus grands scandales scientifiques du siècle dernier.

Dans l’interprétation des données, il y a souvent confusion entre corrélation et cause. Une corrélation, calculée grâce à un ou plusieurs indicateurs statistiques indique seulement un lien très fort entre deux variables. Cela ne renseigne pas sur la causalité. On ne sait pas si c’est une hausse de la variable A qui engendre  de manière directe (et ici : biologique) une hausse de la variable B. Cela peut-être également un lien de causalité indirect : A influe sur C qui influe sur B. A n’influe sur C que via l’intermédiaire de B. Une locution latine résume ça : Cum hoc ergo propter hoc. Sur l’article que je traduis, il y a même un raisonnement scientifique douteux : Etablir une cause entre A et C, grâce à la corrélation entre A et B et entre B et C. Il est ainsi indispensable dans une étude épidémiologique de repérer les facteurs confondants.

En nutrition, toujours, une erreur que je vois souvent, c’est sur la définition des termes utilisés. Notamment lorsqu’il s’agit de régime, l’équipe qui prépare l’étude peut avoir sa propre idée. Ainsi un régime pauvre en glucides (aka low carb) peut être nommé ainsi si les participants ingèrent journalièrement 200 grammes de glucides. Pourquoi 200 g, et pas moins de 150 ou 100 ? Ce sont les valeurs les plus communément usées par les diéteurs, 200g, cela commence à être beaucoup.

Les raisonnements fallacieux, encore plus connus sous le nom de sophismes, sont courants !

Les études qui montrent des résultats pertinents…sur des rats et dont on étend abusivement ceux-ci sur l’homme aussi !

la science qui se trompe

Les meilleures études disponibles étant probablement les méta-analyses comme celle récemment publiée par Ron Krauss et dédouanant une bonne fois pour toutes les graisses saturées dans les maladies cardiovasculaires, et dont j’ai fait l’écho plusieurs fois sur le blog. Toutefois elles ne soient pas exemptes de tout reproches « Elle peut néanmoins elle-même être sujette à un biais de publication, les chercheurs pouvant avoir moins tendance à publier une étude concluant à une absence de résultat« .

Très souvent la science fonctionne plutôt ainsi : on a une théorie, et tant que personne n’arrive à la réfuter, c’est qu’on a pas mieux en stock. C’est le critère le plus communément utilisé, admis pour la première fois par le philosophe Karl Popper. Ainsi il est plus facile, au moins en apparence, de démonter une théorie, que d’en proposer une nouvelle…qui tienne la route. De cette manière, l’emploi d’hypothèses ad hoc est ainsi anti-scientifique, car invérifiable.  Par exemple, c’est se reporter systématiquement sur la génétique, quand un peuple présente peu de maladies cardiovasculaires. Non pas que les différences génétiques n’existent pas, mais avant d’invoquer le Mantra Génétique, il faut le démontrer. Cette invocation n’est pas scientifique en soi, c’est une…faiblesse, une croyance si on veut, qui réflète celle de son auteur.

Il y a loin de la coupe aux lèvres, le chemin vers la vérité scientifique est largement semé d’embûches ! Il faut donc, et contrairement à la grande majorité des journalistes, garder un minimum de scepticisme plutôt que de s’enflammer pour la moindre petite étude. Journalistes et scientifiques semblent même être opposés sur ce point, le journaliste fonctionnant plutôt sur l’immédiat, le sensationnalisme, et le scientifique, plutôt à petits pas, dans l’ombre et sans éclats, le plus souvent !

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s