Rechercher
Fermer ce champ de recherche.

Sur l’estimation des décès par toxicité de médicaments anticancéreux

Nous retrouvons ici avec plaisir la radicalité mathématique de Bernard Guennebaud autour d’une observation médicale doublement agaçante : d’abord parce qu’elle nous apprend que les patients cancéreux soumis à une chimiothérapie par 5-FU ont toutes les (mal)chances d’en mourir dès lors qu’ils sont porteurs d’un déficit enzymatique en DPD, que cette hypothèse est facile à lever par simple mesure de l’uracilémie, mais inexplicablement ce dosage n’est pas réalisé en routine. Et puis aussi parce que, pour convaincre du bien fondé de cette mesure, un certain nombre d’auteurs n’ont pas hésité à rédiger un article mathématiquement inepte … Bonne lecture.  

Introduction

En 2018, l’Institut National du Cancer (INCa) a publié un article à propos de la « Recherche de déficit en dihydropyrimidine déshydrogénase en vue de prévenir certaines toxicités sévères survenant sous traitement comportant des fluoropyrimidines. » [1]

https://www.e-cancer.fr/Expertises-et-publications/Catalogue-des-publications/Recherche-de-deficit-en-dihydropyrimidine-deshydrogenase-en-vue-de-prevenir-certaines-toxicites-severes-survenant-sous-traitement-comportant-des-fluoropyrimidines

Le résumé est le suivant :

  • « L’Institut national du cancer (INCa) et la Haute Autorité de santé (HAS) publient des recommandations sur les modalités de recherche du déficit en enzyme DPD dans le cadre de chimiothérapies comportant des fluoropyrimidines. L’objectif est d’éviter certaines toxicités très graves chez des patients déficitaires en enzyme DPD, enzyme qui contribue à l’élimination par l’organisme de ces médicaments.
    En février 2018, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) a préconisé la recherche d’un déficit en DPD pour tout patient concerné par une chimiothérapie intégrant des fluoropyrimidines. Pour détecter en pratique ce déficit, l’INCa et la HAS recommandent aujourd’hui la réalisation d’un examen : la mesure de l’uracilémie. »

Pour prendre une telle mesure qui a un coût et qui conduit à utiliser d’autres médicaments pour traiter les personnes concernées, il était important d’évaluer le nombre d’effets indésirables graves dont les décès pouvant être associés à l’usage des fluoropyrimidines. C’est ce qu’a tenté de faire une étude publiée en 2019 [2].

Les dix auteurs de cette publication dans une revue à comité de lecture (Elsevier) s’étaient donnés pour tâche d’estimer tout particulièrement le nombre de décès liés à la toxicité de ces produits (FP ou 5-FU en abrégé) utilisés contre des cancers. Leur premier et principal résultat s’exprime ainsi dans la publication (page 43) :

  • « The number of FP-related toxic deaths in France is estimated around 150 per year [95%CI 0 ; 820]. »

Traduction : « Le nombre de décès liés à la toxicité de FP en France est estimé à environ 150 par an [intervalle de confiance à 95% 0 ; 820]

On y trouve 3 nombres, 150, 0 et 820 qui, à eux seuls, pourraient interpeller le lecteur pour les 2 raisons suivantes :

1- La borne inférieure de l’intervalle de confiance est nulle. On peut aisément démontrer que sa borne inférieure est obligatoirement un nombre strictement positif.
 2- La valeur “moyenne“ 150 parait très décalée par rapport aux bornes de cet intervalle. La borne supérieure 820 est en effet très grande en comparaison de la borne inférieure 0 et de la valeur “moyenne“ estimée à 150. Certes, un intervalle de confiance n’est pas obligatoirement centré, contrairement à une croyance très répandue (annexe 4), mais là il s’agit d’une anomalie flagrante.

Pour répondre à ces interrogations qui interpellent tout œil un peu exercé, il est indispensable de comprendre comment cette estimation de 150 décès ainsi que le calcul de l’intervalle [0 ; 820] ont été effectués.
Les auteurs se sont appuyés sur une observation réalisée dans la région Centre Val de Loire en 2013-2014. Dans cette région, 513 malades atteints de cancers avaient été traités par des médicaments à base de 5-FU. Parmi eux un seul décès par toxicité médicamenteuse avait été constaté. A cette observation, les auteurs ont associé un intervalle de confiance à 95% qui, dans le texte publié, est présenté sous forme de pourcentage, soit une probabilité de 0,2% correspondant à l’unique décès auquel ils ont associé l’intervalle de confiance à 95% [0 ; 1%]. Comme 1/513=1,949/1000 les auteurs ont arrondi cette valeur à 0,2% plutôt qu’à 0,19%, du moins dans le texte mais pas forcément dans leurs calculs comme nous le verrons pour d’autres valeurs.

Qu’est-ce que l’intervalle de confiance ?

Tout le monde utilise cette notion popularisée par la fourchette aux élections. Tout le monde comprend que si la fourchette à 95% est [52% ; 58%] il y a 95 chances sur 100 pour que le nombre final de oui au référendum soit entre 52 et 58%. Tout le monde le comprend ainsi mais c’est faux !!!

L’intervalle de confiance à 95% signifie en réalité qu’il y a 95 chances sur 100 d’obtenir un échantillon qui fournira un intervalle de confiance contenant la vraie valeur.

Une fois l’intervalle obtenu, soit la vraie valeur s’y trouve, soit elle n’y est pas. Si la vraie valeur est 54% il apparaît ridicule d’affirmer qu’il y a 95% de chances pour que 54 soit entre 52 et 58 ! Dans l’ignorance de cette valeur, on pense pouvoir introduire une probabilité mais ce n’est pas notre ignorance qui crée la probabilité et heureusement !

J’ai calculé de manière “exacte“ les bornes de l’intervalle de confiance à 95% associé aux valeurs observées 513 et 1. Je vais les noter inf=4,94/100000 pour la borne inférieure et sup=0,0108 pour la borne supérieure. On peut facilement vérifier avec une calculatrice pour le bac (annexe 5) que ces valeurs sont pratiquement exactes quand on sait que :

1- La borne inférieure est caractérisée ainsi : si chacun des 513 malades traités a une probabilité de décès égale à inf, alors la probabilité d’avoir au moins 1 décès parmi les 513 malades sera égale à 2,5%. Avec la valeur 4,94/100000 elle vaut 2,5024% qui est donc une excellente approximation.

2- De même, la borne supérieure est caractérisée ainsi : si chacun des 513 malades traités a une probabilité de décès égale à sup, alors la probabilité d’avoir au plus 1 décès parmi les 513 malades sera égale à 2,5%. Avec la valeur 0,0108 pour sup elle vaut 2,514% qui est aussi une très bonne approximation.

Comment les auteurs ont-ils fait pour calculer ces bornes ?

Ils ont utilisé un calculateur en ligne proposé aux épidémiologistes (voir annexe 1). Ce calculateur propose 5 méthodes dont celle de Clopper-Pearson qui est qualifiée d’exacte. Tout indique que ce fut cette méthode que les auteurs ont utilisé. Elle donne, comme chacun pourra le vérifier, [0 ; 0,0108]. Bien que les auteurs publient [0 ; 0,01] pour ces bornes, ce seront ces valeurs qu’ils utiliseront par la suite dans leurs calculs.

Une borne inférieure nulle ? Impossible !

Il est aisé de démontrer que la borne inférieure d’un intervalle de confiance obtenu dans ces conditions a obligatoirement une borne inférieure strictement positive. Il suffit de reprendre la caractérisation que j’ai donnée pour inf en l’appliquant à inf=0 qui signifie que tous les malades traités ont une probabilité nulle de mourir du traitement. La probabilité d’avoir au moins 1 décès par toxicité du médicament sera donc nulle. Or il faudrait que cette probabilité soit égale à 2,5% pour être la borne inférieure de l’intervalle de confiance.

On peut penser que tous savent que cette borne ne saurait être négative car c’est une probabilité. Mais ils n’ont pas l’air de savoir qu’elle ne peut pas être nulle à moins qu’ils soient dans l’incapacité de lui substituer une valeur positive. C’est la première erreur lourde de conséquences et aussi très révélatrice des lacunes en connaissances théoriques partagées par l’épidémiologie et les épidémiologistes ainsi que par la biostatistique.

Une valeur positive, c’était pourtant très facile, il suffisait de demander une décimale de plus au calculateur !

En effet, celui-ci demande combien on veut de chiffres après la virgule, la valeur par défaut étant 4. C’est très certainement cette valeur avec laquelle les auteurs ont travaillé. Comme la vraie valeur est 0,0000494, si on ne demande que 4 décimales, le calculateur renverra 0 ! S’ils en avaient demandé 5, il aurait renvoyé 0,00005 ; avec 6 il aurait renvoyé 0,000049 ; avec 7 il donne 0,0000494 et avec 9 il renvoie 0,000049351 c’est aussi simple que cela ! Aucun des 10 auteurs n’y a rien vu. Allez sur l’annexe 1 et vous pourrez le faire.

Le Val de Loire c’est la France !

Dans le résumé on peut lire :
« Results: After extrapolation at national level, we estimated that 76 200 patients are currently treated annually with 5FU »

Traduction : « Résultats : après extrapolation au niveau national, nous avons estimé que 76 200 patients sont actuellement traités annuellement avec le 5FU »

Mais comment ont-ils trouvé ces 76 200 cas traités ? En faisant une première règle de trois en s’appuyant sur le nombre d’habitants dans la région Centre-Val de Loire rapporté au nombre d’habitants en France en 2014 (statistiques de l’Insee). Puis en enchainant avec une seconde règle de trois pour corriger entre 2014 et 2019 en tenant compte de l’augmentation de la population.
Pour soutenir de tels calculs, ils affirment que la probabilité de décès suite à une intoxication par ce médicament est homogène dans toute la France pour toutes les personnes traitées. Ils l’affirment en se rapportant au tableau 7 qui donne les rapports d’incidences de différents cancers (tête, colon, estomac …) entre la région référence et la France.

Cependant, les risques de décès médicamenteux ne sont pas uniquement liés aux nombres de cancers mais à la carence d’un certain enzyme chez le patient traité.Cette carence pourrait être plus grande, par supposition, dans les populations d’origine africaine ou autres. La répartition des populations d’origines diverses et vivant en France n’étant pas distribuée de façon homogène sur tout le territoire. Il faudrait conduire d’autres investigations pour soutenir ce que les auteurs affirment.

En fait, le plus sûr serait de connaître les nombres de décès dans d’autres régions de France en fonction du nombre de malades traités. Rien de tel dans la publication.

Cette cascade de règles de trois a conduit les auteurs à admettre que 76 200 patients avaient été traités par ce médicament en 2019.

Combien de décès en France par ce médicament ?

-« The number of FP-related toxic deaths in France is estimated around 150 per year »

Traduction : « Le nombre de décès liés à la toxicité du FP en France est estimé à environ 150 par an »

J’ai d’abord pensé qu’ils avaient formé là aussi une règle de trois en faisant 76200/513=148,54 qu’ils auraient arrondi à 150. Mais à y regarder de plus près, j’ai constaté qu’ils avaient fait un détour pour le moins inutile : ils avaient enregistré 8 effets indésirables graves (EIG) dont 1 décès soit 7 EIG non mortels. Ils appliquent alors la règle de trois à 8 en le multipliant par 148,54 pour obtenir 1188,32 qu’ils arrondissent à 1200. Puis ils font de même en partant de 7 pour obtenir 1039,78 qu’ils arrondissent à 1050. Il n’y a plus qu’à faire 1200-1050=150 et le tour est joué !

Qu’il soit utile et intéressant de savoir qu’il y a eu 8 EIG dans la région de référence, c’est un fait. Qu’ils en donnent une estimation nationale, même si leur calcul est très contestable, est dans la logique de leur publication. Mais à quoi cela sert-il de faire un tel détour par 8-1=7 pour l’évaluation des décès alors qu’on l’obtient directement ? Cela n’apporte rien mais ça fait du remplissage qui détourne l’attention, pouvant laisser croire que l’estimation par 150 résulterait de considérations plus complexes qu’une simple règle de trois s’appuyant sur le seul décès constaté.

Les données sont maigres, très maigres, alors il faut meubler comme disent les journalistes en direct à l’antenne quand il ne se passe rien.

Sans chercher à contester l’estimation par 76200 du nombre de cas traités en France, ce calcul est très aventureux car les 513 malades de la région retenue auraient pu avoir de la chance en n’ayant qu’un seul décès parmi eux. Cette observation est statistiquement compatible avec, par exemple, une moyenne de 3 décès pour 513 malades traités ce qui donnerait environ 450 décès parmi les 76200 malades. En effet, quand la proportion globale de décès est 3/513, la probabilité d’avoir au plus 1 décès dans un groupe donné de 513 malades vaut 19,8%.
Avec une moyenne nationale de 4 décès pour 513 malades traités, soit 600 au total, cette probabilité serait égale à 9% qui n’est pas négligeable.

Que ce soit clair, présenter cette estimation de 150 décès pour la totalité des malades traités comme étant une bonne estimation alors qu’en avoir 450 (et même plus) serait compatible avec l’observation faite sur une seule région est pour le moins cavalier vu l’importance de l’enjeu qui n’est pas un jeu. En amont de ces jeux numériques il y a des souffrances humaines qu’il ne faudrait pas oublier.

Avec les données publiées dans cette étude, il n’existe aucun moyen de réaliser valablement une telle estimation.

Il faudrait des données en provenance d’autres régions afin de s’assurer qu’elles sont comparables de ce point de vue. Imaginez ce qu’on trouverait si pour avril 2020 on estimait le nombre de cas hospitalisés pour Covid 19 en France à partir de l’Est de la France ou à partir de la Nouvelle Aquitaine.

Mais ces approximations méthodologiques ne sont rien à côté de celle qui va suivre pour attribuer à 150 un intervalle dit de confiance.

Intervalle de confiance ou de méfiance ?

  • « The number of FP-related toxic deaths in France is estimated around 150 per year [95%CI 0 ; 820]. » (page 43 col. 1)

Traduction : « Le nombre de décès liés à la toxicité du FP en France est estimé à environ 150 par an [95% CI 0 ; 820]. »

J’ai découvert avec cette publication que l’expertise médicale avait inventé une nouvelle notion : les intervalles de méfiance !

Ils se construisent ainsi : ayant obtenu 3 piles en lançant 10 fois une pièce, ce qui est tout à fait possible avec une pièce équilibrée (17,19% de chances d’avoir au plus 3 piles) et ayant obtenu un intervalle de confiance [1 ; 6] (ces valeurs sont imaginaires), les expérimentateurs se demandent s’ils pourraient estimer le nombre de piles qu’ils auraient pu obtenir s’ils l’avaient lancée 1000 fois. Une première estimation jaillit aussitôt : 300 ! Et comme une idée géniale n’arrive jamais seule, elle est aussitôt suivie d’une seconde avec l’intervalle de confiance [100 ; 600] pour encadrer la valeur 300 par d’autres valeurs qui seraient considérées comme étant compatibles avec l’observation qui pourtant se limite à 3 piles en 10 jets, ce qui est plutôt maigre. Mais là non, non, il faut dire les choses, il ne peut s’agir que d’un intervalle … de méfiance !!!

Je n’invente rien car, ayant obtenu cet intervalle [0 ; 0,0108] associé aux 513 malades traités dans une région de France, les auteurs n’hésitent pas à dilater cet intervalle aux 76 200 malades traités.

On a en effet 0,0108×76200=822,96 que les auteurs ont arrondi à 820. C’est là le secret de ce nombre mystérieux. Je n’ai aucun doute à ce sujet, il n’y a pas d’autres explications (annexe 1bis). Mais qu’en penser ? Pour les 76200 malades traités, l’intervalle de confiance à 95% associé à 150 est [127 ; 176] qui est pour le moins, très éloigné de [0 ; 820]. Chacun pourra le vérifier avec le logiciel de calculs (annexe 1).

Compte tenu des responsabilités immenses assumées par les experts médicaux, il y a vraiment là une ignorance particulièrement grave et inquiétante des fondements de la statistique. Il s’agit en effet du phénomène qui est à la base de toute l’analyse statistique de données, à savoir :

Quand la taille d’un échantillon est multipliée par 100, l’écart-type est multiplié par la racine carrée de 100, soit 10.

Notion d’écart-type

L’écart-type est un paramètre qui rend compte de la dispersion des données par rapport à la moyenne comme avoir 10 de moyenne au collège avec 10 dans chacune des matières ou 0 dans la moitié d’entre elles et 20 dans les autres. Ce fait a en particulier pour conséquence qu’il n’est pas possible de tester valablement sur des pourcentages car ils gomment la taille des échantillons. Ce phénomène est aussi à l’origine de la loi des grands nombres : quand la taille de l’échantillon croit, l’écart relatif entre la moyenne théorique et la moyenne observée aura tendance à se réduire (en probabilité), ce qui veut dire de façon simplifiée, que la moyenne observée aura de moins en moins de chances de s’écarter notablement de la moyenne théorique.

En probabilités-statistiques, l’unité n’est pas 1 mais l’écart-type qui est en particulier sous la dépendance de la taille de l’échantillon mais pas uniquement. Pour ces questions il est la racine carrée de np(1-p) où n est la taille de l’échantillon et p la probabilité de réalisation d’un événement pour chacune des n observations.

Par exemple, une pièce équilibrée lancée 100 fois a donné 50 piles. Avec p=0,5, l’écart-type vaut 5. L’intervalle de confiance à 95% est 50 ±2 écarts-type soit [40 ; 60] ou [40% ; 60%]. Si on l’avait lancée 10 000 fois les auteurs diraient qu’on obtiendrait 5000 piles avec un intervalle de confiance [4000 ; 6000] alors qu’en réalité il est [4900 ; 5100] car l’écart-type vaut 50 et que l’intervalle de confiance sera 5000±2 écarts-type soit 5000±100.
Bien que la largeur de l’intervalle de confiance passe de 20 à 200, sa largeur en nombre d’écarts-type ne change pas : c’est 4 écarts-type pour n=100 comme pour n=10 000 et, en proportions, il passe de [40% ; 60%] à [49% : 51%].

C’est le phénomène FONDAMENTAL et INCONTOURNABLE en probabilités-statistiques.

Et pour les effets indésirables graves, ça s’aggrave !

Il a été observé 8 EIG parmi les 513 patients observés. Les auteurs associent à cette observation l’intervalle de confiance à 95% [0,005 ; 0,026] simplification du résultat donné par le logiciel avec 4 décimales par défaut : [0,0049 ; 0,0263] qui correspond à la méthode par l’approximation normale plutôt que « Clopper-Pearson exact » qui donne [0,0068 ; 0,0305] qui est très différent. Cela aurait dû attirer l’attention des auteurs avant qu’ils fixent leur choix sur les plus mauvaises valeurs proposées par les 5 méthodes comme démontré dans l’annexe 3. Pourquoi ont-ils choisi l’approximation normale dans cette situation et une autre dans la première ? Mystère…
Une fois obtenu cet intervalle dit de confiance, ils déroulent en multipliant les bornes par 76 200 pour obtenir l’intervalle de double méfiance [380 ; 1980]. Le vrai intervalle de confiance en partant de 1200 pour 76 200 est [1135 ; 1273], ça change un peu !

Pour les effets indésirables généraux, on déroule !

Il a été dénombré 165 effets indésirables parmi les 513 :
« Among the 513 patients, 165 presented at least one FP- related SAE during the first 6 months of chemotherapy, giving an overall incidence of 32.2% [95%CI 28.1 ; 36.2]. »

Traduction : « Parmi les 513 patients, 165 ont présenté au moins un effet indésirable grave lié au traitement FP durant les 6 premiers mois de la chimiothérapie, donnant une incidence globale de 32.2% [95% CI 28.1 ; 36.2]. »

Obtenu par le logiciel (annexe 1), l’intervalle de confiance [28,1% ; 36,2%] est pratiquement commun aux 5 méthodes. On peut constater que lorsque la valeur observée, ici 165 sur 513, se rapproche de la moyenne, ici 513/2, les résultats donnés par les différentes méthodes se rapprochent aussi. C’est général. Puis les auteurs déroulent selon un scénario maintenant bien établi en multipliant les bornes par 76 200 pour obtenir les nombres qu’ils annoncent et qui ne définissent, en aucun cas, un intervalle de confiance :
« number of patients presenting a SAE in France is estimated at 24 500 per year [95%CI 21 400 27 600] »

Le vrai intervalle de confiance pour 24 500 observés parmi 76 200 est [24 247 ; 24 750] comme chacun pourra le vérifier avec le logiciel.
On peut préciser les calculs qu’ils ont pu faire car 165×76200/513=24509 alors que 165x76200x0,2%=25146 qu’ils n’auraient pu arrondir à 24500. On a ainsi la preuve qu’ils n’ont pas utilisé dans leurs calculs l’arrondi à 0,2% pour 1/513=0,1949%. L’écart peut paraître faible mais après multiplication par 165×76200 il ne le sera plus du tout ! Ces différences entre ce qu’ils affichent et ce qu’ils font compliquent la tâche pour vérifier leurs calculs. Cela signifie aussi que les auteurs écrivent pour être seulement lus et non pour que leur publication soit vérifiée.

FAUT-IL CONCLURE ?

On nous a enseigné à l’école qu’il fallait toujours une conclusion. Pourquoi ? Pour moi, c’est inutile voire nuisible. Chacun pourra en tirer les leçons qu’il voudra. Conclure c’est tenter de forcer la main ou la pensée au lecteur. Je termine par deux anecdotes.
Vers l’an 2000, j’ai eu l’opportunité d’échanger avec un statisticien. Je lui montrais certaines anomalies de l’expertise médicale. Il me dira :

« Il faudrait interdire aux médecins d’utiliser la statistique, ils font n’importe quoi avec ! ».

A la même époque, j’essaie d’en parler à un collègue. Il me répondra d’un ton assuré : « Y’a des gens sérieux qui s’en occupent ! »
Ces deux réponses délimitent le champ des réactions possibles. A vous de choisir, sachant que :

  • « L’expert dit l’état des connaissances. Sa fonction sociale est l’héritière de celle des mages de l’Antiquité. Il a longtemps bénéficié d’une autorité naturelle d’extraction quasi divine. Sa science était immaculée. L’avis de l’expert est consultatif… dans bien des cas, l’aspect hautement technique et pointu des expertises amène le décideur à suivre les conclusions de l’expertise pour prendre sa décision. Il est rare que la compétence de l’expert soit mise en cause. » [4]

Bernard GUENNEBAUD
Décembre 2021

ANNEXES :

Annexe 1 Calculs des intervalles de confiance
Cet exercice délicat est devenu très facile puisqu’il existe un outil de calculs en ligne destiné aux épidémiologistes.Version française : https://epitools.ausvet.com.au/ciproportion pour les calculs sur des proportions. Présentation du logiciel Epitools, “Outils de calculs épidémiologiques“ :

« Le site est destiné à être utilisé par des épidémiologistes et des chercheurs impliqués dans l’estimation de la prévalence de maladies ou la démonstration de l’absence de maladie par des enquêtes structurées, ou dans d’autres applications épidémiologiques. »

Pour effectuer les calculs il faut aller sur la version anglaise obtenue en cliquant en haut à droite sur le bon drapeau. En rentrant les données de la publication, soit 513 ; 1 ; 0.95 pour le niveau de confiance ; all pour avoir les résultats des 5 méthodes de calculs proposées par le logiciel et 4 pour le nombre de décimales (par défaut) on trouve ce que les auteurs ont très certainement obtenu :

Les bornes inférieures et supérieures sont des probabilités. La borne inférieure ne doit pas être nulle et la borne supérieure ne doit pas être égale à 1. On constate que 2 méthodes donnent des probabilités négatives pour la borne inférieure !!! On constate aussi que si 2 méthodes donnent des valeurs strictement positives, “Clopper-Pearson exact “ donne une probabilité nulle pour la borne inférieure ce qui ne doit pas être et pourrait faire remettre en cause le qualificatif exact.

Comme je l’ai expliqué, ce n’est pas une anomalie, ni une erreur, au contraire. La raison est qu’il n’y a pas suffisamment de décimales pour la borne inférieure. Si on demande avec 7 décimales, on obtient ceci :

Pour juger la qualité des calculs, il y a un verdict infaillible qui consiste à appliquer les critères qui caractérisent les bornes inférieures et supérieures de ces intervalles. Je connais bien la question car il y a 25 ans, j’avais passé beaucoup de temps pour réaliser des programmes de calculs pour ces intervalles de confiance. J’avais réalisé un programme sur ordinateur qui a disparu avec lui puis un autre sur une calculatrice Hewlett Packard dotée d’un langage extraordinaire. Malheureusement, le constructeur a abandonné le secteur calculatrices mais j’utilise toujours la mienne avec ce programme.

Le principe du calcul est simple, c’est le jeu du nombre mystérieux : une personne choisit un nombre entre 1 et 1000 qu’il faut découvrir. La bonne stratégie est de demander 500 ? Si elle répond “trop grand ! “ on demande 250. Si elle répond “trop petit“ on demande 375 ? Etc. A chaque fois on coupe en 2 l’intervalle dans lequel on a localisé le nombre cherché. On est certain qu’ainsi on trouvera le bon nombre au bout de 10 coups maximum car 2^10 est supérieur à 1000.
Cette méthode est classiquement utilisée en calcul numérique programmé pour rechercher un nombre qui ici doit correspondre à une probabilité de 2,5%. Ainsi, par une succession de “trop grand“, “trop petit“, on peut localiser le nombre avec une précision seulement limitée par les possibilités de calculs. C’est la méthode par dichotomie.
Avec ma calculatrice, j’ai calculé la probabilité associée à chacune des bornes proposées avec 4 décimales par les 5 méthodes du logiciel et j’y ai ajouté la mienne (dichotomie) :

Dans la version française, on peut lire ce commentaire sur les 5 méthodes proposées :

« L’intervalle de Wald (approximation normale) a souvent une couverture insuffisante, en particulier pour les n petits et des valeurs de p proches de 0 ou 1. Inversement, la méthode Clopper-Pearson Exact est très conservatrice et tend à produire des intervalles plus larges que nécessaire. Brown et al. recommande les méthodes Wilson ou Jeffreys pour n petit et Agresti-Coull, Wilson ou Jeffreys pour n plus large, offrant une couverture plus fiable que les alternatives. Notez également que l’estimation ponctuelle pour la méthode Agresti-Coull est légèrement plus grande que pour d’autres méthodes en raison du mode de calcul de cet intervalle. »

Le nombre 513 ne peut être classé dans les n petits. Pourtant on constate que les 3 méthodes censées offrir une couverture plus fiable que les autres sont désastreuses, même pour la borne supérieure.

En raison de ses résultats, la méthode Clopper-Pearson procède très certainement par dichotomie. C’est la SEULE façon d’avoir des résultats “exacts“ quelque soient les situations numériques, dans les limites du calculateur bien sûr ! Elle donne les mêmes résultats que ceux que j’obtiens avec mon programme.
Je peux donner un avis ferme et motivé, la seule méthode à utiliser est celle de Clopper-Pearson. Vous pouvez laisser tomber les autres sans regrets ni doutes. Je peux être très affirmatif sur ce point.
Mais il ne faut pas forcément s’arrêter à 4 décimales. On peut commencer ainsi puis essayer avec 6 pour observer les modifications car vous ne pourrez peut-être pas (probablement pas pour beaucoup de lecteurs ..) vérifier le résultat en calculant la probabilité associée. Il faut avoir en tête que l’intervalle de confiance donné sous forme de probabilités doit être entre 0 et 1 exclus.
Par exemple, on a 513 personnes traitées dont 512 qui ne sont pas décédées par toxicité médicamenteuse. Cherchons l’intervalle de confiance à 95% avec 4 décimales autour de 512 :
Clopper-Pearson donne [0.9892 ; 1.0000]. La valeur 1 n’est pas acceptable mais si on le demande avec 5 décimales on obtient 0.99995.

Annexe 1bis
Le 6/12/2021, j’ai pu recevoir une explication sur la façon dont ce nombre 820 avait été obtenu. Ce fut par l’un des auteurs, professeur de biostatistique dans un CHU :
« Le résultat que vous évoquez a été obtenu par extrapolation à la population française traitée par fluoropyrimidine de l’estimation du risque de décès calculée chez les 500 patients de la cohorte SIRCADE (Ingrand I et al, Br J Clin Pharmacol. 2020) qui était de 0,2% avec un intervalle de confiance de 0 à 1,1% (calculé par application de la loi binomiale). »

Dans la publication, la borne supérieure affichée était 1% soit 0,01 contre 0,011 ici et qui est l’arrondi à 3 décimales de 0,0108. Comme 76200×0,011=838,2 les auteurs n’auraient pu arrondir à 820 alors qu’avec 0,0108 on obtient 822,96 qui peut être arrondi à 820.
Mais le problème principal est qu’un intervalle de confiance se construit autour d’une valeur “observée“, qu’elle ait réellement été observée ou pas, cela ne concerne pas le calcul mais l’interprétation qu’on peut donner du résultat. Il ne semble pas avoir conscience de cela et il n’est pas le seul.
La valeur “observée“ qui donne 820 pour borne supérieure est 764. Chacun peut vérifier cela avec le logiciel : vous entrez 76200 et 764. Pour 95%, il renverra 0,0108 pour la borne supérieure, ce qui donnera 822,96. Il n’est pas possible de faire mieux avec des valeurs entières. Mais si les valeurs observables sont obligatoirement des valeurs entières, les bornes d’un intervalle de confiance peuvent ne pas l’être. 820 ne peut pas être la borne supérieure d’un intervalle de confiance à 95%. Par contre, 822,96 oui.

Annexe 2. Estimation du nombre total de cas traités
La publication décrit le processus suivi :

« Based on an annual total of 2940 cancer patients receiving FP-based chemotherapy in the Centre-Val de Loire area (890 capecitabine, 2050 5-FU), national extrapolation was based on year 2014 data from the French Institute for Statistics and Economic Studies (INSEE) showing 65,907,000 inhabitants for the whole country relative to 2,577,000 inhabitants in the Centre- Val de Loire region (i.e. 3.91%). Such an extrapolation is justified by the fact that cancer incidence is very similar between the Centre-Val de Loire region and the entire French nation (Table 7), but also by the homogeneity of French clinical practices via recommendations of clinical societies. It is thus estimated that 75,200 patients were treated with FP in France in 2014. Considering a French population growth rate of 1.29% between 2014 and 2019 (INSEE data), it is thus estimated that around 76,200 patients are currently treated annually in France. »

Les auteurs s’appuient sur un total de 2940 patients par an recevant une chimiothérapie par FP en Centre-Val de Loire. En 2014 la France comptait 65 907 000 habitants dont 2 577 000 en Centre-Val. L’incidence de ces cancers est considérée comme homogène dans toute la France. Aussi, une simple règle de trois donne 75 160 cancers traités par FP que les auteurs arrondissent à 75 200. Ils notent aussi un accroissement de la population de 1,29% entre 2014 et 2019 ce qui transforme 75 200 en 76 170 arrondi à 76 200.

Annexe 3. Intervalle de confiance pour 8 cas sur 513

On constate que l’approximation normale choisie par les auteurs est de loin la plus mauvaise des 5 alors que Pearson est la meilleure.

Annexe 4. Intervalles de confiance décentrés
Il est souvent accepté comme allant de soi que les intervalles de confiance doivent être centrés. C’est une croyance héritée des calculs par l’approximation normale simplifiée qui inaugure les cours sur l’intervalle de confiance. Mais il n’en est rien. Reprenons l’intervalle de confiance [0,0000494 ; 0,0108] pour le seul décès parmi 513. En multipliant par 513 on obtient l’intervalle de confiance pour les nombres absolus de décès : [0,0253 ; 5,54]. Cet intervalle est très décentré par rapport à 1, c’est clair.
Par contre, avec les 24 500 cas “observés“ parmi 76 200 l’intervalle [24 247 ; 24 750] est pratiquement centré sur 24 500.
Ce sont les conséquences du fait que 24 500 est très loin de 0 et de 76 200 alors que 1 est très proche de 0.

Annexe 5
Comment vérifier les valeurs de l’IC [0,0000494 ; 0,0108] avec une calculatrice pour le bac ? La borne inférieure est caractérisée par « probabilité d’avoir au moins 1 décès est 2,5% ». Ce qui équivaut à avoir « probabilité d’avoir 0 décès est 97,50% ». Or cette probabilité est (1-p)^513 avec p=0,0000494. 1-p est la probabilité pour un patient traité de ne pas décéder et cela doit se produire pour les 513 patients traités, d’où la formule. Une calculatrice pour le bac doit pouvoir calculer cela.

Notes et sources
[1] https://www.e-cancer.fr/Expertises-et-publications/Catalogue-des-publications/Recherche-de-deficit-en-dihydropyrimidine-deshydrogenase-en-vue-de-prevenir-certaines-toxicites-severes-survenant-sous-traitement-comportant-des-fluoropyrimidines
[2] https://www.ejcancer.com/article/S0959-8049(19)30756-7/fulltext
[3] Outil de calculs pour intervalles de confiance de proportions https://epitools.ausvet.com.au/ciproportion
[4] Marie-Dominique Furet Rapport sur l’indépendance et la valorisation de l’expertise venant à l’appui des décisions en santé publique Juin 2008 http://solidarites-sante.gouv.fr/IMG/pdf/Rapport_expertise_sante_publique_2008.pdf

Avertissement :
La rubrique commentaires est un espace d'échanges et de partages mis à votre disposition. Il vous permet d'exprimer brièvement vos idées, votre accord ou désaccord relatifs à l'article ci-dessus. Cependant vous devez respecter quelques règles simples à savoir vos propos doivent rester dans le cadre du sujet abordé, ils doivent être courtois et conformes aux règles élémentaires de la politesse et de la bienveillance. Tous les commentaires insultants, diffamants, menaçants ou appelant à la haine seront immédiatement supprimés. Nous vous remercions pour votre compréhension

Le site est modéré. Ne vous impatientez pas si votre commentaire n'apparaît pas rapidement.

30 Responses

  1. Houlà Bernard; Quel article pointu. N’ayant pas les compétences mathématiques adéquates, j’ai du mal à suivre mais merci de vous investir autant; Bravo.

  2. Il faut essayer de pointer là où vous accrochez.
    Je vais souligner 2 points :
    1- On ne peut pas inventer, même sous couvert d’un calcul, des données qu’on n’a pas observées.
    2- Le calcul d’un intervalle de confiance (à 95% par ex) ne demande pas que la valeur « centrale » ait été observée. Bien sûr ! Par contre si cette valeur n’a pas été observée on ne peut valider ni cette valeur ni l’intervalle pour tenter d’estimer la valeur cherchée.

    Exemple : ayant obtenu 3 piles en 10 jets et un IC à 95% [1 ; 6], il serait pour le moins cavalier de dire : « si j’avais lancé la pièce 100 000 fois, j’aurais obtenu 30 000 piles avec l’intervalle de confiance à 95%. [10 000. ; 60 000]. » Ce serait un peu trop facile !!!

    Plus besoin de se fatiguer à collecter de nombreuses données avec le temps que ça prend, l’argent que ça peut mobiliser et les efforts humains que cela demande. Plus besoin ! Trois petites multiplications et c’est bon !

  3. Conneries !!!…..

    La Mathématique n’a rien à voir avec la Médecine !!!…..

    La Satistique brouille les esprits, et on voit ce qu’il se passe

    avec le Stras-Cov-2 ….. Et je ne parle pas de « l’intelligence

    artificielle », qui n’a d’intelligence que celle d’un perroquet bien

    entrainé !!!…..

    1. Bonjour
      Si « La Mathématique n’a rien à voir avec la Médecine !!!….. », elle a à voir avec des observations, elle compile des données, encore faut-il correctement les exploiter et que l’on puisse les extrapoler.

      Les données – de l’échantillon – du Val de Loire [départements du Loiret, de Loir-et-Cher, d’Indre-et-Loire et de Maine-et-Loire.] transposées à l’ensemble de la France, ou même simplement à la Métropole cela pourrait avoir du sens en « supposant » que les mêmes causes ont les mêmes effets, ce qui ne semble pas être le cas en médecine, les caractéristiques des individus, de leur environnement (province vs mégapole), de leur mode de vie, de leur hérédité, de leur sexe, âge… n’étant pas les mêmes. L’hypothèse est d’autant plus fausse que cela a déjà été démontré depuis des décennies. Références à Politique Préventive du Cancer de Pierre Delbet (1944)
      CHAPITRE VIII GÉOGRAPHIE. — GÉOLOGIE. — DÉMOGRAPHIE pages 237 (251 dans le PDF) à 321 (337 dans le PDF).
      https://wiki.hackuarium.ch/images/d/d3/Delbet-PolitiquePreventiveCancer-MisEnPage-20140809.pdf

      L’Inca, Groupement d’Intérêt Public de par ses Missions*… sert peut-être davantage consciemment ou non, les intérêts de l’industrie pharmaceutique que ceux de la science (?)

      Quand les agences INCa et Santé Publique France rédigent une brochure publicitaire trompeuse sur Gardasil
      par Delepine, mardi 30 avril 2019
      https://www.agoravox.fr/tribune-libre/article/quand-les-agences-inca-et-sante-214732

      * https://fr.wikipedia.org/wiki/Institut_national_du_cancer_(France)#Missions

      Merci @ Bernard G pour le cours de mathématique

    2. Mathématiques et Médecines.
      Le médecin de ville ou de campagne qui tente de soigner ses patients un à un n’a que faire des mathématiques. C’est vrai et j’ai eu comme médecin, avant qu’il prenne sa retraite, un médecin dont les mathématiques n’étaient certainement pas sa spécialité préférée. Pour moi ce fut un bon médecin.

      Il y a aussi la médecine dite de santé publique qui « soigne » les populations si on peut dire. L’un de ses objectifs est d’évaluer l’impact sur une population des actions dites de santé publique qu’elle a pu conduire comme par exemple une campagne de vaccinations pour changer un peu …
      Elle collecte des données qui sont des nombres qu’elle essaie ensuite de traiter pour essayer de découvrir ce qu’ils signifient. C’est là que les méthodes statistiques vont intervenir. On peut a priori en penser ce qu’on veut, soutenir que c’est inutile et nuisible mais on est contraint de reconnaitre qu’ils le font et que leurs conclusions jouent un rôle très important dans nos vies à tous.

      Ce n’est pas ce à quoi nous assistons depuis 2 ans qui va démontrer le contraire. Sous la pression « d’études » conduites n’importe comment et où les mathématiques sont particulièrement malmenées tout en servant de caution, nous n’avons plus qu’à défaire la chemise et tendre le bras.

      Si nous voulons avoir une chance d’échapper à cette pieuvre tentaculaire, nous avons le devoir d’essayer de comprendre comment ils font pour démonter leur machinerie.

      Cette histoire d’enzymes et de traitements anti cancers semblait nous éloigner un instant de l’actualité sanitaire la plus brulante. En réalité elle nous y ramène par la méthodologie utilisée dans les estimations et évaluations.

      Le mathématicien Vincent Pavant pourrait en dire aussi : il disait avoir constaté qu’une équation utilisée dans ces évaluations n’avait pas la même unité pour ses 2 membres ! C’est comme si, disait-il, il y avait des vitesses d’un côté et des kilomètres de l’autre.

      Bien sûr étudier la méthodologie utilisée est une activité austère et aride. C’est le monastère mais c’est indispensable. Tout le monde ne peut pas le faire mais il faut qu’il y en ait qui s’investissent dans cette recherche et il faut les encourager, nous sommes très peu nombreux, trop peu nombreux à faire cela.

      Il y a aussi des bons moments où l’on peut éclater de rire tant les méthodes utilisées peuvent être ridicules comme, j’en ai souvent parlé ici, utiliser des souris non fécondées pour étudier la durée de gestation ….

  4. Bonjour Bernard, Merci,

    Chapeau Bernard! Enfin dans mon cas, c’est un bel entonnoir! 🙂

    Tout comme Inox, n’ayant pas les compétences, ( mon rôle dans Blanche Neige et les sept nains aurait été celui de Simplet ) , la conclusion sera instinctive. Si vous avez daigné prendre beaucoup de votre temps a décortiquer tout ces chiffres, c’est qu’il y a un gros gros loup.

    Bien a vous,

    __________________________________________

    Hors sujet,

    Suis tombé sur un article, en voulant allumer le feu. Il date d’octobre 2021. Vous devez être au courant.

    Un gène responsable des formes graves du Covid identifié a Strasbourg.

    Pourquoi certains patients atteints de Covid-19 sont-ils asymptomatiques alors que d’autres développent des formes graves, notamment le SDRA (syndrome de détresse respiratoire aigüe) ? Des chercheurs et chercheuses de l’Inserm et de l’université de Strasbourg au sein de l’unité U1109 « immunologie et rhumatologie moléculaire », en collaboration avec les cliniciens‑chercheurs des Hôpitaux universitaires de Strasbourg, se sont intéressés aux données biologiques et génomiques d’une cohorte ciblée de patients jeunes. Les patients hospitalisés en réanimation avec un SDRA ont été comparés aux patients Covid‑19 hospitalisés en secteur conventionnel. Ces études de cas ont permis l’identification d’une signature génique spécifique aux formes graves grâce à l’intelligence artificielle : le gène ADAM9. Les chercheurs français ont reçu l’appui d’experts de Genuity Science (Boston) et de l’université de Californie du Sud.

    https://www.actuia.com/actualite/adam9-le-gene-implique-dans-les-formes-graves-de-covid-19-identifie-par-lintelligence-artificielle/

    __________________________________________

    Expérience a faire, a vérifier,

    Sur les tests vendus en grandes surfaces. Pharmacie, sont-ce les mêmes? Les petits boitiers rectangulaires en plastiques, passer dessus avec une lampe infra rouge.
    Il serait possible de voir, en transparence, un trait, ou deux, selon les boitiers. Boitiers préparés pour sortir positif ou négatif?

    __________________________________________

    Sachons rester, malgré ces temps troublés, positifs. N’oublions jamais que les énergies négatives se nourrissent des tristesses, désespoirs et dégouts.

    Merci a tout les coeurs sur pattes.

    1. Vous avez du flair Violette, vous avez senti le GROS LOUP !
      Alors je vais vous faire flairer une piste…
      Le 13 mars 2019 l’EMA, l’Agence européenne du médicament, a publié des infos sur cette question et sur les estimations pour la France : 2% de décès à la suite de ces traitements anti cancers, soit pour 80 000 patients ainsi traités, 1600 décès estimés. Il est mentionné que ces estimations avaient été réalisées par la France (l’ANSM, notre agence du médicament).

      La publication étudiée dans mon article a été reçue par la revue le 16 août 2019 soit 5 mois plus tard. La revue a demandé une modification reçue le 27 septembre pour être acceptée le 30 septembre 2019 pour être publiée en 2020 dans le “Journal European of cancer“.

      Cette publication estime le risque de décès à moins de 0,2% soit 10 fois moins. Avec un nombre de traités estimés à 76 200 contre 80 000 par l’ANSM elle donne une estimation de 150 décès contre 1600.
      Là on s’interroge et je vous laisse vous interroger …

      1. Merci Bernard,

        M’en va vous donner mes modestes statistiques,

        Deux amis a mon papa, cancer de la prostate. Celui qui a refusé la chimio a vécu quatre années de plus.

        Bien a vous,

      2. alors Violette, pour vous remercier, je vous donne une crotte de plus sur la piste de l’animal : les données étudiées sont celles de 2014 pour une étude réaliée en 2019. Pourquoi 2014 plutôt que 2018 ou 2017 si les données de 2018 n’étaient pas encore disponibles ? Pourquoi ? Difficile à comprendre alors que notre ANSM était capable de faire une évaluation à 2% ?

      3. Parce que les asymptomatiques ne sont simplement pas des patients. Remettez les outils qui vous affirme le contraire en cause. Revoir la base c’est comme si vous mesuriez un niveau un instrument faussé.

        La science est scientiste depuis des décennies.L histoire viral est galvaudée, tout comme l isolation des virus qui n’a pas la meme signification pour tout le monde. Ces éléments fondamentaux ne sont plus fiables puisque chacun en a adopté la definition qui l arrange.

  5. J’apporte une précision : parmi les 513 personnes traitées qui ont été étudiées, il y a eu 165 EIG c’est à dire qui ont eu un effet indésirables graves dont 8 qui ont été frappés soit par un décès, soit par une incapacité ou handicap ou par un pronostic vital.

  6. Maths et Médecine  où « je t’aime, moi non plus ! » de Serge Gainsbourg.
    Ou encore ce médecin, d’abord formé par les maths avec un DEA de maths pures, qui fut expert des tribunaux pour défendre des victimes de vaccinations et qui écrivait qu’il n’avait jamais vu que les maths servaient à quelque chose dans ces questions.
    Ou encore Christian Perronne . Il faut l’écouter tout particulièrement à partir de la minute 13 quand il aborde les études randomisées [1]. Extraits :

    « C’est devenu horrible, la médecine a été complètement kidnappée  et c’est un mot gentil, par des méthodologistes, des épidémiologistes, des gens qui ont fait médecine mais qui sont derrière leur ordinateur et n’ont jamais vu un malade

    Un traitement pourrait être 100% efficace sur 20% des malades et ne pas marcher pour les autres. Dans ce type d’étude randomisées on ne le voit pas. Il faut être des débiles de mathématiciens complètement pervertis pour…Je n’ai rien contre les mathématiques qui sont une très belle science mais …Ils utilisent des formules mathématiques complètement perverses pour imposer leur diktat. Ces gens qui forment un petit groupe en France, ils sont peu nombreux, contrôlent les agences, font radier des médecins qui soignent leurs malades…. »

    J’approuve évidemment totalement ces propos. Les experts en santé publique croient qu’il suffit de faire des calculs pour faire des maths. Les maths commencent quand on accorde de l’importance aux conditions de validité des calculs.

    Pour les études randomisées auxquelles Christian Perronne faisait allusion, je donne maintenant cet exemple que j’espère pédagogique : un traitement a 40% d’efficacité sur les hommes et 80% sur les femmes. On a exactement le même nombre d’hommes et de femmes dans les 2 groupes traités et placébos. L’étude randomisée annoncera 60% d’efficacité et passera à côté du problème.  

    C’est l’histoire des choux qui ne sont pas tous au même prix. Règle de trois: 3 choux coutent 3€, combien coutent 10 choux ? « Facile m’sieur 10€ ! »  Non Kevin, ils coutent 13€ car il y a 7 choux à 1€ et 3 à 2€. ! « Les maths ça sert à rien, m’sieur, elles donnent jamais le bon résultat dit Kevin ! » Les maths ne disent pas que les 10 choux coutent 10 €, elles posent une condition « tous les choux doivent être au même prix. Sinon on fait comme la grande mère qui vendait ses choux au marché, on dissocie puis on fait une addition. » Elle avait à peine son certificat d’études mais elle ne se trompait pas contrairement aux grands experts en santé publique qui calculent tout faux avec bac+40.

    Sur le marché un autre vendeur de choux les propose à 1,53€, prix moyen, en concurrence avec celui qui propose les mêmes à 1,30 € prix moyen. Quel est le marchand le moins cher ?  « Le premier bien sûr , dit Kevin ! NON !!!! C’est le second  car il a 7 choux à 2€ et 3  choux à 1€ soit 17€ soit 1,70 € prix moyen. Comme il ne vendait pas il a accordé 10% de réduction soit 1,53 prix moyen. Il ne vend toujours pas mais c’est lui le moins cher !

    Comment procèdent nos grands experts en santé publique à bac +40 ?  Ils divisent les prix globaux des choux par le nombre de choux puis comparent les prix moyens. C’est ainsi en randomisation comme dans les tests cas-témoins.
    Ils disent qu’ils font des mathématiques, récupérant ainsi le prestige accordée à la discipline. La première erreur est de les croire sur ce point.C’est pourquoi il est très important de traiter aussi ces questions même si beaucoup sont allergiques. Ils alignent seulement des calculs sans tenir compte des conditions de validité. C’est d’abord là le problème.

    Je rappelle ce mot d’un statisticien universitaire qui me disait, quand j’échangeais avec lui sur la façon dont la médecine use des statistiques : « il faudrait interdire aux médecins d’utiliser la statistique, ils font n’importe quoi avec ! »

    [1] Une nouvelle vidéo toute récente (16 janvier) de Christian Perronne en 2 parties :`

    https://www.youtube.com/watch?v=8wPiYC8Qam8. Sur Youtube pour débuter puis sur https://www.gettr.com/streaming/ppbjdd5f87
    pour la suite fort passionnante. GRAND BRAVO à Christian Perronne!

    1. Certaines statistiques sont tout de même utiles ! Ainsi apprend-on aux USA, lors d’une table ronde hier avec le sénateur Ron Johnson, que les cancers et les fausses couches avaient augmenté de 300% par rapport à la moyenne des cinq dernières années. Et que les problèmes neurologiques qui affectent les pilotes, de 1 000 %. C’est dix fois plus, de 82 000 par an à 863 000 par an. En Grande Bretagne, l’ONS (Office national de la statistique) a confirmé qu’il y a eu une augmentation significative du taux de mortalité des adolescents de sexe masculin au cours des huit derniers mois, par rapport à la même période de 2015-2019. 80 scientifiques ont demandé une enquête avec une réponse dans les 7 jours.
      https://lemediaen442.fr/departement-de-la-defense-des-usa-fausses-couches-et-cancers-ont-augmente-de-300-les-problemes-neurologiques-de-1000/

      En Espagne, Rafael Cascón Porres, chercheur à l’Université polytechnique de Madrid (UPM), est intrigué, comme de nombreux experts, par la surmortalité. En novembre, il y a eu 2 994 décès de plus que prévu. Selon les données du ministère de la Santé, au cours de la même période, environ 640 personnes sont mortes du COVID, donc les chiffres ne correspondent pas.
      https://www.msn.com/es-es/entretenimiento/noticias/preocupaci%C3%B3n-en-espa%C3%B1a-por-la-cantidad-de-muertes-sin-causa-conocida/ar-AAT0gFl?ocid=st

      En France, la préoccupation de Véran ce n’est ni l’augmentation des cancers, fausses couches ou décès d’ados mais l’augmentation des non vaccinés ! « Il reste encore neuf millions de Français qui à la date du 15 février pourraient perdre le bénéfice du pass. »
      https://lemediaen442.fr/olivier-veran-sinquiete-de-laugmentation-de-non-vaccines-neuf-millions-cest-plus-que-ce-que-nous-avions-connu/

      Pas étonnant que Véran crée des dérapages !
      https://www.youtube.com/watch?v=v9u-Am7PYUQ

      Mais il il peut s’en foutre ! La Cour de justice de la République a classé sans suite 19.685 plaintes visant Jean Castex, Olivier Véran ou encore Jean-Michel Blanquer…
      https://francais.rt.com/france/95095-pandemie-cjr-classe-sans-suite-pres-de-20000-plaintes-contre-membres-gouvernement-covid-19
      Et puis, s’il y a une guerre, toutes les autres plaintes ne pourront pas non plus être traitées ! Comme celle contre Macron qui a fait interdire le 31 mars 2020 les malades âgés d’aller à l’hôpital. Sans doute est-ce pour cette raison qu’il est prêt à envoyer son armée en Roumanie contre la Russie !

      1. Celle là elle est bonne ; » D’autres plaintes accusaient Jean Castex et Jean-Michel Blanquer d’«extorsion», soutenant que «du fait de la réglementation relative au pass sanitaire», ils avaient sciemment exercé «une contrainte morale» dans le but de «contraindre les Français à se faire vacciner». Or, d’après la CJR, «le passe sanitaire n’étant pas obligatoire et alors qu’il existe des alternatives pour mener une vie quotidienne normale, aucune contrainte morale […] ne saurait être retenue».

        C’est de l’hypocrisie pure et simple, de la mauvaise foi complète et même de la collusion avec le Castex et ke Blanquer ! Comme s’il y avait des alternatives pour les enfants privés d’activités sportives ou culturelles si pas de Pass ou encore pour voyager hors frontières ou simplement prendre un TGV pour un déplacement rapide et urgent.
        Pour moi, la seule solution à tout cela c’est de virer l’Emmerdeur en Chef Elyséen et sa bande de clowns façon « Ca » avec les prochaines élections présidentielles et seul 2 candidats bien placés se sont engagé fement pour la suppression des Pas « Z » et MLP » ! La fin de obligations vaccinales  » les 11″ suivra peut-être lorsque ces candidats une élus accèderont à tout ce que ces tyrans auront caché , seul le Président de la Ré^publique peut lever l » Secret Défense » bunkérisé pour cacher toutes le magouilles de la Covid! C’est là qu’on verra les « chiffres manipulés »et bien d’autres choses, c’est ce qui lui fait vraiment peur à ses complices…

      2. Cette plandémie nous mène à une technocratie néo-communiste comme l’a bien compris ce jeune député des Pays-Bas !
        https://vk.com/guillemant?w=wall479574356_5431

        Les journalistes mettent du temps à s’en apercevoir, mais quand on a 4 mini AVC après vaccination, cela change tout :
        https://twitter.com/i/status/1485727446850756608

        Les mensonges de Véran vont commencer à se remarquer :
        https://t.me/trottasilvano/18151?single

        Et les directeurs d’école qui maltraitent les enfants vont enfin pouvoir être aussi honnis !
        https://t.me/trottasilvano/18147
        Justement un appel à témoignage a été lancé à tous les jeunes pour qu’ils racontent ce qu’ils vivent à cause de ces professeurs pervers qui par exemple font porter un masque de 8h à 17h à des petits de moins de 10 ans depuis des mois pour rien !
        https://www.youtube.com/watch?v=cq9HlWFjIs8

      3. On peut ajouter Lise que le 26 janvier 2022, le ministère des Solidarités et de la Santé a décidé que le consentement soit du ‘Parent 1’ soit du ‘Parent 2’ (chez les globalistes il n’y a plus de père ni de mère) était suffisant pour faire vacciner un enfant de 5 à 11 ans. Plus besoin donc d’avoir l’accord des deux parents comme cela avait pourtant été stipulé le 6 janvier 2022 par le Conseil d’Etat. Cela dit, déjà les plus de 12 ans se passaient de l’avis des deux. A noter que même pour les très jeunes, l’un des parents n’a pas besoin d’être présent lors de l’injection. Ce qui va permettre de vacciner d’une manière plus ‘industrielle’.
        https://www.youtube.com/watch?v=sRcJ_4712K0

        On rentre bien dans un état néo-communiste où les parents 1 et 2 ont perdu une part de leur responsabilité. Nos globalistes qui recrutent par le biais des Young Leaders (enrôlés entre 25 et 30 ans), dont font partie de nombreux dirigeants occidentaux comme Merkel et Macron, cherchent à transformer la société sans tenir compte des lois naturelles ou divines. Ce qui est étonnant, selon Klaus Schwab « Poutine en fait partie » (voir les sous-titres à partir de 18 mn),
        https://iop.harvard.edu/forum/strengthening-collaboration-fractured-world-featuring-special-guest-yo-yo-ma

        Né à Ravensburg en 1938, Klaus Schwab est un enfant de l’Allemagne d’Adolf Hitler, un régime d’État policier fondé sur la peur, sur le lavage de cerveau et le contrôle, sur la propagande et le mensonge, sur l’industrialisme et l’eugénisme, sur la déshumanisation et la « désinfection », sur une vision effrayante et grandiose d’un « nouvel ordre » qui durerait mille ans. Schwab semble avoir consacré sa vie à réinventer ce cauchemar et à essayer de le transformer en réalité non seulement pour l’Allemagne mais pour le monde entier. Sa vision technocratique fasciste est aussi une vision transhumaniste tordue, qui fusionnerait les humains et les machines dans « de curieux mélanges de vie numérique et analogique », qui infectera nos corps avec de la “Smart Dust” et dans laquelle la police serait apparemment capable de lire nos cerveaux.
        https://www.senat.fr/rap/r03-293/r03-29321.html

        Ses complices utilisent la crise Covid-19 pour contourner la responsabilité démocratique, pour passer outre l’opposition (celle qui ne passe même plus dans les media mainstream comme Asselineau en France), pour accélérer leur programme et l’imposer au reste de l’humanité contre notre volonté dans ce qu’il appelle la “Grande Réinitialisation” ou le “Grand Reset”. Certes, Schwab n’est bien sûr pas un nazi au sens classique du terme, n’étant ni nationaliste ni antisémite, comme en témoigne le prix Dan David d’un million de dollars qui lui a été décerné par Israël en 2004. Cette plandémie sert à remplacer la démocratie par un leadership mondial composé d’individus triés sur le volet et non élus dont le devoir n’est pas de servir le peuple, mais d’imposer la règle du 1% à ce peuple avec le moins d’ingérence possible de la part du reste d’entre nous. La « biologie synthétique » est à l’horizon dans le monde de la 4è Révolution Industrielle de Schwab, donnant aux dirigeants capitalistes technocratique du monde « la possibilité de personnaliser les organismes en écrivant l’ADN ».

        Il est facile de reconnaître les complices de Schwab, particulièrement par rapport à ce qu’ils disent sur les enfants. Jean-Louis Touraine (LaREM) par exemple : « Il n’y a pas de droit de l’enfant à avoir un père. » Emmanuel Macron :
        https://i2.wp.com/www.contre-info.com/wp-content/uploads/2020/01/macron-pere.jpg
        https://www.youtube.com/watch?v=xKm6psCPBS0
        Selon l’ancienne ministre des Solidarités et de la Santé, Agnès Buzyn (24/09/ 2019), celle des onze vaccins et qui, dès que le coronavirus est apparu en France, a quitté son ministère « Un père, cela peut être une femme. » Valérie Pécresse (26/06/2019), celle qui a permis aux multinationales d’influencer les universités en les subventionnant, en échange de la nomination de profs de leur choix « La laïcité républicaine, c’est la loi au-dessus de la foi. » Il est vrai que pour Les Républicains (Principe 9) : « Aucune loi religieuse ne peut et ne pourra jamais être supérieure aux lois de la République. » Autrement dit, c’est bien un rapport de force qui crée la loi aujourd’hui.

      4. Ah le progrès Andrey ! « Dans quelques temps, nous accepterons massivement pour nos enfants, l’implantation de microprocesseurs dans leur cerveau pour être égaux ! Nous préférerons la fusion avec l’Intelligence artificielle plutôt que la vassalisation ! » affirme Laurent Alexandre ! C’est la fin des examens, des concours… Ils seront inutiles puisque tout les élèves seront égaux !
        https://twitter.com/BAN05063867/status/1486673034362732544
        … Et sans doute sous l’emprise de la ‘Bête’, un ordinateur quantique capable de contrôler 7 milliards d’humains. Sinon un peu moins en supprimant une partie de la population si techniquement nécessaire :
        https://vk.com/video/@robertferreres?z=video546895073_456248054%2Fpl_546895073_-2
        Soit par une une troisième guerre mondiale :
        https://vk.com/video/@robertferreres?z=video546895073_456248055%2Fpl_546895073_-2
        Heureusement, les alliés de l’Otan sont prêts à Kiev :
        https://i0.wp.com/reseauinternational.net/wp-content/uploads/2022/01/20-16.jpg?w=800&ssl=1
        Soit par la 5G :
        https://vk.com/video/@robertferreres?z=video546895073_456248065%2Fpl_546895073_-2

        Encore faut-il que les milliards d’habitants qui restent acceptent de se faire injecter les nanoparticules adéquates ! Le Dr Zelenko nous explique comment : « Grâce à un vaccin, après avoir déployé un climat de peur sur toute la planète. »
        https://vk.com/video/@robertferreres?z=video546895073_456248057%2Fpl_546895073_-2

        Bien entendu les innovations scientifiques ne s’arrêtent pas. On continue à inventer des maladies tout en sachant les soigner !
        https://vk.com/video526434855_456243372

        Dernièrement, on a mis au point un vaccin ARNm contre le VIH ! Il tombe bien puisque le covid semblait avoir bénéficié de deux gains de fonction venant de séquences du paludisme et du VIH !
        https://www.lefigaro.fr/economie/debut-des-essais-sur-les-humains-d-un-vaccin-contre-le-vih-utilisant-l-arn-messager-20220127

      5. Le réel problème de notre société, si on a été créé ‘homme libre’, notre trop forte domestication !
        https://vk.com/video/@robertferreres?z=video546895073_456247895%2Fpl_546895073_-2
        Plus une personne a été capable de se plier à cette exigence de passer de nombreux diplômes, plus il est devenu sujet à une servitude aveugle. Si pour certains , il ne faut que sept minutes pour s’apercevoir de l’irrationalité du ‘tout vaccinal’ actuel, comme nous le démontre ici le docteur Scot Youngblood
        https://t.me/france_soir/2634
        pour bien d’autres, il faut que cela soit officiellement constaté par les autorités du moment, pour qu’ils commencent à la reconnaître. Mais les autorités en place ne veulent-ils pas justement contrôler le libre arbitre des gens au moyen de nanoparticules dans les neurones et les ondes 5G ?
        https://vk.com/video/@robertferreres?z=video546895073_456243482
        Notre génération va donc assister à la fin de l’humanité, ou du moins à ses caractéristiques cognitives et comportementales spécifiques pour entrer dans un monde peuplé de zombies. La question que l’on peut se poser, pourquoi les principaux chefs religieux, d’appartenances diverses, n’appellent-ils pas à résister à cette transformation de l’humanité. ? Est-ce parce qu’on leur a promis une religion mondiale composée d’éléments de ces diverses appartenances ? Mais en se mettant en place, cela ne va-t-il pas démontrer à la face de tous, qu’en fait, aucune d’entre elles détenaient la vérité ? Une vérité qui il est vrai, prêchait la libération des entraves de l’esclavage !

  7. Bonjour Njama. J’essaie de répondre à ce que vous écrivez : « Les données – de l’échantillon – du Val de Loire transposées à l’ensemble de la France, cela pourrait avoir du sens en « supposant » que les mêmes causes ont les mêmes effets, ce qui ne semble pas être le cas en médecine … »
    Quel est le problème posé ? On suppose que chacune des 76 200 personnes traitées auraient toutes une même probabilité théorique p d’être à risque de décès et on cherche à évaluer cette probabilité à partir d’un échantillon de 513 personnes traitées.

    Il y a 2 choses à bien distinguer :
    1- La probabilité pour qu’un malade traité soit déficitaire en l’enzyme DPD n’est pas forcément la même partout en France. C’est ce que vous avez exprimé. Plus précisément, certaines ethnies seraient plus déficitaires que d’autres et plus fortement représentées en région parisienne qu’en région Centre. C’est une très forte possibilité qui n’a pas été envisagée par l’étude. Traduit en langage mathématique cela veut dire que la probabilité p pourrait ne pas exister. Les auteurs chercheraient alors à évaluer un paramètre dont la valeur n’existe pas.

    2- Même en admettant que cette probabilité p existe il n’est pas possible d’extrapoler la valeur observée 1 sur 513 aux 76 200 cas traités en faisant une règle de trois pour obtenir 150 (arrondi) comme l’ont fait les auteurs. Cette opération, certes tentante, ne peut être validée. Pourquoi ?
    Un exemple pédagogique : j’ai obtenu 3 piles en 10 jets d’une pièce équilibrée (qu’on le sache ou pas). Je dis que j’estime par 30 le nombre de piles que j’aurais obtenus si je l’avais lancée 100 fois. Où est l’erreur ?Il y a des variations aléatoires !

    A la seconde série de 10 j’aurais pu obtenir 6 piles ; 5 à la troisième ; 7 à la quatrième ; 4 à la cinquième ….En fait j’ai très peu de chances pour ne pas dépasser 30 qui est quand même à la distance de 4 écarts-type de la moyenne 50. On peut même tout à fait dépasser 50 piles.
    MORALITE : on ne peut pas valider une observation qu’on n’a pas faite !!!
    J’en ai déjà parler dans ces commentaires. On ne peut pas fabriquer des valeurs non observées pour les considérer comme si elles avaient été observées.

    Pour l’exemple de cette publication, la borne supérieure de leur intervalle dit de confiance à 95%, soit 820, se trouve à 55 écarts-type de 150 !!! C’est pour le moins la distance de la Terre à la Lune ! On ne peut ni dilater à la proportionnelle les valeurs observées ni les bornes des intervalles de confiance.

    Un intervalle de confiance est confiné à l’échantillon sur lequel il a été obtenu à partir d’une valeur observée. Cela se démontre en prenant les formules qui définissent les bornes de ces intervalles. Je ne peux pas trop envisager de le faire ici mais je peux être formel, cela se démontre.

    Pour cette publication, la seule chose que l’on peut dire est que l’intervalle de confiance à 95% pour la probabilité p supposée exister est [0,00005. ; 0,0108]. On ne peut légitimer l’extrapolation de cet intervalle aux 76 200 cas traités en multipliant ces bornes par 76 200 pour obtenir 820 qui serait borne supérieur d’un IC de confiance à 95% par rapport à 150. C’est du délire complet et d’abord parce que la valeur 150 prise comme valeur “centrale“ de cet intervalle, ne peut pas être validée ainsi.
    .

  8. 🙂

    Les microbes, les anticorps et Blanche-Neige.

    Dans notre époque terrorisée par les virus et obsédée par les moyens de s’en protéger, Blanche-Neige fait figure d’héroïne iconoclaste.

    Elle débarque dans la maison des nains, qui est toute sale et mal rangée, pleine d’écureuils et d’oiseaux.

    Elle trouve des chaussettes sur la table, des souliers dans les casseroles, plein de poussière sur la cheminée, des toiles d’araignée partout et des piles d’assiettes sales.

    N’importe quel ayatollah de l’hygiénisme actuel tomberait en apoplexie devant une telle concentration de germes et d’acariens.

    https://alternatif-bien-etre.com/coronavirus/atchoum-2/

    1. Merci pour le lien. J’avais été informé de cette obligation par une association de victimes ou familles de victimes de ce traitement par 5-FU. Mais mon article ne porte pas sur cela, il porte sur les fautes méthodologiques que l’on trouve dans une publication voulant évaluer le nombre de décès et d’EIG très sévères qui se produisaient en l’absence de dépistage de ce déficit en enzyme DPD.
      Dans le lien que vous donnez on peut lire :
      “Un déficit rare

      « Bien que le déficit en DPD soit rare (entre 0,05 et 0,1 % pour un déficit complet, et entre 3 et 8 % pour un déficit partiel, en population générale), la recherche systématique de ce déficit avant tout traitement est indispensable », souligne l’ANSM.  »

      Ce qui a rendu ce dépistage indispensable fut que le nombre d’évènements très grave était important. Le problème était d’estimer ces nombres. Il y eut des divergences très importantes en 2019 puisque, comme je l’ai déjà dit ici dans un commentaire à Violette, une publication de l’EMA du 13 mars 2019 estimait le nombre de décès à 1600 l’an pour une estimation de 80 000 traités. Il est mentionné que cette estimation avait été réalisée par l’ANSM, l’agence française du médicament.
      La publication étudiée dans cet article évalue ce risque à 0,2% alors qu’elle avait été reçue le 16 août de la même année par la revue. Les auteurs connaissaient certainement l’estimation de l’ANSM. On peut être interpelé par l’écart considérable (10 fois moins). De plus les auteurs sont allé chercher les données de 2014 pour une région plutôt que celles de 2018 ou de 2017. On ne comprend pas très bien.
      Le naufrage du Titanique c’est produit le 12 avril 1912. Les experts et le public se passionnaient encore sur les causes du naufrage 90 ans plus tard.

    1. LA FIN DE LA VIROLOGIE ?

      Dans le domaine de la virologie, nous explique Stefan Lanka qui est un microbiologiste, « il n’existe pas vraiment d’expériences témoins documentées. Si on dit qu’un virus est prouvé par une séquence génétique, c’est sans contrôle. »

      A la fin du XIX°, on pensait que la vie venait de cellules qui en se divisant se multipliaient. Chaque cellule devait avoir nécessairement un matériel génétique que l’on a appelé les protéines. Puis l’études des bactériophages prouva que non puisque chaque protéine a besoin d’un acide nucléique pour être synthétisée. On en a conclu que le matériel génétique venait de ces acides nucléiques. A partir de l’an 2000, on a constaté que ce matériel génétique est en constante évolution ; chaque noyau possédant un matériel génétique différent.

      En fait, les virologues ont copié les généticiens. A partir de 1952, un virus est considéré être du matériel génétique dangereux, avec ou sans enveloppe comme avec l’Ebola. Lorsqu’ils détruisaient des tissus dans leurs tubes à essai, ils en transformaient en molécules virales, sans pour autant en avoir un complet. Les photos qui circulent ne proviennent pas de tissu ou liquide humain ou animal mais d’un tube à essai. Des expériences témoins ne sont jamais réalisées. Les tissus humains sains sont traités d’une manière similaire que quand les virologues croient infecter des cellules dans leur tube à essai. Les résultats ne peuvent qu’être semblables. Ce n’est pas parce que des cellules meurent dans un tube à essai que l’on peut accuser un virus. Cette idée fausse ne viendrait-elle pas du nobeliste John F. Enders ?

      Quand on prélève de l’acide nucléique d’un tissu humain sain pour le multiplier 12 fois (test PCR), on obtient 20% du génome du SARS-CoV-2. A 30 fois, ce qui en biochimie est considéré comme non scientifique, on arrive à obtenir 100% du génome. Mais les virologues ont utilisé de 40 à 50 cycles en ajoutant aux cellules de nombreuses petites molécules synthétisées qui à elles seules expliquent 20% des séquences. Cela ne les empêche pas d’affirmer que l’ensemble de ce matériel génétique du virus vient entièrement d’un tissu humain. Ce qui est faux. On ne peut pas détecter par PCR un matériel génétique viral dans un organisme. Quand les virologues cherchent le génome complet d’un virus, ils usent d’outils informatiques. Ainsi, ils n’hésitent pas à rajouter des séquences synthétisées dans leur tube à essai pour l’amplifier. Cela s’appelle du séquençage métagénomique profond. Cela n’a rien à voir avec une expérience témoin. Pourquoi donc n’utilisent-ils pas à la place, un acide nucléique humain ? Les résultats qu’ils publient comme données brutes sont fabriqués. Ils disent avoir 300 000 séquences se chevauchant (contigs), puis ils font leur séquençage métagénomique profond. Logiquement, ils devraient après, se retrouver avec le même nombre, sinon plus, de séquences se chevauchant. En fait ils en trouvent 10 fois moins. Tout a été filtré pour qu’en sorte, avec leur outil informatique, ils obtiennent la séquence SARS-CoV-2. Les logiciels utilisés dans le monde sont dénommés des assembleurs de séquences se chevauchant. Mais il n’y en a qu’un qui existe, mis au point en Chine, pour trouver le SARS-CoV-2 (le Megahit). Le génome viral est donc fabriqué grâce à ces calculs par ordinateur après bien des manipulations et non à partir de tissus humains.

      Etant donné que les affirmations des virologues ne peuvent donc pas être dites scientifiques, toutes les mesures qui ont été prises par les états vont à l’encontre des lois sur les maladies infectieuses. La vie est un équilibre qui est souvent déréglé pour des causes psychosomatiques (ne dit-on pas que la peur baisse de 30% l’immunité d’une personne ?). Platon avait retenu la leçon de Socrate, « quand on est malade, l’âme doit être soigné ». « Un mot peut aussi bien tuer que guérir » arguait de son côté le Dr Ryke Geerd Hamer. De nombreux vaccinés vont s’en rendre compte quand ils commenceront à expérimenter dans leur chair, les conséquences des nanoparticules toxiques et de l’ARNm injectés. Ils se demanderont comment il a été possible que le prof Christian Drosten mette en place ses séquences avant même que le gouvernement chinois ne publie les résultats sur le virus. Les 3 types de tests PCR qu’il proposait induisait une positivité à des personnes n’ayant aucun lien avec Wuhan. Mais c’est un de ses amis qui produit les amorces (la société Roche qui possède le brevet pour le PCR). Ce genre de copinage se retrouve avec le Zika ou la grippe et apporte un énorme transfert d’argent et de pouvoir au sein du corps médical.

      Mais cette croyance actuelle envers les virus ne ressemble-t-elle pas à celle que l’on constate sur le cancer, c’est à dire qu’il serait dû à une réunion dans le corps de molécules terroristes capables de se disperser dans les tissus (métastase) ? Heureusement, au moins un quart des gens ne sont pas convaincus par ces vaccins à nanoparticules toxiques qui risquent de les mener à des thromboses ou une destruction de leur tissu nerveux. En 1976, le philosophe croate Ivan Illich (1926-2002), dans son livre ‘The Nemesis of Medecine’ expliquait déjà que « la médecine dans le système économique actuel, se devait de générer tous les ans des revenus en augmentation. D’où cet élargissement constant de la définition des maladies. » Eugen Rosenstock-Huessy (1888-1973) avait une profonde compréhension de la vie et de notre histoire. « Les gens croient que toutes les grandes organisations sont « rationnelles, légales et mécaniques » ainsi que « logiques et systématiques » » remarquait-il et « La vie signifie la vulnérabilité, la possibilité d’échecs et de blessures. » Pour lui « la science est vraiment douée pour étudier les choses mortes. Les choses mortes sont prévisibles et vous pouvez faire des expériences reproductibles. Les êtres vivants sont illogiques, non systématiques, imprévisibles, incontrôlables. »

      Le vrai danger des vaccins covid vient des 4 types d’acides gras sous forme de nanoparticules. L’un d’entre eux, le polyéthylène glycol (PEG) a un potentiel hautement allergène. Si on le trouve dans tous les savons ou gels douche bon marché, c’est son injection qui est problématique, contrairement au graphène. A noter que ce dernier est utilisé dans la thérapie du cancer, pas pour produire des anticorps (une réaction humorale) mais pour augmenter la production de globulines (petites protéines considérées comme des anticorps). Le graphène a une immunité cellulaire, il détruit le tissu dans son ensemble. Il est évidemment très toxique. Il est injecté avec du fer dans la circulation sanguine, puis on place un aimant puissant sur l’organe à traiter, concentrant ainsi le fer à cet endroit. Avec les vaccins, il est certes utilisé, mais ne serait pas plutôt sous forme de nanoparticules de carbone pour lisser le tampon en caoutchouc se trouvant à l’intérieur de la seringue ? Ces vaccins sont parfois stockés de -20 à -50° et la seringue doit toujours fonctionner en douceur ; tout ne doit pas sortir d’un coup, évitant qu’ils coulent à l’extérieur. C’est en fait ici un lubrifiant.
      https://odysee.com/@cv19:b/La-v%C3%A9rit%C3%A9-sur-la-rage,-le-virus-de-la-mosa%C3%AFque-du-tabac,-le-graph%C3%A8ne-et-les-r%C3%A9sultats-de-la-2e-phase-des-exp%C3%A9riences-t%C3%A9moins:b

    1. Ce texte a une histoire étonnante, il devait constituer le premier article d’une revue qui n’a jamais vu le jour mais l’éditeur qui s’y était intéressé l’a acheté quand même… pour finir par le diffuser gratuitement sur le net auprès des abonnés de ses autres titres déjà en vente. Bravo et merci à Vivasanté.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Adhérer à l’AIMSIB

Rejoignez-nous !

Faire un don

Participez à notre développement

Derniers commentaires

Comme + de 4000 personnes, ne ratez pas notre prochain article !

Inscrivez-vous à la newsletter et recevez le directement dans votre boite email !

Nous sommes aussi sur vos réseaux sociaux préférés ! Venez intéragir !

Aller au contenu principal