L’https://www.aimsib.org/wp-content/uploads/2023/11/image-4042920-20201130-ob-6b8f5e-dr-helene-banoun.jpg ne cherche pas nécessairement à coller à l’actualité, particulièrement quand celle ci se révèle déprimante. Voici un article original signé de notre Vigilant, il nous explique que l’état de santé préalable à la vaccination influera considérablement dans les résultats, bons ou mauvais, que celle-ci occasionnera à un enfant. Naturellement dans un pays d’aveuglement vaccinal comme la France où tous les enfants doivent systématiquement être vaccinés quels que soient leurs états de santé initiaux ce biais s’estompe, mais qu’en est-il chez les autres qui ont la chance de pouvoir réfléchir avant de vacciner? Bonne lecture.
Résumé Le biais dit « du patient en bonne santé » ou HUB pour « Healthy User Bias » décrit le fait que dans une étude observationnelle en évaluation d’une vaccination par exemple – dans les pays ou celle-ci s’exerce avec réflexion préalable – ces produits seront essentiellement administrés aux enfants en pleine santé, les autres (fragiles, malades) seront régulièrement relégués dans le groupe contrôle et la fréquence des effets secondaires sera artificiellement diminuée chez les premiers. De même tous les enfants issus d’une fratrie où l’aîné a présenté un effet indésirable grave post-vaccinal seront beaucoup moins vaccinés que la moyenne des enfants de leurs âges. On rappelle la définition mathématique du risque relatif et on en donne quatre exemple. On démontre de ce fait le non sens absolu que constitue les étude de cohorte ayant souhaité démontrer l’absence de lien entre vaccination ROR et autisme. |
Comprendre le quoi ? Le HUB (Healthy User Bias)
Le « HUB » ou Healthy User Bias – biais du patient en bonne santé – est le biais qui ruine les études observationnelles sur les vaccins; intuitivement c’est simple à comprendre :
Les vaccinations – comme beaucoup d’interventions médicales préventives – s’adressent à des gens en parfaite santé, un individu malade aura tendance à être moins (potentiellement beaucoup moins) vacciné.
Dans un essai clinique ce biais est neutralisé par le tirage au sort. Dans une étude observationnelle de type cohorte les enfants plus fragiles que la normale seront moins vaccinés que les enfants en bonne santé, ainsi les enfants plus à risque de développer l’évènement indésirable sont concentrés dans le groupe de contrôle. Il y a évidemment beaucoup d’autres biais qui peuvent affecter l’étude dans un sens ou l’autre mais celui-ci est systématiquement négligé alors que c’est le plus important. On en trouve un exemple ici [1]
-« At the first weighing session after the introduction of vaccines, 6–35-month-old children who received DTP vaccination had better weight-for-age z-scores (WAZ) than children who did not receive DTP […] In principle, children above 3 months of age attending the weighing sessions were offered vaccination if vaccines and equipment (syringes, sterilization stove) were available. However, nurses and mothers were reluctant to vaccinate sick or weak children. […] Eligible children were between 3 months and 3 years of the age. However, some children in this age group were not vaccinated. Both nurses and mothers thought that sick or otherwise weak children should not be vaccinated. The BHP card often indicated that the child was “sick,” “malnourished,” or “orphan” as an explanation of why an age-eligible child had not been vaccinated ».
Trad: Lors de la première séance de pesée après l’introduction des vaccins, les enfants âgés de 6 à 35 mois qui ont reçu la vaccination DTCoq avaient un meilleur rapport poids / âge z-scores (WAZ) que les enfants qui n’ont pas reçu de DTCoq […] En principe, les enfants de plus de 3 mois participant aux séances de pesée se sont vu offrir la vaccination si des vaccins et du matériel (seringues, poêle de stérilisation) étaient disponibles. Cependant, les infirmières et les mères hésitaient à vacciner les enfants malades ou faibles […] Les enfants éligibles avaient entre 3 mois et 3 ans. Cependant, certains enfants de ce groupe d’âge n’ont pas été vaccinés. Les infirmières et les mères pensaient que les enfants malades ou faibles ne devraient pas être vaccinés. La dossier médical indiquait souvent que l’enfant était «malade», «mal nourri» ou «orphelin» pour expliquer pourquoi un enfant éligible à l’âge n’avait pas été vacciné.
Ou ici [2], dans cet article extrêmement important et dont vous n’avez jamais entendu parler !
– » Many factors known to be associated with either avoidance or delay of vaccination may themselves be associated with an increased risk of adverse event-type medical outcomes. As an illustration, table 1 presents reported risk factors for sudden infant death syndrome (SIDS) and for childhood encephalopathy, on the one hand, and for failure to receive diphtheria-pertussis-tetanus (DPT) vaccination on the other (11-22). The close correspondence between these sets of factors, which include medical contraindications and social correlates of low vaccine coverage, suggests that individuals predisposed to either SIDS or encephalopathy are relatively unlikely to receive DPT vaccination ».
Trad: De nombreux facteurs connus pour être associés à l’évitement ou au retard de la vaccination peuvent eux-mêmes être associés à un risque accru de résultats médicaux de type événement indésirable. À titre d’illustration, le tableau 1 présente les facteurs de risque signalés de syndrome de mort subite du nourrisson (SMSN) et d’encéphalopathie infantile, d’une part, et de non-vaccination contre la diphtérie-coqueluche-tétanos (DPT), d’autre part (11-22) . La correspondance étroite entre ces ensembles de facteurs, qui comprennent les contre-indications médicales et les corrélations sociales d’une faible couverture vaccinale, suggère que les personnes prédisposées soit au SMSN ou à l’encéphalopathie sont relativement peu susceptibles de recevoir la vaccination DPT « .
Le principe réside dans le fait que chez les enfants en bonne santé, le taux d’exposition aux vaccins sera beaucoup plus élevé que chez les enfants plus fragiles, mais également que le risque absolu de développer l’évènement indésirable sera beaucoup plus élevé chez les enfants fragiles que chez les enfants sains. Un autre exemple est le fait que dans une famille, les enfants plus jeunes ne seront pas vaccinés si un enfant plus âgé a fait un accident vaccinal… On peut aussi penser aux enfants qui ont des antécédents familiaux de maladies auto-immunes, d’autisme ou que sais-je encore… qui seront potentiellement moins exposés (enfin ça c’était avant l’hystérie vaccinale actuelle qui fait qu’aujourd’hui les pédiatres ne pensent qu’à mitrailler les enfants de rafales de vaccins, on se demande vraiment où est passé le principe de prudence Hypocratique, par moment je me demande s’ils n’ont pas négocié des marges arrières avec les fabricants ou si pour eux, les enfants ne sont pas considérés comme étant juste du business… Amis pédiatres qui lisez ce texte, je ne vous en veux pas, à votre place je ferai peut-être la même chose. Heu en fait non…)
Rappel : la notion de risque relatif
Dans un essai clinique ou une cohorte on compare un groupe vacciné avec un groupe non vacciné, donc on peut calculer la fréquence de l’évènement indésirable recherché au sein de chaque groupe. Si n est le nombre de sujets du groupe et alpha le nombre de sujets ayant développé l’évènement indésirable, la fréquence (en terme technique on parle d’incidence) est définie par :
Si la fréquence est la même dans le groupe vacciné et non vacciné, il n’y a pas d’effet et le rapport vaut 1. Si la fréquence est plus faible dans le groupe vacciné, le rapport sera inférieur à 1 et le vaccin aura un effet protecteur. Si la fréquence est plus élevée dans le groupe vacciné, le rapport sera supérieur à 1 et le vaccin aura un effet délétère.
Le risque relatif se définit simplement comme le rapport des fréquences, le groupe exposé étant au numérateur et le groupe non exposé au dénominateur. Un risque relatif valant 4 signifie simplement que la fréquence de l’évènement est 4 fois supérieure dans le groupe vacciné. Un risque relatif valant 0,3 signifie qu’il y a 70% d’évènements en moins (1-0,7=0,3) dans le groupe vacciné.
Application concrète : la destruction du risque relatif
Intuitivement le HUB se comprend de la manière suivante : les enfants en mauvais état de santé (donc plus à risque de présenter un évènement indésirable type mort subite du nourrisson, autisme ou que sais-je encore) sont concentrés dans le groupe de contrôle, ainsi même si le vaccin augmente le risque, cette augmentation sera atténuée voire parfois même inversée (le vaccin a un effet protecteur dans l’étude) par la sur représentation de l’évènement étudié dans le groupe de contrôle.
Nous en avons un parfait exemple avec [2]
– » Several have noted that the findings are probably attributable to the fact that risk factors for SIDS are similar to factors known to be associated with either avoidance or delay of vaccination (e.g., table 1). The negative associations between SIDS and having ever been vaccinated reflect avoidance of vaccination. On the other hand, the negative associations between SIDS and having recently been vaccinated could reflect either avoidance or delay of vaccination by those predisposed, for one reason or another, to die of SIDS ».
Trad: « Certains ont noté que les résultats sont probablement attribuables au fait que les facteurs de risque de MSN sont similaires aux facteurs connus pour être associés à l’évitement ou au retard de la vaccination (par exemple, le tableau 1). Les associations négatives entre les MSN et le fait d’avoir déjà été vacciné reflètent l’évitement de la vaccination. D’un autre côté, les associations négatives entre les MSN et le fait d’avoir récemment été vacciné pourraient refléter soit l’évitement soit le retard de la vaccination par ceux prédisposés, pour une raison ou une autre, à mourir des MSN »
Dans une étude ré-analysée en contrôlant ce biais, le risque final étant 4 fois supérieur au risque initial !
We note, however, that reanalysis of the British National Childhood Encephalopathy Study after exclusion of all cases and controls with any potential contraindications to vaccination has led to a fourfold increase, from 3.3 to 12.6 (95 percent confidence interval 2.8-114.7), in the estimated relative risk of encephalopathy subsequent to DPT vaccination (D. Miller, St. Mary’s Hospital Medical School, London, personal communication, 1990).
Trad: Nous notons, cependant, que la ré-analyse de la British National Childhood Encephalopathy Study après exclusion de tous les cas et contrôles avec toute contre-indication potentielle à la vaccination a conduit à une multiplication par quatre, de 3,3 à 12,6 (intervalle de confiance à 95% 2.8-114.7), dans le risque relatif estimé d’encéphalopathie consécutive à la vaccination DPT (D. Miller, St. Mary’s Hospital Medical School, Londres, communication personnelle, 1990).
Démonstration par l’exemple
L’amplitude du HUB est fonction d’un certain nombre de facteurs, notamment:
- Du niveau réel du risque relatif du produit,
- De la proportion d’enfants à haut risque dans la cohorte,
- De la différence des taux d’exposition entre les deux groupes
- De la différence des risques absolus de développer l’évènement indésirable entre les groupes high risk et low risk.
Dans nos 3 premiers exemples nous considérons une cohorte de 11 000 enfants, 10 000 enfants sains (low risk) et 1 000 enfants fragiles (high risk). Ainsi dans notre cohorte + de 90% des enfants sont sains. On considère que chez les enfants sains le taux de vaccination est de 95%, chez les enfants fragiles seulement 30%; le risque relatif est évidemment le même pour les deux groupes mais le risque absolu de développer un évènement indésirable est considéré comme beaucoup plus élevé chez les enfants fragiles (c’est pour ça qu’ils sont “high risk”), j’ai considéré qu’un facteur 10 entre les deux groupes était réaliste. J’ai décidé de ne faire varier qu’un seul paramètre : le niveau du risque relatif réel du vaccin, et de voir quel est le niveau de risque relatif observé dans une étude de cohorte typique.
- Pour le premier exemple on considère un risque relatif réel de 5, ce qui est énorme. Le groupe exposé est donc constitué de 9500+300 = 9800 sujets. Le nombre d’EI dans ce groupe est de 95+30 = 125. Chez les 500+700 = 1200 non exposés, il y a 14+1=15 EI.
Ainsi pour un risque relatif réel de 5, le risque relatif observé est de 1,02, c’est à dire que le vaccin semble neutre ! Pourquoi ? Tout simplement parce que tous les EI survenant chez les enfants fragiles sont sur représentés dans le groupe de contrôle. En effet les sujets “high risk” ne représentent que 3% des exposés, alors qu’ils représentent 58% des sujets non exposés.
- On peut maintenant jouer en faisant varier diverses variables : on va diminuer un peu le risque relatif à 4 (tous les autres paramètres sont constants) :
Ici pour un risque relatif réel de 4, il apparaît un effet protecteur de 20%.
- On va jouer en diminuant encore le risque relatif réel à 2 (ce qui reste élevé) :
Pour un risque relatif réel de 2, il apparaît un effet protecteur de 60%…
- Pour le dernier exemple, on considère un risque relatif réel de 5, 1 000 000 de sujets sains, 1 000 sujets fragiles, un taux d’exposition de 99,9% (vaccination obligatoire) pour les sujets sains et 50% pour les sujets fragiles. Ainsi pour un risque réel à 5, il apparaît un effet protecteur de 31%
Un joli fichier est mis à disposition par mes soins pour que vous puissiez expérimenter par vous mêmes en modifiant les paramètres : HUB.
Le HUB en conditions réelles
Le HUB ne se produira pas sur la première dose de vaccin dans des pays occidentaux, où la malnutrition ne menace pas les enfants, le HUB apparaît par contre sur la suite du calendrier vaccinal, en effet si un enfant fait une mauvaise réaction suite à une dose reçue à 2 ou 4 mois, les parents seront probablement très réticents à la réception des doses suivantes. Ainsi sur les vaccins reçus à 6, 12 ou 18 mois, dans le groupe de contrôle on trouve tous les enfants ayant subi des évènements indésirables graves sur les doses précédentes.
Le HUB trouve sa source dans l’introduction de facteurs de confusion antérieurs à l’exposition.
À ce stade vous avez compris que les experts qui agitent des études de cohortes attestant l’absence de lien entre ROR et autisme forment une masse d’abrutis et de bons à rien n’ayant rien compris : tous les enfants à risque ayant développé un EI grave sur les vaccinations précédentes (ou trop faibles ou avec antécédents familiaux ou…) sont affectés au groupe de contrôle (surtout que la neurotoxicité de tous ces produits est avérée : par définition un effet indésirable est une réaction nocive et non voulue due à un médicament, il y a donc juste à lire la notice pour en avoir un aperçu).
L’ampleur de ce biais est telle que s’il n’est pas contrôlé, les études observationnelles ne valent rien tant elles sous-estiment le niveau du risque ! [3]
-“When interpreting epidemiologic studies of prevention in the scientific literature, we recommend a healthy skepticism when encountering what seem like surprisingly large beneficial effects of preventive therapies.”[…] “Clinicians should be skeptical when interpreting results of observational studies of preventive services that have not accounted for healthy user and related biases.“
Trad: « Lors de l’interprétation des études épidémiologiques de prévention dans la littérature scientifique, nous recommandons un scepticisme sain face aux effets bénéfiques étonnamment importants des thérapies préventives. » […] «Les cliniciens devraient être sceptiques lorsqu’ils interprètent les résultats d’études observationnelles de services de prévention qui n’ont pas pris en compte les utilisateurs sains et les biais associés.»
Le HUB prend sa source dans le fait qu’un sujet en mauvais état de santé sera plus à risque de développer “spontanément” l’évènement recherché et moins exposé : que ce soit en étant pas exposé du tout ou alors en étant exposé plus tard, dans ce cas là la fraction exposée de la cohorte devient hétérogène en terme d’âge d’exposition, on a le même phénomène avec les sujets exposés qui ne reçoivent pas toutes les doses prévues au schéma vaccinal : l’incidence de l’évènement indésirable est d’autant réduite par absence d’effet dose-réponse chez ces sujets-là.
Évidemment si le taux d’exposition est le même entre les sujets high risk et low risk, le HUB n’existe pas (d’où l’exemple de la première dose de vaccin chez les enfants occidentaux typiques), et nous avons vu que la sous estimation des risques peut être considérable (sans parler des autres problèmes qualitatifs parfois rédhibitoires de ces études, comme ici, ici ou là).
Ainsi vous comprenez que dans la quasi totalité des études observationnelles sur les vaccins, les deux groupes ne sont pas comparables et le risque relatif évalué est systématiquement inférieur au risque réel.
Démonstration : Jain et coll. [4] Cohorte sur le ROR et l’autisme
– » For children with older siblings with ASD, at age 2, the adjusted relative risk (RR) of ASD for 1 dose of MMR vaccine vs no vaccine was 0.76 (95% CI, 0.48-1.22; P = .25), and at age 5, the RR of ASD for 2 doses compared with no vaccine was 0.56 (95% CI, 0.30-1.04; P = .07). For children whose older siblings did not have ASD, at age 2, the adjusted RR of ASD for 1 dose was 0.91 (95% CI, 0.68-1.20; P = .50) and at age 5, the RR of ASD for 2 doses was 1.09 (95% CI, 0.76-1.54; P = .65) ».
Trad: – » Pour les enfants de frères et sœurs plus âgés atteints de TSA, à l’âge de 2 ans, le risque relatif ajusté (RR) de TSA pour 1 dose de vaccin ROR vs aucun vaccin était de 0,76 (IC à 95%, 0,48-1,22; P = 0,25) et à l’âge 5, le RR des TSA pour 2 doses par rapport à l’absence de vaccin était de 0,56 (IC à 95%, 0,30-1,04; P = 0,07). Pour les enfants dont les frères et sœurs plus âgés n’avaient pas de TSA, à l’âge de 2 ans, le RR ajusté de TSA pour 1 dose était de 0,91 (IC à 95%, 0,68-1,20; P = 0,50) et à 5 ans, le RR de TSA pour 2 doses était de 1,09 (IC à 95%, 0,76-1,54; P = 0,65) ».
Ici on constate que les risques relatifs chez les enfants qui ont un(e) frère/sœur plus âgé et autiste sont systématiquement (beaucoup) plus faibles que ceux qui n’ont pas de membre de leur fratrie autiste, pourquoi ? Parce que des parents ayant vécu un éventuel accident vaccinal avec un enfant ne feront pas vacciner ceux qui viendront après !
Le HUB est même décrit dans l’article mais les auteurs n’ont rien fait pour contrôler le biais :
– « It is possible, for example, that this pattern is driven by selective parental decision making around MMR immunization, ie, parents who notice social or communication delays in their children decide to forestall vaccination. Because as a group children with recognized delays are likely to be at higher risk of ASD, such selectivity could result in a tendency for some higher-risk children to be unexposed. […] Also the contrast in the estimates for the adjusted RRs between children with and without older ASD-affected siblings was highest for those who received 2 doses at age 5; the ratio of the adjusted RR estimates at this age being 1.95 (1.09:0.56) for 2 doses compared with 1.20 (1.10:0.92) for 1 dose. This could reflect more older siblings having been diagnosed with ASD between the younger siblings’ recommended ages of first- and second-dose administration, potentially leading parents to raise de novo concerns about the vaccine’s safety at the time second dose decisions are being made. »
Trad: – » Il est possible, par exemple, que ce modèle soit motivé par une prise de décision parentale sélective concernant la vaccination ROR, c’est-à-dire que les parents qui remarquent des retards sociaux ou de communication chez leurs enfants décident de prévenir la vaccination. Étant donné qu’en tant que groupe, les enfants dont les retards sont reconnus sont susceptibles d’être plus à risque de TSA, une telle sélectivité pourrait entraîner une tendance pour certains enfants à risque plus élevé à ne pas être exposés. […] De plus, le contraste dans les estimations des RR ajustés entre les enfants avec et sans frères et sœurs plus âgés atteints de TSA était le plus élevé pour ceux qui ont reçu 2 doses à l’âge de 5 ans; le rapport des estimations ajustées du RR à cet âge étant de 1,95 (1,09: 0,56) pour 2 doses contre 1,20 (1,10: 0,92) pour 1 dose. Cela pourrait refléter un plus grand nombre de frères et sœurs plus âgés ayant reçu un diagnostic de TSA entre les âges recommandés de la première et de la deuxième dose pour les frères et sœurs plus jeunes, ce qui pourrait amener les parents à soulever de novo des inquiétudes quant à l’innocuité du vaccin au moment où les décisions concernant la deuxième dose sont prises ».
Conclusion
Les lecteurs ont désormais des éléments leur permettant de prendre du recul sur le niveau de la Science qu’on leur présente à tout bout de champ.
Le Vigilant,
Mai 2020
Crédit photo: Pixabay
Notes et sources:
[1] Evidence of Increase in Mortality After the Introduction of Diphtheria-Tetanus-Pertussis Vaccine to Children Aged 6-35 Months in Guinea-Bissau: A Time for Reflection? Front Public Health. 2018 Mar 19;6:79. doi: 10.3389/fpubh.2018.00079. eCollection 2018.
[2] FINE P. E. M. et CHEN R. T., 1992. « Confounding in studies of adverse reactions to vaccines », American Journal of Epidemiology, 136 : 121-135. DOI : 10.1093/oxfordjournals.aje.a116479
[3] Healthy User and Related Biases in Observational Studies of Preventive Interventions: A Primer for Physicians. J Gen Intern Med. 2011 May;26(5):546-50. doi: 10.1007/s11606-010-1609-1. Epub 2011 Jan 4.
[4] Jain A, Marshall J, Buikema A, Bancroft T, Kelly JP, Newschaffer CJ. Autism Occurrence by MMR Vaccine Status Among US Children With Older Siblings With and Without Autism. JAMA. 2015;313(15):1534–1540. doi:10.1001/jama.2015.3077
[5] Myers, Scott M et al. “Insufficient Evidence for « Autism-Specific » Genes.” American journal of human genetics vol. 106,5 (2020): 587-595. doi:10.1016/j.ajhg.2020.04.004
35 Responses
On retrouve des problèmes analogues quand notre expert institutionnel en la matière, Daniel Lévy Bruhl (InVS puis Santé publique France) a voulu estimer le nombre de tuberculoses évitées chez l’enfant par la vaccination BCG généralisée et obligatoire en prenant les données sur 6 années (1997 -2002).
Pour ce faire il attribuait a priori une efficacité à cette vaccination, par exemple 50%. La suite je la raconte avec une histoire de carottes qui pourraient pourrir mais pour lesquelles on dispose d’un produit chimique efficace à 50%.
On traite 240 carottes d’un lot de 300. Il y en a donc 120 qui sont protégées et 120+60=180 qui ne sont pas protégées. On découvrira plus tard 60 carottes pourries qui sont donc apparues parmi les 180 non protégées, soit une sur 3.
On peut alors énoncer la règle : en l’absence de traitement, une carotte sur trois pourrie. Parmi les 120 carottes protégées par le traitement il y en aurait donc eu 1/3 soit 40 qui auraient pourri en l’absence du traitement. Nous pouvons donc estimer à 40 le nombre de carottes pourries évitées par le traitement.
Bien ! Sauf que les 240 carottes traitées avaient été stockées au grenier en milieu sec et aucune n’avait pourri. Par contre les 60 autres avaient été placées à la cave et elles avaient toutes pourri.
C’était exactement la situation pour la tuberculose en France au moment de l’étude car pour faire le BCG après l’âge de 3 mois on doit faire un test tuberculinique, les positifs n’étant pas vaccinés. Or les enfants les plus à risques étaient ceux qui vivaient avec des parents tuberculeux. Souvent ils ne recevaient pas le BCG pour cette raison. Par contre les enfants plus favorisés avaient très peu de risque d’être contaminés alors qu’ils recevaient le BCG.
Depuis 2007 on a recommandé le BCG à la naissance pour ces enfants à risque élevé puis à 1 mois depuis 2017 pour tenter de limiter le risque de bécégite mortelle chez les enfants ayant un déficit immunitaire non découvert à la naissance. Aujourd’hui ces enfants à risque élevé sont donc au contraire vaccinés par le BCG. Oui mais on sait depuis longtemps, Calmette et Guérin le disaient et avaient institué le test préalable pour cette raison, que la rencontre du bacille tuberculeux et du BCG, mycobactérie dérivée d’un BK virulent, aggravait la tuberculose et ce avec une plage de plus ou moins 2 mois. Cela joue probablement davantage sur la gravité que sur le nombre de cas.
Cette propriété qui fut reconnue pour le BCG a toujours été niée pour la vaccination antivariolique avec cependant une plage beaucoup plus réduite : quelques jours avant la contamination ou après. Voir mon article du 10 mai 2020.
https://www.sciencedirect.com/science/article/pii/S2352396417300464
The negative effect of DTP was much worse in this natural experiment than has been reported in previous studies of DTP. This is presumably due to the “unvaccinated” control children in previous studies having been a frail subgroup too frail to get vaccinated. Previous studies have not been able to compare DTP-vaccinated children with “normal” controls. Hence, most previous studies have probably underestimated the negative effect of DTP.
Bonjour et merci à l’auteur de rappeler qu’aucune interprétation n’est possible sur la nature (causale ou non) d’un lien statistique apparu lors d’une étude de type observation. Les observations sont des machines à faire ressortir les biais de toutes sortes.
D’autre part,
RR signifiait au départ Rapport de Risque, en anglais Rate Ratio ou Risk Ratio, très bien défini dans l’article. Le RR permet d’évaluer le RRR = 1 – RR = « Relative Risk Reduction » qui signifiait à l’origine « réduction relative du risque » soit en anglais « relative risk dereduction ».
Un article en solde à – 70% signifie un rapport de prix (soldé/initial) à 0.3 et – 70% est la variation relative du prix =1-0,3 et non la variation du prix relatif. La notion de « risque relatif » à beau figurer dans bien des cours de statistique médicale, elle provient en fait d’une erreur d’interprétation du sigle RRR : c’est la réduction qui est relative et non le risque.
D’un point de vue purement mathématique la cause est la même que pour ce qu’on appelle le paradoxe de Simpson qui peut apparaître dans les tests dits cas-témoins. J’en donne un exemple en reprenant les nombres du premier exemple de l’article. Les cas seront les « non exposés » en vert soit 500+700=1200 dont 15 vaccinés. Les témoins, toujours plus nombreux que les cas (d’où mon choix), seront les « exposés » en rose soit 9500+300=9800 dont 125 vaccinés.
L’odds ratio OR vaut 15/1200 divisé par 125/9800 soit 0,98 dont l’inverse est 1,02 qui évidemment ne sera pas du tout significatif d’une différence d’exposition à la vaccination entre les cas et les témoins. Cependant si on dissocie en comparant les 500 cas dont 1 vacciné avec les 700 cas dont 14 vaccinés on aura une différence très significative d’exposition à la vaccination avec 7 chances sur 10 000 d’observer un tel écart par le seul hasard.
On retrouve cette problématique dans des études publiées mais pour lesquelles ni les auteurs ni les commentateurs « autorisés » ne semblent avoir vu le problème. Par exemple la publication Mikaeloff-Tardieu de 2008 sur SEP et atteintes démyélinisantes centrales chez les enfants après vaccination HB : 56 % de vaccinés HB parmi les SEP contre 36 % parmi les atteintes non SEP. L’écart est très significatif (1/10 000), pourtant quand on regroupe les données en traitant en cas-témoins il n’y a pas du tout de signal.
Où est le problème ? On veut tester si on peut accepter que les probabilités d’avoir été vaccinés HB sont les mêmes chez les cas et chez les témoins. Mais encore faudrait-il que ces probabilités existent, ce qui veut dire que chacun des 349 cas puisse avoir la même probabilité d’avoir été vacciné HB. Ce n’est pas du tout réalisé. Autrement dit les auteurs, avec l’agrément des commentateurs autorisés, ont déclaré égales 2 probabilités qui n’existent pas, où, pour être plus rigoureux, qui n’ont qu’une probabilité très faible d’exister.
Je rappelle que ce résultat peut se présenter sous une autre forme plus parlante : 52 % de conversion en SEP pour ceux vaccinés HB avant la première atteinte contre 32 % pour les non vaccinés HB.
Pour plus de détails sur cette affaire aussi secrète qu’énorme, mon article du 23 février. Énorme et secrète car ce résultat était connu des auteurs et de certains commentateurs autorisés avant la publication de l’étude, celle-ci n’en parlant point tout en publiant les données qui permettent de le trouver.
https://www.aimsib.org/2020/02/23/mentir-ou-travestir-pour-ne-pas-faillir-le-coup-du-signal-fort-quon-prefere-oublier/
Pour que la nature de l’erreur technique analysée dans cet article soit claire on a, pour le premier exemple, un groupe de 9500 personnes dont 95 EI et un autre groupe de 300 dont 30 EI. La question est : a-t-on le droit de les regrouper pour ensuite comparer les 9800 avec 125 EI à un autre groupe ?
Les probabilités d’apparition des EI étant très différentes dans ces 2 groupes, il sera impossible d’attribuer une probabilité commune d’apparition d’un EI chez les 9800. On ne doit donc pas regrouper.
Pour comprendre il faut distinguer entre les proportions observées d’EI qui sont donc connues et les probabilités d’apparition des EI qui sont inconnues mais qui pourraient être égales malgré les différences sur les proportions observées. C’est le fait de ne pratiquement jamais prendre en compte ces probabilités inconnues mais présentes malgré tout qui bloque la compréhension de ces questions.
La question est donc : peut-on accepter que ces probabilités soient égales alors que les proportions observées ne le sont pas ? On peut alors comprendre qu’il faut aussi s’assurer de l’existence de ces probabilités pour éviter de déclarer égales (ou inégales) des valeurs qui n’existent pas !!!
En présentant l’affaire ainsi, on constate que la question que l’on veut traiter est généralement mal posée avec un refus obstiné de parler de ces probabilités qui sont des valeurs théoriques supposées implicitement exister. Il serait pourtant plus clair de les expliciter !
Si on tape sur google comparaison de 2 proportions (ou de 2 moyennes) on trouve mais si on tape comparaison de 2 probabilités c’est déjà moins évident. Pourtant il s’agit bien de cela : comparer 2 probabilités en utilisant des valeurs observées.
Faire entrer les Mathématiques dans le domaine médical, me semble quelque peu fallacieux ….. La Médecine, « science » du « vivant », ne se laisse pas aller à des calculs dont ON, fait dire TOUT, et n’IMPORTE QUOI !!!…..
Mais, ceci est une autre histoire …..
Les scientifiques sont désormais familiarisés avec toutes les approximations et consensus.
Les non scientifiques pensent que la science est « exacte » et font confiance aux « scientifiques » et à leur vérité toute bâtie sur un socle fantaisiste à partir duquel tout est interprété.
Les découvertes sont à leur tour interprétées en fonction des « vérités » établies; on ajoute ainsi du flou au flou …
Que reste t-il alors ? les statistiques pour tenter de faire ressortir cette vérité que la science n’a pas su trouver et qui sont malheureusement utilisées de manière tendancieuse pour embrouiller un peu plus les esprits et surtout leur imposer des « vérités ».
Il y a un facteur important que les statistiques ne prennent pas en compte : les politiciens !
Car avec ce coronavirus toutes les prévisions basées sur des statistiques furent fausses !
— Au moins 15 millions de morts et 2.400 milliards de dollars de baisse du PIB mondial. C’est ce que prédisaient des chercheurs australiens à propos du coronavirus dans le meilleur des cas. Mais il pourrait tout aussi bien dépasser les 68 millions de victimes :
https://fr.sputniknews.com/international/202003061043202988-le-coronavirus-tuera-au-moins-15-millions-de-personnes-dans-le-meilleur-des-scenarios-affirme-une/
— Le virologue Christian Drosten annonçait 280 000 décès en Allemagne..
https://www.liberation.fr/planete/2020/03/13/le-covid-19-va-t-il-provoquer-300-000-morts-en-allemagne_1781666
— En France, l’Express annonçait le 23 mars 2020 1,8 million de morts dans le monde même avec de strictes mesures destinées à réduire sa propagation :
https://www.lexpress.fr/actualite/monde/le-coronavirus-pourrait-tuer-1-8-million-de-personnes-dans-le-monde_2122078.html
— Un précédent rapport de l’Imperial College mi-mars avait évalué que l’épidémie pourrait faire jusqu’à 510 000 morts au Royaume-Uni.
En réalité, le bilan reste deux fois moins meurtrier que la saison grippale de 2017 qui a causé 650 000 morts dans le monde. Comme Orwell le décrit en 1984, un point majeur de la pandémie a été d’amener les gens à croire les deux à la fois : à des prévisions minimum et maximum. D’un côté, on a présenté le covid 19 comme terrifiant, une véritable menace pour la race humaine, principalement grâce au modèle informatique de l’Impérial College pourtant affreusement bâclé. De l’autre, on a officiellement fait circuler qu’il n’était pas aussi virulent et qu’il ne constituait un danger que pour les personnes déjà malades ou gravement immunodéprimées. Il allait se comporter en fait comme la plupart des coronavirus. Une des raisons de cette dualité, ne serait-elle pas un essai de coup d’État contre la liberté humaine ?
Ceux qui sont au pouvoir savaient pertinemment que le coronavirus ne représentait aucune menace ! Quelques preuves à l’appui :
https://effondrements.wordpress.com/2012/05/16/complot-mondial-contre-la-sante/comment-page-2/#comment-79886
Le problème justement est que les mathématiques n’ont pratiquement jamais été utilisées en médecine ! Les experts en médecine utilisent des nombres et font des calculs avec ou plutôt, la plupart du temps, ils confient les calculs à un logiciel sans jamais s’assurer que les conditions de validité des calculs sont à peu près satisfaites.
C’est là le problème ! Quand j’étais à l’école primaire on ne faisait pas de mathématiques, on faisait du calcul avec la fameuse règle de trois : 3 choux coûtent 3 francs six sous, combien coûtent 10 choux ? On ne nous disait pas qu’il fallait que tous les choux soient au même prix !
C’est bien là le problème de l’exemple que j’ai donné dans mon premier commentaire : Lévy Bruhl fait une règle de 3 alors que les choux (les exposés au BCG ) ne sont pas tous au même prix (pas tous exposés de la même façon à la tuberculose). Pourtant cette modélisation, qualifiée de « très beau modèle mathématique » par Jean-Louis San Marco le président de la commission d’audition sur l’obligation du BCG (en novembre 2006) a largement contribué à fonder la nouvelle politique de vaccination BCG en France en 2007.
Oui, les comités d’experts se sont appuyés sur une modélisation dite mathématiques complètement ridicule pour proposer au gouvernement (ministre de la Santé Roselyne Bachelot) une politique de vaccination BCG.
Quand j’étais jeune, les mathématiques ne débutaient qu’en sixième, quand, en principe, on commençait à accorder de l’importance aux conditions de validité des calculs. Aujourd’hui, les enfants font des mathématiques dès l’âge de 3 ans ! J’ai entendu cela cette année à l’occasion de la semaine des mathématiques. Oui, ils font des mathématiques car » ils apprennent à reconnaître les chiffres ». Je ne savais pas que d’apprendre l’alphabet c’était faire de la littérature.
La question est moins de savoir s’il faut ou non utiliser des mathématiques en médecine mais, si on le fait, il faut alors le faire correctement et non pas faire n’importe quoi. Or c’est n’importe quoi car ce qui est fait n’a rien à voir avec les mathématiques, il y manque l’essentiel pour cela.
Ceci dit Pythagore disait « au commencement Dieu géométrisa », autrement dit faisait des mathématiques mais c’est une autre histoire où les rapports numériques de fréquences jouent un rôle essentiel. L’harmonie que nous ressentons en écoutant de la musique est d’abord liée à des rapports numériques très rigoureux entre les fréquences et suscitent une résonance vibratoire avec notre corps. Là on n’est plus dans la statistique. Le Beau, l’Harmonie, la Santé et les Mathématiques ne sont pas indépendants même si les artistes sont capables de créer du beau et de l’harmonie sans rien connaitre aux mathématiques.
On se demande bien à quel dieu votre Pythagore se réfère lui qui vivait dans un monde polythéiste ? Par contre, il se trouve quelques fanatiques pour rapporter que le célèbre grec était monothéiste. Sur quel argument repose cette assertion ? Sur une vision du monde que l’on aimerait mettre dans la bouche d’un ancien pour confirmer ses propres convictions ?
Toujours trouverons-nous des rapports entre les fréquences et leurs harmoniques sans doute responsables de nos vibrations. Les sourds disent du son que ce sont les basses qui les mettent en vibration, car ces basses fréquences sont directement perceptibles par le corps, ainsi peuvent-ils danser sur les graves. Mais en musique ce n’est pas toujours l’harmonie qui séduit car le cerveau, ce terrible filtre, vient en interférence de la sensation pure. Un peu comme l’oeil qui, habitué à la peinture pompier, trouvera son régal dans l’oeuvre abstraite.
Les sens sans le sens peuvent être aussi trahis. Et la séparation est bien souvent un des défauts majeurs de l’époque toujours à la recherche de quelques vérités définitives.
Sans doute Akira, mais ces statistiques devraient être confirmées par un suivi actif systématique sur le terrain afin de relever tous les évènements nouveaux intervenus consécutivement au début de la prise du traitement pour constater leur éventuelle récurrence.
La pharmaco-vigilance effectue t-elle des suivis actifs réellement ? Ou se contente t-elle des informations plus ou moins remontées, donc déjà filtrées par des personnes décidant par avance qu’un effet ne peut être lié à tel traitement : suivis passifs donc ou carrément absence de suivi quand le produit est décidé inoffensif arbitrairement comme c’est le cas des vaccins.
Pourquoi faire simple quand on peut faire compliqué ?
Je me demande quelle est l’utilité réelle et la fiabilité de tous ces coefficients et indicateurs dont les épidémiologistes paraissent si friands. Il existe un test très classique qui est celui de la comparaison de 2 proportions. Appliquons le au second exemple de données fabriquées proposées par le Vigilant.
Pour les haut risque il y a 300 personnes dont 24 EI d’une part chez les exposés contre 14 EI chez 700 personnes non exposées. Le test donne 1,5 chances sur 10 000 d’obtenir un écart au moins aussi grand par le seul fait du hasard, ce qui est très significatif. La bonne information c’est cela et non pas le RR qui vaut 4.
En effet, si je prends 50 personnes pour 4 EI d’une part chez les exposés et 100 non exposées dont 2 EI on aura encore RR=4 mais la probabilité d’un tel écart entre les 2 groupes sera 7,3% non significative au seuil habituel.
On a ainsi des réponses claires sans qu’il soit nécessaire ni même utile de fabriquer ces coefficients censés jouer le rôle d’indicateurs et qui posent plus de problèmes qu’ils n’en résolvent. On comprend bien que l’idée est de mesurer le risque par un indicateur c’est à dire un seul nombre qui serait parlant à lui tout seul en faisant quelques divisions et donc en évitant de calculer une probabilité. Mais ces probabilités obtenues en faisant les tests donnent en fait des indications bien plus fiables car pour le même RR elles pourraient être très différentes.
Il pourrait y avoir là comme une sorte de délit de fuite devant une difficulté technique, le calcul de cette fameuse probabilité qui est pourtant le fondement du test statistique. C’est plus simple de faire 2 divisions puis de fantasmer sur le résultat ! Pourtant, des logiciels se feraient un plaisir de le faire !
Félicitation pour tout ce travail, la prise de risque, votre souhait d’objectivité et la volonté de rester indépendant. Vous m’inspirez et me réconfortez.
Je trouvais un décalage si grand entre notre pratique et le serment que nous jurons! Aujourd’hui en Inde pour un projet de recherche sur l’Ayurveda et les sciences védiques, il me tarde de vous rejoindre lors de mon retour en France. Tenez bon et merci.
Bonjour Brigitte,
entièrement d’accord avec vous.
Aucune précaution de prise avant de vacciner et aucun suivi après la vaccination en tout cas pour ce qui me concerne.
Beaucoup de mes connaissances sont dans le même cas que moi.
Bonjour
Article un peu compliqué, je n’ai pas tout compris, mais je vais le relire car intéressant.
Bonjour à Tous.
Si je peux me permettre de poster un lien d’une petite vidéo assez bien faite qui permettra à ceux qui comprennent déjà bien ces phénomènes de les expliquer à leurs enfants.
Cordialement.
https://www.youtube.com/watch?v=vs_Zzf_vL2I
Bonjour Daniel, excellent cette petite video explicative.
Il y a la vidéo, il y avait auparavant l’article par le même (avril 2013) plus une flopée de commentaires dont les miens. C’est donc une vieille histoire, ce paradoxe qui ressort quand on ne l’attend plus, un peu comme le monstre du Lochness … Je n’exagère rien, voici ce qu’écrivait un auteur à ce sujet :
« »Un bon paradoxe est un paradoxe dont on ne réussit jamais à se débarrasser. Quand vous croyez en avoir trouvé la clef, une remarque vous fait découvrir que rien n’est résolu. Les paradoxes de Zénon à propos de l’impossibilité du mouvement sont de tels paradoxes.
Mais le plus élémentaire de tous est le paradoxe de Simpson dont on imagine des solutions… qui conduisent à d’autres paradoxes !
Sans cesse, des scientifiques et des utilisateurs de statistiques tombent dans les pièges qu’il tend.
Chaque année, paraissent des articles qui tentent de déterminer son sens profond et la façon dont on doit le traiter.
Malgré cette littérature abondante, il n’est pas certain que l’on détienne une solution entièrement satisfaisante pour se libérer de cette récalcitrante absurdité. »
Faire un insondable et inévitable paradoxe avec 8 nombres, ce n’est pas très vraisemblable. Et pourtant ! En fait les vraies causes de ce paradoxe je les ai décrites dans mon commentaire ci-dessous. Les commentateurs se sont laissé détourner par des causes supplémentaires permettant de donner à ce paradoxe une coloration plus forte comme des tailles très différentes pour les effectifs, ce qui fait qu’ils n’ont pas vu la cause principale qui serait pourtant facile à identifier.
En effet, pour pratiquer le test de comparaison de 2 proportions il faut 5 conditions dont les 2 premières sont (exprimées avec des pièces) :
1- les pièces de 1€ doivent toutes avoir une même probabilité p de tomber sur pile (ou par ex chaque personne du 1er groupe doit avoir une même probabilité p de faire un EI).
2- De même pour les pièces de 2€ avec une probabilité p’ (ou chaque personne du second groupe doit avoir une même probabilité p’ de faire un EI).
On teste alors si on peut accepter p=p’. On comprend qu’il est impératif que p et p’ existent !!! C’est là le problème !!!!!!! Mais que c’est difficile à faire accepter. Il y a un incroyable blocage à ce sujet alors que c’est très simple. On se perd alors dans des considérations et des discussions à n’en plus finir. Il n’y a pourtant pas de cartes postales à vendre !
Il faut bien comprendre que le problème étant strictement numérique les explications médicales n’ont rien à voir avec les vraies raisons, d’où une difficulté à les identifier. Si vous voulez je précise avec les données numériques de la vidéo.
Il y a donc 182 grosses tumeurs traitées par des médicaments dont 90 guérisons (49%). On pourrait aussi bien dire : 182 jets de pièces de 1€ ont donné 90 piles.
Il y a aussi 818 petites tumeurs traitées par médicaments dont 671 guérisons (82%). On peut aussi dire : on a obtenu 671 piles en lançant 818 pièces de 2€. Il est important de faire ces traductions en pièces pour bien réaliser que le problème n’est pas médical.
Compte tenu des effectifs et des différences de proportions observées (49% et 82%) le test de comparaison des proportions entre ces 2 groupes montrera que les probabilités de guérison des grosses et petites tumeurs n’ont pratiquement aucune chance d’être égales. En conséquence on ne peut pas regrouper ces données pour faire un test en comparaison d’autres données (en l’occurrence les cas traités par chirurgie) car il faudrait que ces 1000 cas puissent avoir une même probabilité de guérison par les médicaments. Où que les 1000 pièces de 1 et 2 euros aient toutes une même probabilité de tomber sur pile.
Ce n’est pas du tout le cas aussi l’affaire s’arrête là ! C’est aussi simple que cela.
Voici un exemple réel et aux conséquences très importantes qui restent toujours dans les limbes de la connaissance reconnue, y compris par la critique : parmi les 349 cas d’atteintes démyélinisantes centrales retenues dans l’étude Mikaeloff-Tardieu sur les enfants il y a 143 SEP dont 80 vaccinées HB (56%) contre 206 atteintes non SEP dont 74 vaccinées HB soit 36%. Là aussi on ne doit pas regrouper car ces 2 groupes n’ont aucune chance d’avoir une même probabilité d’exposition à la vaccination HB.
Pourtant c’est ce qu’ont fait les auteurs qui, faisant bien sûr de même avec les témoins, comparent et déclarent comme pouvant être égales deux probabilités qui n’existent pas !!! On le voit de suite sans aller chercher aucune explication médicale. Le test, largement commenté, déclaré probant de l’absence de lien entre la vaccination HB et la SEP et dont les données groupées ont été incorporées dans une méta analyse récente, ne vaut strictement rien. Il est même complètement ridicule et il ridiculiserait auteurs et commentateurs s’il existait un public pour le comprendre.
Bonjour Bernard, le test compare effectivement des tumeurs qui ne sont pas comparables en terme de probabilité de guerison (p différent de p’ pour reprendre votre demonstration), mais en plus il agrège de façon déséquilibrée les échantillons, ce qui fait probablement pencher la balance du côté de l’échantillon le mieux représenté. Dis autrement: les petites tumeurs se soignent mieux par chirurgie mais on en traite que 105 avec ce type de soin, par contre par chimiothérapie c’est moins efficace mais on en traite 818, forcement lorsqu’on agrège les deux types de soins avec des échantillons numériquement différents, on fait pencher la balance vers l’echantillon en grande supériorité numérique (celui traité par chimiothérapie).
Après, il y a un autre problème non évoqué dans la vidéo, c’est que la taille des tumeurs n’est pas le seul paramètre qui joue sur la probabilité de guérison, il y a d’autres, par exemple le grade et le stade (c’est très souvent une palette de gris, avec des nuances qui vont du blanc au noir), ce qui complique encore l’analyse statistique qu’il convient effectivement de regarder avec prudence (en Oncologie comme dans bien des domaines….).
En fait ce n’est pas seulement p différentes de p’, c’est surtout que p et p’ n’existent pas ! Ce qui règle complètement le problème de la comparaison de ces probabilités entre les 2 groupes complets.
Au sein du groupe « petites tumeurs » par exemple le même problème pourrait aussi se présenter avec des cas très différents selon le grade et le stade de la maladie ce qui pourrait faire que même au sein de ce groupe la probabilité de guérison par les médicaments ne soit pas du tout la même et qu’ainsi la comparaison avec la chirurgie puisse être faussée.
Imaginons que pour les petites tumeurs récentes les médicaments se montrent plus efficaces que la chirurgie et que sur les tumeurs plus anciennes ce soit l’inverse, alors le test sur les données globales « petites tumeurs » (la taille doit correspondre au grade je présume ?) ce soit la chirurgie qui l’emporte. On passerait à côté d’un fait intéressant.
Soyons clairs (et modestes) le problème n’est pas ici ni dans la vidéo de régler le problème des cancers par rapport aux médicaments et la chirurgie mais d’illustrer une problématique statistique trop souvent oubliée et qui conduit à comparer des probabilités qui n’existent pas, ce qui crée le paradoxe de Simpson.
La taille des échantillons joue un rôle pour orienter la comparaison dans un sens ou un autre mais son importance est au second ordre par rapport à la non existence des probabilités qu’on veut comparer. On peut avoir des problèmes même avec des échantillons tous de même taille. Exemple :
100 pièces françaises de 1€ donnent 30 piles et 100 de 2€ en donnent 70.
100 pièces allemandes de 1€ donnent 70 piles et 100 de 2€ en donnent 30.
Le 200 pièces françaises donnent donc 100 piles de même que les allemandes. Conclusion : les pièces françaises et allemandes sont équilibrées et comparables !!!
Vous voyez qu’il n’est pas nécessaire d’aller bien loin pour s’initier aux pièges de la statistique. Pour éviter les accidents d’avions les pilotes font énormément de simulateurs de vols. C’est ce qui manque aux épidémiologistes et assimilés. Ils pilotent depuis le sol un avion bourré de millions de passagers alors qu’ils ne savent pas lire les cadrans.
Si vous voulez une explication plus « technique » du paradoxe de Simpson, voici !
Je propose de décrire comment traiter correctement des données en prenant comme exemple numérique le second exemple pédagogique proposé par le Vigilant. Pour montrer l’universalité du procédé je modifie ce que les nombres utilisés représentent.
Les cas à faible risque deviendront des pièces françaises ; les cas à haut risque seront des pièces allemandes. Les cas exposés seront des pièces de 1€ et les non exposés des pièces de 2€. Les EI correspondent aux pièces tombées sur pile.
Premier test : on compare 9500 pièces françaises de 1€ qui sont tombées 76 fois sur pile avec 500 de 2€ tombées seulement une fois sur pile. La probabilité associée au test de comparaison des proportions observées vaut 3,2/1000 ce qui signifie qu’il y a 3,2 chances sur 1000 pour observer un tel écart par le seul fait du hasard. Ce résultat indique que les pièces françaises de 1 et 2 euros ont peu de chances d’avoir une même probabilité de tomber sur pile.
Second test : on procède de la même façon entre les 300 pièces allemandes
de 1€ tombées 24 fois sur pile et les 700 de 2€ tombées 14 fois sur pile. La probabilité associée au test est 1,45 sur 10 000 très significative.
Troisième test : on compare les 9500 pièces françaises de 1€ avec les 300 pièces allemandes de 1€ tombées 24 fois sur piles. La probabilité associée vaut 2,3 sur 1 million qui signifie que les pièces françaises et allemandes de 1€ n’ont pratiquement aucune chance d’avoir une même probabilité de tomber sur pile.
Quatrième test : on fait de même avec les pièces de 2€. La probabilité vaut 7,36 sur 10 000 soit moins d’une chance sur 1000 qui indique aussi que les pièces de 2€ françaises et allemandes ont peu de chances d’avoir une même probabilité de tomber sur pile.
Cinquième test : Les résultats de ces 2 derniers tests disent très clairement qu’on ne doit pas regrouper les données des 2 pays pour les tester globalement car le test n’aurait aucune valeur. Le test, qu’il n’est pas interdit de faire même si on ne doit pas valider son résultat, donne une probabilité de 25 % indiquant que les pièces de 1 et 2 euros des 2 pays peuvent avoir une même probabilité de tomber sur pile contrairement aux résultats précédemment obtenus. D’où vient le paradoxe ?
En fait ce dernier test affirme l’égalité de 2 probabilités qui n’ont pratiquement aucune chance pour exister. Ce sont d’une part la probabilité p pour les pièces de 1€ et p’ pour celles de 2€. Les tests 3 et 4 ont montré que p et p’ n’existaient sans doute pas !
Cette situation type paradoxe de Simpson est beaucoup plus fréquente qu’on ne le pense dans les études épidémiologiques et surtout, auteurs et commentateurs n’en ont pas toujours conscience …
@Bernard Guennebaud 3/6 13h55
Bonjour.
En plus de ce que vous énoncez et qui pourrait se résumer à une sorte de réalité « objective » car ce sont des calculs issue d’axiomes connus, il ne faut pas oublier la partie « subjective » lors de la présentation d’un résultat.
Les résultats « intuitifs » sont toujours mieux accueillis et il est fort difficile de défendre le contraire.
Une contre vérité martelée durant plusieurs années et confirmée par des calculs totalement faux a de grande chance de perdurer, je n’ose ouvrir la boite de pandore des exemples.
Votre petit exemple avec les pièces est pertinent, car, même si vous précisez clairement au tout début de votre proposition que ce sont des pièces « truquées » l’esprit lutte constamment pendant la lecture de votre exposé en se demandant pourquoi des pièces de 1E ou 2E dont nous connaissons « intuitivement » l’ usage d’impartialité se comporteraient différemment à Neuf ou Vieux Brisach.
Eric Marquant parlait un peu plus haut du « terrible filtre » qu’est notre cerveau ce n’est hélas pas un filtre tangentiel et il est probable qu’un fort taux d’informations polluantes le colmate inexorablement ce que les médias ont bien pigé visiblement ces temps derniers.
Mais il faut souhaiter que la peur ne fasse pas encore son sinistre ouvrage et que les mois passés contribuent à ouvrir les esprits.
Il est cité un peu au dessus un site relativement « engagé » (mais il ne faut pas oublier que tout ce qui est exagéré est insignifiant. … ) sur lequel j’ai trouvé ceci que je ne connaissais pas.
Ce sont des images de 2012…
https://www.youtube.com/watch?v=AnJeqJEizPQ&feature=youtu.be
Cordialement.
Toutes choses n’étant pas égales, il est heureux que nos cerveaux ne ressemblent point à cette technique de cross-flow, un peu comme dans cette médecine qui voit le corps humain comme une espèce de machine dont on aurait à changer les pièces… Certains cerveaux seront très réceptifs au flux de la propagande d’autres moins, toutes choses n’étant par ailleurs point égales… Ce n’est ni d’hier ni d’aujourd’hui que les princes tentent de séduire pour pouvoir conduire leurs desseins. Entendons-nous bien Monsieur Bardou, c’est du lien entre perception et réflexion dont il était question, ceux qui opèrent cette séparation ont une vision mécanique de l’humain, ici, comme en bien des choses, point de séparation.
@ Daniel Bardou D’abord merci pour votre commentaire car ils se font rares en rapport avec ce que je tente de faire comprendre et qui est assez fondamental. Mais comme vous le dites il y a le colmatage du cerveau. Les affirmations martelées par ce qui fait autorité prenant le dessus sur des réflexions de meilleures qualités. Dans ce domaine de la statistique elles sont très loin d’être toutes volontaires y compris par les « experts » en santé publique.
Pour ce qui est des pièces « truquées » si cela vous dérange qu’elles puissent avoir 20% de chances de tomber sur pile plutôt que 50% vous n’avez qu’à les remplacer par des urnes à 2 couleurs avec tirages avec remises. Les proportions de boules blanches pourront alors prendre toutes valeurs. Le problème que vous soulevez est vraiment purement psychologique.
Je réalise aussi qu’il faudrait expliquer, même ici, le fondement du test statistique. On a donc 2 groupes (de personnes, d’animaux, de végétaux, de pièces, d’urnes …). On veut pouvoir décider si les 2 groupes sont comparables d’un certain point de vue (apparition d’une maladie, taux de vaccination, proportions de boules blanches dans les urnes).
On a donc pour chaque groupe une probabilité de tomber malade qui est une valeur théorique inconnue mais supposer exister. C’est là l’important généralement occulté pour ne pas faire compliquer, du moins crois-t-on. Cette probabilité DOIT être la même pour tous les membres du groupe. On a donc ainsi 2 probabilités p et p’ associées à chacun des 2 groupes. Elles sont de valeurs inconnues mais supposées implicitement exister. C’est fondamental.
Sur des observations on obtient deux valeurs observées X et X’ pour les proportions de malades dans les 2 groupes. La plupart du temps X et X’ seront différents mais on veut pouvoir décider si les écarts observés sont compatibles avec de simples variations aléatoires des probabilités inconnues p et p’ ou si les écarts sont trop importants pour accepter p=p’.
le principe du test statistique c’est aussi simple que cela ! Mais on constate une chose des plus importante, rarement rappelée et souvent oubliée : les probabilités p et p’ doivent exister !!! Autrement dit, les groupes doivent être homogènes par rapport à la chose testée. Si par exemple les hommes et les femmes d’un même groupe ont des probabilités très différentes de tomber malades, les probabilités p et p’ ne pourront exister. Cela n’empêchera pas d’accepter statistiquement l’égalité (ou l’inégalité) entre p et p’. Sauf que on accepte cette égalité entre 2 valeurs qui … n’existent pas !!!!!
C’est tout le problème et c’est un très gros problème très lourd de conséquences comme je l’ai illustré avec les SEP et les atteintes démyélinisantes non SEP. On ne peut comprendre que si on accepte que pour tester on fait référence implicite à des valeurs inconnues et théoriques. Tant qu’on ne manipule que des données numériques, qu’on peut « toucher » donc, sans référence explicite à ces probabilités, on ne peut pas comprendre et on se perd dans des considérations indéfinies comme l’illustre d’ailleurs la vidéo de David (sciences étonnante) qui ne met jamais le doigt sur le vrai problème, sans doute pour faire pédagogique et concret, mais qui en fait forme un écran qui éloigne de la réalité tout en voulant y coller.
J’ai enseigné la statistique pendant 20 ans à des étudiants SVT. Je sais combien la tendance est forte d’oublier les fondements pour ne faire que du bricolage numérique. Mais je n’avais pas réalisé à l’époque à quel point cela était important. J’en ai pris conscience avec les désastreuses statistiques médicales et les mœurs qui règnent dans ce domaine. Très difficile d’aller contre les mœurs !!!
Il y a aussi cette manie de mettre des indicateurs partout, c’est à dire des nombres qui, comme le risque relatif, les ratios, qu’ils soient odds, hazard..;, taux d’efficacité que sais-je et dont on devrait s’interroger sur ce qu’ils peuvent vouloir dire.
On oublie un peu vite que 12/3 ça fait 4 tout comme 12000/3000 ou 1 200 000/300 000 et que ce 4 ne dit plus tout à fait la même chose. Plus haut dans mes commentaires j’avais donné un exemple avec RR=4 significatif avec des tailles d’échantillons assez importantes et qui cessait de l’être avec des échantillons plus réduits. C’est quoi l’important ? Que RR=4 ou que l’écart soit ou non significatif ?
La publication sur le Lévothyrox, il y a un an, s’appuyait sur des échantillons de plus de 1 millions de personnes. On avait ainsi des ratios de 1,01 qui étaient significatif voire très significatifs.Mais comme le ratio était très proche de 1 tout allait bien ! On sait pourtant que les valeurs des rapports de nombres s’écrasent avec des nombres élevés.
Un exemple simple : je lance 10 fois une pièce équilibrée. je peux tout à fait obtenir 7 piles, la probabilité est loin d’être négligeable. Mais si je la lance 100 fois je n’ai pratiquement aucune chance d’en obtenir 70. Pourquoi ? parce qu’il s’opère des compensations. Une autre série de 10 pourra donner 3 piles ou 2 autres donneront 4 piles etc …Ces compensations feront que j’aurai peu de chances d’avoir plus de 62 piles ou moins de 38. Si je la lance 1 millions de fois, ce qu’on peut faire avec un ordinateur, le rapport obtenu aura toutes chances d’être très proche de 50%. C’est la loi des grands nombres que les auteurs de l’étude sur le Lévothyrox ne semblent pas connaitre. « C’est théorique tout ça mais nous nous sommes dans la pratique ! »
C’est un peu ce que tout le monde pense ou veut penser, c’est plus commode. Ce fut d’ailleurs la remarque faite un jour par une étudiante : « ça ne joue pas en pratique tout ça ? » Mais bien sûr que si ça joue et même beaucoup !
Face aux grands nombres et tous ces indicateurs qui n’indiquent rien, c’est comme si on appréciait le budget de la France avec les repères établis pour notre propre budget.
Merci pour tous ces articles passionnants!
L’allusion au Levothyrox et à ses statistiques désastreuses me permet de rappeler que la population soumise aux effets indésirables de la nouvelle formule, avait été comparée, statistiquement, à une population témoin bien choisie : les diabétiques ! Cela avait permis d’affirmer que les patients prenant du nouveau Levothyrox se portaient mieux que les diabétiques… Pour ma part j’avais multiplié mes consultations médicales par 5, sans être diabétique !
Ce que j’avais compris intuitivement est très bien expliqué dans cet article ; même moi j’ai, à peu près, compris !
Nicole Noël : vous auriez les références de cette étude svp ? Ca m’intéresse.
Vous pouvez aller sur les archives des articles Aimsib juin 2019. Vous y trouverez un article sur le sujet avec le lien vers l’étude.
https://ansm.sante.fr/var/ansm_site/storage/original/application/7065c9d2946e0128a3231f56d5865471.pdf
Merci Emma Kahnil s’agit bien de ce document,j’aurais peut-être eu du mal à le retrouver…Page 4 il est précisé que la population témoin est composée de diabétiques. L’étude a abouti au résultat: » pas d’argument en faveur d’un risque augmenté de problèmes de santé graves … »
Choisir comme témoin une population sujette aux complications c’était biaiser cette étude.Si un million de personnes ont changé de traitement(et ce n’est pas fini car l’ancienne formule va entièrement disparaître) ce n’était pas pour le plaisir!
Pour l’étude sur le Lévothyrox ce n’est pas tout à fait aussi simple car la comparaison première était faite avec ceux qui prenaient déjà l’ancienne formule (AF) l’année précédente en 2016. Le malade qui achetait pour la première fois la NF, par ex le 15 avril 2017, était appariée avec une personne ayant acheté une AF le 15 avril 2016 ou très proche. les deux étant suivies jusqu’au 31 décembre qui suivait.
Ainsi, en apparence du moins, chacun des cas 2017 était suivi pendant une même durée qu’un cas de 2016. SAUF que ceux qui prenaient déjà l’AF en 2016 (plus de 98%) et qui achetaient leur première NF le 15 avril 2017 avaient encore une réserve de médicament AF pour plusieurs semaines d’une part. D’autre part, 184 000 d’entre-eux abandonnèrent la NF vers septembre-octobre 2017 pour revenir à l’AF.
Ainsi les durées moyennes réelles de suivi pour les avec la NF en 2017 furent beaucoup plus courtes que pour l’AF en 2016 et la NF a bénéficié des effets indésirables moindres de l’AF grâce au retour vers l’AF alors que ces patients étaient toujours supposés être sous NF !!!
La comparaison avec les diabétiques était surtout là pour tenter de vérifier qu’il n’y avait pas eu en 2017 un phénomène général particulier qui aurait pu modifier les conditions entre 2016 et 2017 et favoriser ou défavoriser le recours à des médicaments. Donc c’était moins pour comparer les malades que les 2 années considérées.
Bonjour, je suis géographe urbaniste et ce qui me frappe c’est que cette tendance se retrouve (mais c’est très logique) dans d’autres champs disciplinaires que la médecine. Dans mon domaine, plutôt que l’étude statistique rigoureuse, a surgit le SIG (« système d’information géographique ») cad la modélisation mathématique appliquée à l’espace et aux territoires et qui aboutit à des absurdités assez importantes. Je travaille pour le compte des services de l’état et le nombre de personnes destinées à réaliser des études (possiblement qualitatives) a été tellement réduit qu’un système s’est mis en place : il est désormais bien commode de n’avoir qu’une seule personne devant un écran pour injecter une masse considérable de données statistique et qui vont être filtrées par des modèles mathématiques contenant dès le départ des ingrédients douteux (comme des coef de pondération qui sont d’emblée destinés à corrriger les déséquilibres du modèle etc) avec des personnes dont la formation n’est pas tellement l’analyse de donnée mais la cartographie qui résulte de l’application de ces modèles statistiques. résultat: des biais énormes! on a un cocktail : réduction du nombre de personnes, modèles mathématiques, modification de la formation initiale. C’est comme cela que cela fonctionne aujourd’hui
jean-christophe
Il me semble que vous montrez que les vaccins pourraient être responsables d’une multiplication par 5 du nombre d’autistes. C’est beaucoup moins que ce que j’ai lu, est-ce que ça veut dire qu’ils ont raison de dire que le plus gros de l’augmentation n’est pas causé par les vaccins ?