[NULLITÉ des modèles mathématiques pour légitimer les décisions politiques] Que restera-t-il de l’épidémiologie à la fin de la crise Covid-19 ? par Juliette ROUCHIER

25/03/2021 | 4 commentaires

Encore un article remar­quable sur le blog de Laurent Muc­chiel­li, que je trouve extrê­me­ment impor­tant pour la défense des liber­tés dans le monde.

Il s’a­git (je vais le dire en termes moins mesu­rés que la très sérieuse Juliette ROUCHIER) de la démons­tra­tion scien­ti­fique de la nul­li­té crasse et de la mal­fai­sance cri­mi­nelle des modèles mathé­ma­tiques extra­va­gants (abso­lu­ment pas scien­ti­fiques) qui servent aux gou­ver­ne­ments à per­sé­cu­ter les popu­la­tions depuis un an.

Toute cette folie d’une poli­tique publique pro­gres­si­ve­ment asser­vie aux sta­tis­tiques me fait pen­ser à la « gou­ver­nance par les nombres » (par­fai­te­ment décrite par Alain Supiot) qui nous est pro­gres­si­ve­ment impo­sée depuis cin­quante ans : la folie scien­tiste qui anime l’ul­tra­li­bé­ra­lisme est un trait com­mun entre l’URSS sta­li­nienne, l’Al­le­magne nazie et l’U­nion euro­péenne : tous les régimes tota­li­taires pré­tendent rem­pla­cer la déli­bé­ra­tion démo­cra­tique par un abso­lu­tisme pré­ten­du­ment scien­ti­fique. Avec la « crise sani­taire », cette folie scien­tiste s’aggrave.

Je repro­duis ici ce bon réqui­si­toire contre les pré­ten­dus « modèles » mathé­ma­tiques, pour pou­voir en sur­li­gner les pas­sages qui me paraissent les plus importants.

Bonne lec­ture.

Étienne.


Que restera-t-il de l’épidémiologie à la fin de la crise Covid-19 ?

Laurent Muc­chiel­li : Cet article rap­pelle quelques erreurs sys­té­ma­tiques por­tés par les épi­dé­mio­logues les plus visibles, comme la croyance que leur modèle est plus vrai que la réa­li­té ou bien la néces­si­té d’exprimer des vues pes­si­mistes pour sou­te­nir des formes de gou­ver­ne­ment par l’acceptabilité sociale. On ne devrait pas lais­ser à cette dis­ci­pline le mono­pole de l’expertise pour la déci­sion publique.

par Juliette ROUCHIER, direc­trice de recherche au CNRS en éco­no­mie et envi­ron­ne­ment, spé­cia­liste de l’utilisation des modèles agents appli­qués aux sciences sociales, et ancienne res­pon­sable du GDR « Poli­cy Ana­ly­tics » (Aide à la déci­sion inno­vante pour les poli­tiques publiques).

Le Monde a publié le 6 mars 2021 un entre­tien avec Simon Cau­che­mez qui marque une étape impor­tante dans une forme d’absur­di­té logique qui s’expose depuis bien­tôt un an aux yeux de tous nos conci­toyens. Quand on lui demande s’il s’est trom­pé en annon­çant 300 000 à 350 000 morts il y a un an, le modé­li­sa­teur du Conseil Scien­ti­fique répond « non », même si le nombre de morts esti­més à cause de la Covid-19 est de moins de 90 000 à ce jour (puisque les morts avec Covid-19 ne sont pas tous morts de Covid-19 : l’INED recom­mande encore d’attendre pour conclure). Ses argu­ments cen­traux sont de deux natures : les mesures prises sont à l’origine de cet écart mas­sif, et l’épidémie n’est pas finie.

Cette néga­tion est un révé­la­teur d’un cer­tain nombre de biais, géné­ra­li­sés au sein de la com­mu­nau­té épi­dé­mio­lo­giste la plus offi­cielle, dont celui qui consiste à refu­ser toute remise en cause. Si celui-ci pose en par­ti­cu­lier des pro­blèmes lorsque les pré­dic­tions servent à jus­ti­fier des poli­tiques publiques, il en existe d’autres qui s’expriment régu­liè­re­ment dans des sémi­naires, des publi­ca­tions, comme l’idée qu’on se doit d’être pes­si­miste dans les inter­ven­tions publiques.

En pré­am­bule à ce texte, il faut noter la mau­vaise habi­tude qui s’est impo­sée de faire usage d’arguments d’autorité pour inclure ou exclure les per­sonnes qui seraient « habi­li­tées », en leur qua­li­té d’épidémiologues, à cri­ti­quer ou même par­ler de modé­li­sa­tion. Cette défense dis­ci­pli­naire est assez clas­sique (on la trouve en éco­no­mie ou en finance depuis quelques dizaines d’années). Elle reste cho­quante pour tous les pra­ti­ciens inter­dis­ci­pli­naires qui défendent, au contraire, l’idée que le modèle for­mel a l’avantage d’établir une lin­gua fran­ca qui le rend dis­cu­table par toute per­sonne capable de le lire et de poser des ques­tions per­ti­nentes à son égard.

Les 400 000 morts du Président

Ce qui a carac­té­ri­sé la période de crise que nous connais­sons est un amour immo­dé­ré des chiffres et nombres, pro­duits et uti­li­sés de façon sou­vent un peu far­fe­lue. Les « 400 000 morts du Pré­sident de la Répu­blique », dans son allo­cu­tion du 28 octobre marquent un moment de bas­cule dans la capa­ci­té à mas­quer la réa­li­té sous des modèles.

Après la pre­mière sai­son de l’épidémie, où au mini­mum 350 000 morts avaient déjà été annon­cés par l’équipe de Fer­gu­son pour l’Angleterre, ce qui créait déjà un déca­lage impor­tant avec les don­nées, on pou­vait se dire que les modèles étaient à révi­ser (on note au pas­sage que S. Cau­che­mez a tra­vaillé 8 ans dans le labo­ra­toire de Fer­gu­son, ce qui peut expli­quer qu’il ait été choi­si comme expert natio­nal, à l’instar de son ancien col­lègue outre-Manche). A prio­ri, ils sont pour­tant basés sur les mêmes prin­cipes : des extra­po­la­tions de mor­ta­li­té ou réani­ma­tion à par­tir des don­nées du moment, et n’ont pas inté­gré les connais­sances acquises déjà en septembre.

Ain­si une hypo­thèse impor­tante est appa­ruedès juin : il existe des humains que le virus ne peut pas uti­li­ser pour conti­nuer son voyage entre hôtes. Une part non négli­geable de la popu­la­tion serait pro­té­gée de ce virus avant même de l’avoir ren­con­tré – soit l’individu pos­sède une « immu­ni­té croi­sée », soit ses muqueuses ne laissent pas péné­trer le virus – ou il ne le trans­met­trait pas, même une fois infec­té. C’est ce qui expli­que­rait à la fois le faible taux d’infection chez et par des enfants (à ce jour Karl Fris­ton donne le chiffre de 40% d’enfants et 25% des adultes qui natu­rel­le­ment ne feront pas par­tie de la chaîne de trans­mis­sion), mais aus­si le fait qu’au sein de nom­breux foyers seule­ment une par­tie de la famille se trouve infec­tée si l’un est malade, ou encore la dif­fu­sion limi­tée du virus sur le Dia­mond Prin­cess. En effet, sur envi­ron 3 700 pas­sa­gers expo­sés au virus pour la pre­mière fois, 700 seule­ment l’ont attra­pé – alors que l’on sait que le SARS-COV2 cir­cu­lait mal­gré le confi­ne­ment en cabine, par le sys­tème d’aération (beau­coup moins que sans confi­ne­ment, mais il cir­cu­lait tout de même). C’est l’idée que Michael Levitt (prix Nobel de chi­mie) a défen­du, et il a pu mon­trer éga­le­ment dès mars 2020 que l’épidémie ne sui­vait pas une courbe expo­nen­tielle, mais que le taux de crois­sance dimi­nuait rapidement.

Ces hypo­thèses essen­tielles pour réa­li­ser des pré­dic­tions numé­riques, qui méri­te­raient au moins d’être tes­tées, n’ont sûre­ment pas ser­vi à pro­duire les chiffres, presque iden­tiques à ceux qui était annon­cés six mois plus tôt. C’est comme si rien n’avait été appris.

Par exemple, la ques­tion de l’évolution du virus (les « variants ») était évo­quée publi­que­ment dès sep­tembre en France, et on pou­vait donc com­prendre que plu­sieurs épi­dé­mies se suc­cé­daient déjà, cha­cune construi­sant une courbe plus ou moins en cloche. Mais cette don­née a été igno­rée dans les dis­cus­sions de sémi­naires en France ou à l’étranger : comme s’il fal­lait recon­naître une « seconde vague », un « rebond » auto­ma­tique à la fin du confi­ne­ment, et ce même si les courbes des modèles ne res­sem­blaient pas du tout aux courbes des don­nées. Ain­si, la « seconde vague », arte­fact de modé­li­sa­tion, s’est-elle impo­sée comme véri­té dans le grand public, sans qu’il soit pos­sible de la mesu­rer dans la réa­li­té. Le modèle est, à nou­veau, « plus vrai » que la réa­li­té.

Pour autant, sa valeur de véri­té demeu­rait rela­tive puisque Simon Cau­che­mez lui-même rédui­sait un peu l’ampleur de la « catas­trophe annon­cée » : lorsque le Pré­sident disait 400 000, lui-même misait plu­tôt sur 300 000. Il convient de noter la non­cha­lance avec laquelle 13 de morts sont ajou­tés dans la balance. On voit que toute hypo­thèse trop pes­si­miste est tou­jours bonne à prendre chez les épi­dé­mio­logues offi­ciels. D’autant que ce chiffre pose un pro­blème lorsqu’il est aban­don­né sans cor­rec­tion dans l’espace public. Face à une léta­li­té esti­mée de 0,5% à ce moment, n’importe quel citoyen connais­sant la règle de trois savait que 400 000 morts n’adviendraient que sur une popu­la­tion fran­çaise plus grande qu’elle ne l’est à l’heure actuelle (il fau­drait 80 mil­lions d’habitants). En outre, la répar­ti­tion par classe d’âge de la mor­ta­li­té était lar­ge­ment connue de tous et retom­ber sur un chiffre si sim­ple­ment pro­por­tion­nel mon­trait que les modèles n’avaient pas grand-chose de « savant ». On peut se deman­der quelle part du public a per­du confiance dans les affir­ma­tions des scien­ti­fiques face à cette extra­po­la­tion un peu farfelue.

Plus grave encore : cet épi­sode a révé­lé que, tout en agi­tant sans cesse des chiffres et des nombres, les épi­dé­mio­logues ne pre­naient pas les valeurs annon­cées au sérieux : la déné­ga­tion reste faible dans le Check news, et aucun membre du conseil scien­ti­fique n’a cor­ri­gé publi­que­ment le chiffre en insis­tant sur l’exagération du Pré­sident. Tra­vailler dans la modé­li­sa­tion quan­ti­ta­tive et ne pas défendre la valeur numé­rique des résul­tats : c’est un manque de sérieux qui pose vrai­ment ques­tion dans le contexte d’inquiétude que subit la popu­la­tion.

Enfin, peut-être le pire : à aucun moment les épi­dé­mio­logues n’ont pris le soin de pré­ci­ser en com­bien de temps toutes ces per­sonnes étaient cen­sées mou­rir. Or, on ne s’inquiète pas de la même façon quand une mala­die fera 300 000 morts en cinq ans (ce qui semble envi­sa­geable si la Covid-19 devient endé­mique et si les soins pré­coces sont tou­jours invi­si­bi­li­sés dans notre pays) ou 300 000 morts en une sai­son. En jouant sur cette ambi­guï­té, les membres du Conseil Scien­ti­fique ont donc bien fait de la poli­tique plu­tôt que de la science (dont le tra­vail est au contraire de réduire toute ambiguïté).

Cet épi­sode met en lumière non seule­ment la per­sis­tance dans l’erreur de méthode, le refus d’intégrer des nou­velles don­nées, et – par la bande – le manque de capa­ci­té cri­tique des grands jour­naux qui ont relayé ces infor­ma­tions sans par­ti­cu­liè­re­ment s’inquiéter de leur validité.

L’homogénéité du monde et l’agrégation de données

D’autres chiffres sont appa­rus ici ou là, comme le fameux nombre 6 pour les ras­sem­ble­ments pri­vés auto­ri­sés ou les tables au res­tau­rant. On serait bien en peine de connaître le modèle sous-jacent à l’édiction de cette norme, voire sa logique : si des ren­contres de six per­sonnes se font régu­liè­re­ment, et si les per­sonnes impli­quées changent de groupe régu­liè­re­ment, la pro­pa­ga­tion devrait se faire à peu près aus­si bien dans des groupes de huit ou quatre. Aujourd’hui, on auto­rise les étu­diants à rem­plir les uni­ver­si­tés à 20%, sans qu’on ait même une idée d’où pour­rait sor­tir un tel chiffre. Des nombres magiques régulent ain­si nos vies.

À ma connais­sance, peu de cher­cheurs sont inter­ve­nus pour signi­fier que les modèles uti­li­sés ne per­met­taient pas de trai­ter ces ques­tions de modi­fi­ca­tions de réseaux (et donc de « pré­voir » l’effet d’un confi­ne­ment ou autres règles de « dis­tan­cia­tion »). Gian­lu­ca Man­zo signa­lait le rôle des super-dis­sé­mi­na­teurs dans l’épidémie, qui néces­si­tait une atten­tion sérieuse à la réa­li­té des inter­ac­tions. Sans cette réflexion, com­ment pen­ser une poli­tique effi­cace puisque l’hétérogénéité du nombre de liens est essen­tielle dans les dyna­miques de dif­fu­sion. J’avais insis­té moi-même sur le fait qu’on ne peut pas faire de pré­dic­tion ferme avec des modèles de dif­fu­sion sur des réseaux, qui sont sou­mis de façon très impor­tante à l’histoire des hasards de cer­taines ren­contres (on appelle cet effet la « dépen­dance au chemin »).

En l’absence d’analyse fine de ces ques­tions de réseaux, cer­tains épi­dé­mio­logues ont trai­té le confi­ne­ment dans les quelques modèles qui les repré­sen­taient en reti­rant de façon homo­gène 70% des inter­ac­tions à cha­cun des agents. C’est évi­dem­ment une erreur de bas niveau que de croire qu’on cap­ture ain­si une repré­sen­ta­tion cré­dible du confi­ne­ment tel qu’il a été vécu et, sur­tout, de croire que cette façon de repré­sen­ter n’a pas d’influence sur les résul­tats. Il ne s’agit pas de repro­cher aux col­lègues de réa­li­ser ces modèles homo­gènes pour en obser­ver les résul­tats et les ana­ly­ser. Le pro­blème sur­git dès qu’on les uti­lise comme des guides pour l’action dans un monde for­te­ment hétérogène.

Un autre aspect absurde de la modé­li­sa­tion offi­cielle a été de pro­duire des courbes natio­nales d’extrapolation de don­nées, sans pas­ser par des ana­lyses locales de situa­tion. Or, lors du pre­mier confi­ne­ment, les dif­fé­rentes zones obser­vées étaient sépa­rées et le virus ne cir­cu­lait pas plus que les humains entre les régions : du point de vue de la dif­fu­sion du virus, cha­cune d’entre elles était dans une dyna­mique spé­ci­fique, et les extra­po­la­tions de cas ne pou­vaient se faire de façon inté­res­sante et per­ti­nente qu’à l’échelon local. Pour autant, on a conti­nué à entendre des asser­tions comme « mon modèle est meilleur pour les don­nées natio­nales que locales, donc je l’utilise à l’échelle natio­nale » – là où tout modé­li­sa­teur sérieux aurait plu­tôt conclu que le modèle devait DONC aller à la pou­belle et être sérieu­se­ment révi­sé. De façon étrange, les col­lègues ne sem­blaient pas com­prendre les ques­tions concer­nant les dyna­miques locales quand on les posait en sémi­naire, et n’y répon­daient jamais. Fina­le­ment, c’est en novembre qu’Alexandra Hen­rion-Caude (dans une vidéo appa­rem­ment sup­pri­mée par You­Tube) a mon­tré com­bien une ana­lyse des dyna­miques locales aurait été infor­ma­tive – en par­ti­cu­lier pour affron­ter l’apparition d’une seconde épi­dé­mie en connais­sant mieux le degré de naï­ve­té de la popu­la­tion et les formes épi­dé­miques à attendre.

Le modèle à la place de la réalité

L’idée de la « seconde vague » a été lon­gue­ment dis­cu­tée. Appa­rem­ment, de nom­breux spé­cia­listes des mala­dies res­pi­ra­toires s’inquiétaient que cette idée se répande car ils savaient qu’elle n’est pas per­ti­nente. Ils s’attendaient à voir une courbe en cloche, puis à devoir attendre pour voir ce qu’il advien­drait ensuite de l’épidémie : revien­drait-elle ou non ? Dans les modèles, par contre, si un confi­ne­ment ne dure pas très long­temps, dès qu’il s’interrompt on voit une remon­tée qua­si-immé­diate du nombre de cas. Dans notre livre, nous mon­trons que cela est vrai quel que soit le modèle. Si cet effet appa­raît quelles que soient les hypo­thèses, c’est qu’il est méca­ni­que­ment lié à la modé­li­sa­tion en SIR (Sain, Infec­té, Réta­bli), pas qu’il est « vrai ». Dans les chiffres d’infection, ce n’est qu’avec un cer­tain déca­lage qu’on a pu voir une remon­tée des cas en juillet – pas du tout comme les modèles l’auraient « pré­dit ». On peut alors faire l’hypothèse que ce résul­tat est lié au fait que la dyna­mique du virus-même n’est pas prise en compte dans les modèles (sa « sai­son­na­li­té »). La seule façon de croire à une « seconde vague » iden­tique à celle des modèles est de nier une fois de plus les pro­prié­tés tem­po­relles et dyna­miques. On peut noter d’ailleurs que c’est en s’intéressant à cette remon­tée de juillet, qu’ils ont consi­dé­ré comme une ano­ma­lie, que les membres de l’IHU de Mar­seille ont pu détec­ter un pre­mier variant, et pré­ve­nir les Fran­çais avec une bonne connais­sance du phé­no­mène dès le mois de sep­tembre 2020.

La ques­tion de la qua­li­té des don­nées a été évo­quée de façon régu­lière par les démo­graphes. Pour Her­vé Le Bras, très tôt on pou­vait iden­ti­fier les limites des ana­lyses chif­frées. D’autres ont pu rap­pe­ler les méthodes habi­tuelles de recueil de don­nées pour suivre une épi­dé­mie, ou mon­trer com­ment les dis­cours offi­ciels uti­li­saient sans cesse de nou­velles mesures pour décrire l’épidémie, sans qu’aucune ne soit bien défi­nie, ni ses incer­ti­tudes spé­ci­fiées – en par­ti­cu­lier en ce qui concerne les décla­ra­tions de décès de per­sonnes avec Covid-19 ou de Covid-19.

Or, mal­gré la dépen­dance fon­da­men­tale aux don­nées de tous les modèles basés sur des extra­po­la­tion dans le temps, aucune atten­tion n’a été prê­tée à cette dis­cus­sion par les épi­dé­mio­logues les plus visibles. Les preuves tour­naient par­fois en rond d’un modèle d’évaluation à un autre modèle, et la qua­li­té des don­nées mesu­rées sem­blait fina­le­ment acces­soire. Par exemple, R0 est une valeur approxi­mée grâce à un modèle basée sur les don­nées d’infection (non mesu­rée avant que le nombre de tests soit suf­fi­sant), mais sert de variable d’entrée à de nom­breux modèles de pré­dic­tion, sans que soient tou­jours prises des pré­cau­tions concer­nant la com­pa­ti­bi­li­té des hypo­thèses, ou l’accumulation des incer­ti­tudes lors de l’enchâssement de modèles.

Ain­si, le satis­fe­cit épi­dé­mio­lo­gique, repris com­plai­sam­ment par Libé­ra­tion, repose tout de même sur l’idée qu’on ne prend en compte ni les erreurs à court terme (en nombre d’occupation des lits de réani­ma­tion avec quelques semaines d’avance), ni à long terme (une année entière). À par­tir d’un modèle qui a été rapi­de­ment vali­dé sur quelques jeux de données–excessivement impar­faites – Simon Cau­che­mez pré­tend être cer­tain que ses pré­dic­tions auraient été réa­li­sées si on n’avait pas confi­né. On parle ici d’une dif­fé­rence d’ordre de gran­deur de 1 à 3, ce qui est énorme. Cette logique pose un pro­blème : il n’y a aucun contre­fac­tuel pour démon­trer qu’il a rai­son, puisque les modèles ne pou­vaient être vali­dés. Par exemple, on ne peut pas cal­cu­ler l’ampleur de l’effet du confi­ne­ment avec le type de modèle uti­li­sé, donc aucune pré­dic­tion réfu­table n’a été émise.

Pour­tant, il n’y a aucune obser­va­tion de pays où la catas­trophe annon­cée ait été réa­li­sée au niveau pré­vu, et on en reste même loin. On peut faire réfé­rence à quelques situa­tions pré­oc­cu­pantes, très loca­li­sées, mais on voit qu’elles sont des excep­tions plus que des règles, et qu’il fau­drait en ana­ly­ser fine­ment les causes.

Un autre genre de preuve pour­rait en effet être appor­té par les pays qui ont éta­bli le contre­fac­tuel poli­tique, comme la Suède. Mal­heu­reu­se­ment pour nos épi­dé­mio­logues, elle joue le rôle de preuve inver­sée, avec des courbes presque simi­laires aux nôtres, sans qu’aucune règle auto­ri­taire n’y ait été impo­sée, pas plus que la des­truc­tion métho­dique de l’économie. Si on doit dire que « les modèles ne se sont pas trom­pés » il faut alors expli­quer pour­quoi notre mor­ta­li­té est simi­laire à celle de la Suède, qui en toute logique devrait voir son ratio de morts être envi­ron trois fois plus éle­vé que le nôtre. Plu­sieurs études montrent main­te­nant que le confi­ne­ment strict ne pré­sente pas de gain per­cep­tible face à des mesures plus légères de dis­tan­cia­tion, que l’obligation de res­ter à la mai­son n’est pas garante d’une réduc­tion de cir­cu­la­tion du virus, pointent que la sup­pres­sion des grands ras­sem­ble­ments est la meilleure expli­ca­tion pour décrire l’histoire de l’épidémie en Suède (qui a aus­si fer­mé les uni­ver­si­tés et les lycées). Pour autant, on lit sou­vent que la Suède serait « dif­fé­rente » et ne pour­rait être com­pa­rée à la France. On peut se deman­der sur quels cri­tères cette affir­ma­tion puisque ni les carac­té­ris­tiques de la popu­la­tion ni l’organisation ne sont pour l’instant expli­ca­tifs des courbes de mor­ta­li­té, et que la Suède avait visi­ble­ment un défi­cit de lits en réani­ma­tion supé­rieur au nôtre, et une den­si­té de popu­la­tion dans les grandes villes équi­va­lente à nos métro­poles.

Pour­quoi les col­lègues, et les jour­na­listes, conti­nuent-ils à répé­ter, sou­vent de façon péremp­toire, que leurs modèles sont justes alors que cela n’a aucun sens sans démons­tra­tion rigou­reuse ? Le niveau d’éducation étant ce qu’il est, beau­coup d’internautes s’amusent de façon visible à poin­ter les erreurs de pré­dic­tion, ce qui per­met de réduire encore la confiance dans la parole des experts. Il n’y a qu’au pays de Lewis Car­roll que la répé­ti­tion rend vraie une pro­po­si­tion (1).

Admettre quelques exa­gé­ra­tions, et expli­quer les modi­fi­ca­tions appor­tées aux modèles tan­dis que le temps pas­sait, aurait per­mis de remettre en cause la ten­dance signa­lée au pes­si­misme. Fai­sons une expé­rience de pen­sée : il semble accep­table aujourd’hui de pro­duire une sur­es­ti­ma­tion dans un rap­port de 1 à 3 du nombre de morts, sans que l’ampleur de la dif­fé­rence ne soit dis­cu­tée. Ima­gi­nons à l’inverse que quelqu’un ait pré­vu 70 000 morts plu­tôt que 90 000  : l’erreur est bien moins grande, les ordres de gran­deur sont conser­vés.  Mais cette pré­vi­sion aurait sûre­ment valu des cri­tiques à son émet­teur, si on l’avait même écouté.

Fina­le­ment, avec le recul, on constate que les modèles sup­po­sé­ment quan­ti­ta­tifs nous auront don­né des nar­ra­tions vagues, et n’auront jamais été vali­dés de façon convain­cante par des obser­va­tions. Cer­tains finissent par être don­nés sous forme d’outils à géné­rer des « pré­dic­tions » brutes jetées en pâture à un public non infor­mé, sans claire qua­li­fi­ca­tion des « pré­cau­tions » à prendre pour les inter­pré­ter. Le public risque encore de se rendre compte que ces modèles ne pré­voient « bien » qu’en de très rares occa­sions, elles-mêmes peu pré­vi­sibles. Si cela déçoit un peu plus le public, gou­ver­né depuis un an par des argu­ments qu’il découvre si fra­giles, que va deve­nir l’autorité d’une « science » qui n’est plus dis­cu­tée entre savants mais sert sur­tout de pro­mo­tion médiatique ?

Interprétation d’un naufrage intellectuel

Que s’est-il pas­sé lorsque l’épidémie est arri­vée en France et que la science a été sou­dain mise au centre de l’attention média­tique et poli­tique ? La même chose que ce que notre pro­fes­sion connaît depuis des années : l’ANR a lan­cé un appel à pro­jets. Cer­tains pro­jets ont été sélec­tion­nés, et d’autres non : ceci a créé des res­sen­ti­ments et des inquié­tudes, et a pous­sé cha­cun à s’agiter encore plus pour être visible ou recon­nu – et donc « écrire des papiers » rapi­de­ment plu­tôt que de col­la­bo­rer pour amé­lio­rer la com­pré­hen­sion col­lec­tive des pro­blèmes. Même si on a pu voir des excep­tions notables, ini­tiées dès mars, comme le col­lec­tif CoV­pre­hen­sion, où l’explication des phé­no­mènes a été col­lec­ti­ve­ment ana­ly­sée et rédi­gée, les sémi­naires de ModCov19 (le réseau offi­ciel lan­cé par le CNRS autour de la modé­li­sa­tion) ont par contre mon­tré un monde d’échanges savants très « habi­tuel », où cha­cun pré­sente un papier réa­li­sé en petit groupe, et où la dis­cus­sion est limi­tée à quelques ques­tions mini­males posées en dix minutes, sans cri­tique pos­sible. Cette orga­ni­sa­tion indi­vi­dua­liste et cou­pant court aux dis­cus­sions n’est pas un choix des cher­cheurs eux-mêmes, c’est sim­ple­ment la forme deve­nue rituelle, la norme émer­gente des vingt der­nières années. C’est le résul­tat d’un long glis­se­ment lié à la culture du pro­jet et de l’évaluation indi­vi­duelle : mieux vaut main­te­nant rendre invi­sible les col­lègues et leurs résul­tats ou ques­tions, que de se confron­ter à leur point de vue et perdre un temps pré­cieux en construc­tion de car­rière ou en accès aux financements.

Ain­si, bien que l’académie de méde­cine ait indi­qué dès juillet que l’analyse des eaux usées per­met­taient de pré­voir effi­ca­ce­ment la pré­sence du virus dans la popu­la­tion et anti­ci­per avec deux semaines d’avance les entrées à l’hôpital, cer­tains épi­dé­mio­logues ont pré­fé­ré igno­rer cette infor­ma­tion, et ne pas la croi­ser avec leurs propres pré­vi­sions pour amé­lio­rer les modèles – alors que ceux-ci rem­plis­saient exac­te­ment le même rôle. L’apparition des variants et son impact sur la stra­té­gie sani­taire n’est mis en avant que tar­di­ve­ment par l’épidémiologie offi­cielle, alors que tout ceci était clai­re­ment signa­lé dès sep­tembre par l’IHU.  Pas plus que les ques­tions sou­le­vées sur l’efficacité du vac­cin, depuis des mois, ne sont même signa­lées comme limite pour les modèles présentés.

Cette com­pé­ti­tion intense pour l’accès aux res­sources repose en plus sur des néces­saires hié­rar­chies impli­cites, et l’autorité de cer­taines ins­tances sont acquises dans beau­coup de dis­cus­sions savantes. Par exemple : les résul­tats de l’Institut Pas­teur sont tou­jours vrais, même si – si on en croit leurs propres ana­lyses – cer­taines recon­naissent que leurs modèles n’étaient pas pré­vus pour inté­grer l’effet d’un confi­ne­ment, et qu’il a fal­lu impro­vi­ser. Pour­tant, la pré­ca­ri­sa­tion des cher­cheurs étant par­fai­te­ment ins­tal­lée, on se rend compte que l’équipe qui a don­né des indi­ca­tions depuis des mois à notre gou­ver­ne­ment, est com­po­sée presqu’exclusivement de jeunes non sta­tu­taires. Ceux qu’on appelle les « pré­caires » de la recherche ont sou­vent un peu moins d’expérience et de culture scien­ti­fique du fait de leur âge, donc poten­tiel­le­ment un peu moins de réflexi­vi­té, et un réseau plus limi­té pour dis­cu­ter avec leurs pairs et tes­ter lar­ge­ment leurs hypo­thèses et idées (car la rela­tion aux pairs ne se réduit pas au « peer-review » mais est un exer­cice d’échange quo­ti­dien). Enfin, on sait qu’il est très déli­cat pour eux de déve­lop­per une recherche pro­fonde et ris­quée, voire d’apporter des contra­dic­tions au sein des espaces de recherche dont leur car­rière dépend.

Cette accep­ta­tion pas­sive de la com­pé­ti­tion va de pair avec une mécon­nais­sance de dis­ci­plines avec les­quelles les épi­dé­mio­logues devraient pour­tant être fami­liers. Par exemple, com­ment com­prendre que cer­tains cher­cheurs de sciences dures confondent démo­cra­tie et res­pect de leurs recom­man­da­tions ? Parce qu’ils n’ont pas de culture de l’aide à la déci­sion inté­grant la science, ne connaissent pas l’idée d’arbitrage entre des options pos­sibles comme la déve­loppent par exemple les éco­no­mistes, ni ne savent qu’une déci­sion en uni­vers com­plexe ne peut en aucun cas se baser sur un unique cri­tère d’analyse. Pen­dant un an, c’est un arbi­trage entre accep­ta­bi­li­té per­çue dans la popu­la­tion et nombre de morts qui a été fait – or, « l’acceptabilité » est un concept de mani­pu­la­tion sociale bien plus que de dis­cus­sion démo­cra­tique. En confon­dant leurs idées per­son­nelles avec le bien com­mun, les scien­ti­fiques qui se pré­ten­daient aptes à aider au gou­ver­ne­ment du pays ont fait preuve de leur incul­ture en phi­lo­so­phie, en épis­té­mo­lo­gie, en aide à la déci­sion, ou même en socio­lo­gie des sciences. Ce biais est mal­heu­reu­se­ment très répan­du, et on n’imagine pas le résoudre sans trans­for­mer en pro­fon­deur les par­cours éducatifs.

On peut espé­rer que cette rapide expo­si­tion des défauts struc­tu­rels du tra­vail dans le monde scien­ti­fique et l’expertise, dont on ne donne ici que quelques élé­ments, per­met­tra de revoir intel­li­gem­ment les tra­jec­toires de poli­tique scien­ti­fique dans les pro­chaines années. En par­ti­cu­lier si les mala­dies infec­tieuses émer­gentes sont à attendre en grand nombre, on ne pour­ra pas se per­mettre un tel manque de dis­cus­sion entre scien­ti­fiques. La com­pé­ti­tion à tout crin n’a jamais été, a prio­ri, le che­min à prendre pour que la connais­sance puisse ser­vir à tous.

Juliette ROUCHIER, direc­trice de recherche au CNRS en éco­no­mie et envi­ron­ne­ment, spé­cia­liste de l’utilisation des modèles agents appli­qués aux sciences sociales, et ancienne res­pon­sable du GDR « Poli­cy Ana­ly­tics » (Aide à la déci­sion inno­vante pour les poli­tiques publiques).

Source : le blog de Laurent Muc­chiel­li sur Media­part, https://​blogs​.media​part​.fr/​l​a​u​r​e​n​t​-​m​u​c​c​h​i​e​l​l​i​/​b​l​o​g​/​2​2​0​3​2​1​/​q​u​e​-​r​e​s​t​e​r​a​-​t​-​i​l​-​d​e​-​l​-​e​p​i​d​e​m​i​o​l​o​g​i​e​-​l​a​-​f​i​n​-​d​e​-​l​a​-​c​r​i​s​e​-​c​o​v​i​d​-19

Fil Face­book cor­res­pon­dant à ce billet :

Tweet cor­res­pon­dant à ce billet : 


____________

PS : C’est vrai qu’ils sont incroya­ble­ment jeunes, les modé­li­sa­teurs de (la mul­ti­na­tio­nale) Pasteur…

https://​research​.pas​teur​.fr/​f​r​/​t​e​a​m​/​m​a​t​h​e​m​a​t​i​c​a​l​-​m​o​d​e​l​l​i​n​g​-​o​f​-​i​n​f​e​c​t​i​o​u​s​-​d​i​s​e​a​s​es/

Pour m'aider et m'encourager à continuer, il est désormais possible de faire un don.
Un grand merci aux donatrices et donateurs : par ce geste, vous permettez à de beaux projets de voir le jour, pour notre cause commune.
Étienne

Catégorie(s) de l'article :

4 Commentaires

  1. Étienne CHOUARD
  2. joss

    Tous ces modèles mathé­ma­tiques qui ser­vi­raient à pré­dire l’a­ve­nir avec pré­ci­sion n’ont aucun sens. Trop d’in­con­nues… Autant jouer à pile ou face, cela coute moins cher, mais bon c’est moins cré­dible envers la popu­la­tion. La science à bon dos pour ser­vir d’au­to­ri­té à un pou­voir qui cherche à tout prix à se main­te­nir par la force si nécessaire.

    Réponse
  3. Jean

    Je le dis et je le répète, c’est une crise du capi­ta­lisme, ils veulent nous tuer tous. Cette plan­dé­mie n’est qu’un pré­texte, cer­tains maga­sins sont ouverts, d’autres non.

    Réponse

Laisser un commentaire

Derniers articles

Le processus constituant à la loupe – Politoscope TV (BETA)

Le processus constituant à la loupe – Politoscope TV (BETA)

Merci à Frédéric Bascuñana et à Space Agora pour cet entretien https://www.youtube.com/watch?v=pq-GxJahM4Q Ce Mercredi 10 avril, nous avions enregistré un "salon vocal sur X, en compagnie d' @Etienne_Chouard - vous pouvez retrouver nos lives en suivant les comptes...

Rencontre avec Jacques Neirynck, un ancien élu suisse

Rencontre avec Jacques Neirynck, un ancien élu suisse

Merci à Thomas Wroblevski fondateur de l'association Modernocratie pour l'organisation de cette rencontre : Ouvrir la vidéo sur youtube https://www.youtube.com/watch?v=2AgP9mLuH6I&t=147s Etienne Chouard rencontre Jacques Neirynck lors de la "Journée démocratie" du...