La statistique dans la cité n° 42 - décembre 2024
Sommaire du n° 42


Éditorial

Méthodes :
                                     - Les « comptes nationaux augmentés » ? de quoi s’agit-il ?
                                     - La France est-elle en marche vers une économie de guerre ?

Outils :
                                     - Le risque de mourir est plus élevé le jour de son anniversaire !
                                     - Les instituts de sondage pré-électoraux dans la tourmente ?
                                     - Que nous apprend l’évolution de la culture
                                      de la variété Cavendish de la banane ?

Humeur :
                                     - L’éternelle confusion entre corrélation et causalité

Courrier des lecteurs

Nous avons lu

Annonce de manifestations

Vie du groupe



Tous les numéros précédents de l'infolettre sont téléchargeables sur le site du groupe SEP


Editorial

La statistique dans la cité vient d’entrer dans sa neuvième année. L’éditorial de son premier numéro paru en octobre 2016 rappelait que la statistique entretient de multiples rapports avec la vie de la société et que, à travers cette initiative qui venait compléter l’organisation depuis 2005 des Cafés de la statistique, le groupe Statistique et enjeux publics de la SFdS se devait de rendre ces liens plus évidents, lui qui s’est notamment donné pour mission de promouvoir auprès d’un large public l’utilité des statistiques qui interviennent dans la vie sociale et de faire connaître leurs conditions de production, leur signification, leurs limites, particulièrement lorsqu’elles sont présentes dans l’espace public.

C’est à nos lecteurs qu’il revient de juger si cette ambition a été atteinte. Pendant ces huit années, nous avons tenu le rythme annoncé de lettres bimestrielles paraissant les mois pairs (sauf au mois d’août), y compris pendant les périodes de confinement dues à la pandémie du Covid-19. Nous avons pu proposer parfois des informations brèves, parfois des articles plus longs, articulés autour de diverses rubriques (éditorial, méthodes, outils, travaux, vie des institutions, notes de lecture, annonces diverses, vie du groupe, …) et parfois de billets d’humeur ou d’humour.

La rédaction sera toujours heureuse des critiques et suggestions qu’elle recevra et invite ses lecteurs à réagir au contenu de ses lettres et à lui signaler les informations susceptibles d’intéresser notre communauté. Cet appel s’adresse à tous les statisticiens, qu’ils appartiennent ou non au système statistique public, mais aussi à tous ceux qui, sans être statisticiens, partagent notre souci de savoir comment la statistique peut éclairer les débats et les enjeux publics et contribue à éclairer les décisions.

N’hésitez pas à nous écrire à l’adresse sep@sfds.asso.fr.


Méthodes

Les « comptes nationaux augmentés » ? de quoi s’agit-il ?

L’Insee a publié le 5 novembre les premiers « comptes nationaux augmentés ». Cette innovation, qui se base sur les conclusions de le commission Stiglitz-Sen-Fitoussi de 2009, vise à appréhender en même temps non seulement de façon classique l’activité économique, mais aussi ses conséquences sur le dérèglement climatique et sur la répartition des revenus des ménages. Cette innovation fait l’objet d’un article paru le même jour dans le blog de l’Insee.

Il s’agit d’abord de mettre à disposition un ensemble de données cohérentes favorisant l’analyse conjointe des dimensions économique, sociale et environnementale. Par ailleurs, sont proposés à titre exploratoire des indicateurs de synthèse croisant ces dimensions et complétant les indicateurs usuels comme le PIB et délivrant ainsi des messages différents. Sur la répartition des revenus des ménages, certains résultats, comme le pourcentage de ménages bénéficiaires nets de la redistribution dite élargie (57 % en 2022), actualisent des travaux récents. Sur le dérèglement climatique, le rapprochement des données économiques et d’émissions de gaz à effet de serre permet d’analyser les évolutions, en général en baisse, des intensités carbones des grands agrégats économiques (PIB, importations, etc.), que l’on raisonne à court ou long terme, en émissions intérieures ou en empreinte. D’autres résultats sont nouveaux et expérimentaux, comme l’évaluation d’une production intérieure nette (Pina) ajustée du coût des émissions de gaz à effet de serre, inférieure de 4,3 % à la mesure usuelle, ce qui signifie que le dérèglement climatique et la décarbonation ont « coûté » près de 100 milliards d’euros à l’économie française. L’épargne nette ajustée est durablement négative et entraîne un manque de soutenabilité de l’économie.

Des questions au cœur des débats publics ont été abordées : les GES (émissions de gaz à effet de serre qui ont baissé de 5,6 % par rapport à 2022) et les inégalités de revenu. De façon exploratoire, les comptes augmentés proposent en outre de nouveaux indicateurs de synthèse croisant certaines de ces dimensions, par exemple une étude sur les indicateurs économiques ajustés des émissions de GES.

Dans son édition datée du 29 novembre, le quotidien Le Monde publie une chronique sur cette innovation. L’autrice de cette chronique estime que cette première salve d’indicateurs devrait accélérer la prise de conscience des enjeux.


La France est-elle en marche vers une économie de guerre ?

C’est la question que se pose le quotidien Le Monde dans un « double-page » publié dans son édition datée du 19 novembre.

Un encadré de ce dossier essaie de définir ce que recouvre l’expression « économie de guerre ». D’après Guillaume Lasconjarias, professeur associé à Sorbonne Université ; il s’agit de « la façon dont l’État alloue, voire réattribue, des ressources qu’il juge critiques de l’industrie civile vers celle de défense : allouer, planifier, décider ». Pour cet historien, la première étatisation de moyens à des fins de défense remonte au projet économique complet élaboré par Jean-Baptiste Colbert afin de rivaliser avec la Compagnie néerlandaise des Indes Orientales : il s’agissait tout à la fois d’équiper les ports, de modifier la législation fiscale, de créer des compagnies de commerce, de bâtir une marine de guerre, de construire des arsenaux et de revoir la gestion des forêts royales pour alimenter les chantiers navals. C’est ainsi que la marine française a pu passer de 18 navires de guerre à 276 à la mort de Colbert. Un autre exemple donné dans cet encadré est la décision de retirer du front en 1915 des ouvriers pour les réintégrer dans des usines d’armement.

Aujourd’hui, pour reprendre les termes de l’appel lancé en juin 2022 par le Président de la République, c’est bien un véritable « écosystème de défense qui doit se mettre en capacité de produire plus, plus vite et dans la durée ». En effet, l’agression russe en Ukraine a marqué le retour d’une guerre de haute intensité sur le continent européen et a conduit la France à réaliser la faiblesse dans ce contexte de sa base industrielle et technologique de défense : par exemple, malgré le rang de deuxième exportateur mondial d’armes, les armées manquent de munitions et d’équipements basiques. Le dossier cite notamment le cas de la base aéronavale de Lann-Bihoué où plus de la moitié de la flotte des hélicoptères Caïman est clouée au sol, faute de pièces de rechange. La loi de programmation militaire 2024-2030 a prévu une enveloppe de 400 milliards d’Euros, en hausse de 35 % par rapport à la loi précédente. Le PLF 2025 préparé par le gouvernement Barnier confirmait cet engagement en dépit des économies demandées pour l’ensemble des ministères, ce qui aurait pu permettre au budget de la défense d’atteindre le niveau de 2 % du PIB conformément aux engagements pris au sein de l’Otan.

On peut donc considérer que la France est bien en marche vers une économie de guerre. Notre groupe a inscrit ce thème à l’ordre du jour de nos Cafés de la statistique ; il sera abordé le 8 avril prochain.


Outils

Le risque de mourir est plus élevé le jour de son anniversaire !

Cette constatation pourrait relever d’un sketch humoristique, mais elle est pourtant le titre d’une étude de l’Insee qui figure dans sa lettre Info Focus publié le 30 octobre. Le risque de mourir le jour de son anniversaire est significativement plus élevé ce jour-là (+ 6 %) que n’importe quel autre jour de l’année, en particulier pour les jeunes et les adultes d’âge intermédiaire où il est plus élevé de 21 %. Ce phénomène est d’ailleurs observé dans d’autres pays comme le Japon, la Suisse eu les États-Unis (il y est qualifié de « birthday effect »). En Suisse, il a été estimé que les excès dus à la fête peuvent augmenter ce jour-là le nombre d’accidents de la route, de chutes et d’accidents cardiovasculaires. Au Japon, on a constaté que les risques de suicide augmentent le jour de son anniversaire.

Au-delà de cette statistique que l’on peut estimer anecdotique, cette étude présente de nombreuses informations, particulièrement précieuses. Il s’agit en fait d’une analyse détaillée du nombre de décès en 2023 et de son évolution après trois années d’une surmortalité liée pour l’essentiel à la pandémie de Covid-19 : en effet, 639 330 décès ont été enregistrés en France, soit 35 900 de moins qu’en 2022. Il faut dire toutefois qu’aucun pic de grippe n’a eu lieu en 2023, l’épidémie de l’hiver 2022-2023 ayant commencé de façon précoce en décembre 2022. Par ailleurs la mortalité estivale a été nettement plus modérée qu’en 2022 malgré les épisodes de forte chaleur et de canicule.


Les instituts de sondage pré-électoraux dans la tourmente ?

On ne peut pas dire que la victoire de Donald Trump à l’élection présidentielle du 5 novembre aux États-Unis ait été une véritable surprise. Dans les derniers jours de la campagne, aucun institut ne se hasardait à pronostiquer une victoire de l’un ou l’autre des deux principaux candidats, et tous prévoyaient un résultat extrêmement serré. Ce qui a été effectivement le cas. Il faut remonter à 2000 pour avoir un écart plus faible, en pourcentage, entre les candidats républicain et démocrate. Seules deux autres élections ont été plus serrées depuis la deuxième guerre mondiale : celles de 1960 et 1968. Le résultat final montre une victoire incontestable du candidat républicain, aussi bien dans les « États pivots » (les « swing states ») qu’au niveau du « vote populaire », c’est-à-dire la totalisation au niveau fédéral du nombre de votes de chaque candidat. Les instituts de sondage prévoyaient que les résultats seraient serrés dans tous les États pivots, ce qui avait conduit certains commentateurs à estimer que chacun des deux candidats avait une chance sur deux de l’emporter ; mais cette conclusion aurait supposé que les résultats dans ces États aient été indépendants, ce qui n’est pas le cas (1). De fait, Donald Trump les a tous gagnés, parfois avec une avance significative. Au niveau du vote populaire, aucun institut de sondage n'avait pronostiqué l’avance de Donald Trump sur Kamala Harris ; en fait Donald Trump a obtenu 2,2 millions de voix de plus qu’en 2020 et Kamala Harris a obtenu 7,6 millions de voix de moins que Joe Biden en 2020, principalement en raison d’une sensible augmentation des abstentions, principalement dans le camp démocrate. L’écart finalement observé entre les deux candidats semble au-delà de la marge d’erreur.

En Roumanie, les instituts de sondage n’avaient pas non plus anticipé l'arrivée en tête au premier tour de l’élection présidentielle du 24 novembre du candidat nationaliste et pro-russe méconnu jusqu'alors, Călin Georgescu, avec 23 % des voix. La Cour constitutionnelle roumaine a finalement annulé cette élection car elle a estimé que ce candidat a disposé d’un soutien financer très important sans qu’il ait été déclaré et qu’il avait vu sa popularité exploser grâce à l’avalanche de messages toxiques sur le réseau social Tiktok. Mais les instituts de sondages se sont néanmoins bel et bien trompés. Utiliser TikTok dans les variables de redressement pourrait être une bonne idée, à condition toutefois de disposer de données exogènes fiables !

(1) Voir à ce sujet l’article publié dans le n° 2 de La Statistique dans la Cité en décembre 2016, repris dans le n° 41.


Que nous apprend l’évolution de la culture de la variété Cavendish de la banane ?

Le numéro d’octobre 2024 de L’Actuariel, revue trimestrielle de l’Institut des Actuaires, publie : « Et si… la banane n’était plus jaune », article censé être rédigé en septembre 2050.

L’économie de la banane, fruit le plus produit (140 millions de tonnes par an), le plus vendu et consommé dans le monde, repose au début du 21e siècle en Europe sur une variété, la Cavendish, très productive, au goût très apprécié et offrant une facilité de transport (poids élevé des régimes, taille des fruits standardisée). 90 % des exportations proviennent d’Amérique latine et des Philippines, les principaux importateurs sont l’Europe (27 %) et les Etats-Unis (22 %).

A partir des années 2010 la Cavendish a été attaquée par le fusarium qui asphyxie les bananiers par le sol, et par la cercosporiose noire, champignon aérien, qui provoque des lésions sur les feuilles et réduit la productivité. Ces menaces n’ont pu être endiguées, du fait des limitations dans l’utilisation de moyens chimiques de lutte.

Cette situation a mis en évidence la fragilité d’une monoculture de Cavendish

Des initiatives sont intervenues pour (re)développer la diversité variétale des bananes, à partir des 1700 variétés comestibles et sauvages. Grâce notamment aux collections de variétés du Centre de transit de la banane (Université de Louvain), des travaux de sélection des meilleures variétés ont permis de faire évoluer les pratiques agronomiques pour remplacer la monoculture intensive, néfaste pour la biodiversité, par des cultures plus diversifiées, plus soutenables. Ont aussi été modifiées les conditions d’exploitation, les chaînes logistiques pour traiter des variétés moins standardisées que la Cavendish et le modèle est devenu biologiquement et économiquement plus résilient.

En écho au sujet des bananes, cet article de L’Actuariel mentionne aussi un livre Peut-on encore manger des bananes ? sous-titré L'empreinte carbone de tout, paru en 2024 aux Editions L’Arbre qui marche. Ecrit par Mike Berners-Lee, pionnier de la quantification carbone, cet ouvrage présente l’empreinte carbone d’une multitude de biens et services : envoi d’un mail, opération chirurgicale, voyage dans l’espace, etc. L’auteur croise plusieurs méthodes : analyse du cycle de vie, modèle des entrées-sorties tenant compte des importations et de l'empreinte carbone de chaque pays. Un ouvrage apportant ainsi d’utiles références…


Humeur

L’éternelle confusion entre corrélation et causalité

Dans une tribune publiée dans Le Monde daté du 13 octobre, l’économiste Thomas Rapp propose une voie alternative à celle choisie par le gouvernement pour le financement de la sécurité sociale. L’objet ici n’est pas de discuter du mérite de ces propositions, mais plus de se demander si la fin (économie politique) justifie les moyens (statistiques).

Dans son premier paragraphe, l’auteur indique ceci : Depuis les années 1970, ces dépenses [de santé] ont augmenté de 130 %. Cette hausse a été très bénéfique pour les Français : en effet, il y a une corrélation forte entre le taux de croissance des dépenses de santé et les gains d’espérance de vie des populations qui en bénéficient. Le mot « corrélation » est utilisé, mais tout lecteur non statisticien normalement constitué comprendra « causalité ». Sinon, à quoi bon mentionner cette corrélation au début d’une démonstration critique sur la régulation quantitative des dépenses de santé ? Confusion habituelle, à laquelle notre infolettre ne réussit pas à s’habituer.

Par ailleurs, le lien entre espérance de vie et dépenses de santé est plus que complexe à établir. Interrogés, Google comme ChatGPT mentionnent une étude de l’OCDE dont l’encadré « Méthode » laisserait songeurs beaucoup d’économètres. Une simple visite sur le site de l’OCDE permet de télécharger les dépenses de santé par tête en parité de pouvoir d’achat pour 2023 et l’espérance de vie à la naissance (en retenant la dernière année disponible). Sur ce périmètre OCDE, la corrélation entre les deux indicateurs est de 0,36, et, certes, 0,71 si on enlève les Etats-Unis.

Quelle que soit la pertinence des suggestions de l’auteur sur la manière de financer la sécurité sociale, elles se basent sur une prémisse fausse qui ne peut malheureusement qu’obscurcir la compréhension des enjeux par le grand public.


Courrier des lecteurs

L’article sur un problème d'échantillonnage publié dans le n° 41 a suscité des réactions des trois de nos lecteurs.

Le premier se demande si la raison pour laquelle le temps d’attente de l’usager est supérieur à la moitié de l’intervalle moyen entre deux métros est dû au fait que les retards entre les rames s’accumulent. Le deuxième lui répond fort justement que non : c’est le caractère aléatoire du temps moyen entre deux rames qui fait que le malheureux usager a plus de chance d’arriver sur le quai sur un temps d’attente long qu’un temps d’attente court. Ce deuxième lecteur (merci à lui !) propose une référence très pédagogique sur le sujet, grâce à l’article intitulé Le paradoxe de l’autobus publié sur le site Bibm@th.net.

Ce deuxième lecteur, et un troisième avec lui, s’interroge sur les « certaines hypothèses sur la distribution de la loi statistique régissant la durée entre deux métros » mentionnées dans notre article. Par souci de concision, celles-ci n’étaient pas mentionnées plus précisément : si l’arrivée des rames suit un processus de Poisson, et donc si la durée entre deux rames est une loi exponentielle, on arrive au résultat mentionné (temps d’attente égal à la durée moyenne entre deux rames). La démonstration est disponible sur demande.

Il s’agit bien sûr d’un cas particulier (« certaines hypothèses »). Notre deuxième lecteur suggère que celles-ci doivent être « assez tordues ». Le troisième indique qu’il s’agit d’un cas assez particulier, où la variance de la loi est égale à sa moyenne et souligne qu’une loi de Dirac donnerait des résultats différents. Débat intéressant : toute modélisation mathématique de phénomènes réels amène à faire des hypothèses simplificatrices. Jusqu’où peut-on aller sans dénaturer complétement la réalité ? On peut en tout cas constater que les processus de Poisson sont assez couramment utilisés. Ils l’ont été en particulier dans des articles scientifiques analysant la durée du chômage, ces articles soulignant bien par ailleurs les limites des hypothèses sous-jacentes. Quant à la loi de Dirac, elle correspondrait, par exemple, aux battements d’un métronome. Nous laissons nos lecteurs parisiens juges du fait qu’il s’agisse d’une représentation plus exacte du métro qu’une distribution aléatoire.

L’essentiel de notre propos était en fait ailleurs. L’échantillonnage des durées est complexe et mal connu. Il est courant de lire ce type d’articles, qui donne des statistiques sur les chômeurs de longue durée inscrits à Pôle Emploi. Celles-ci sont faussées par le biais d’échantillonnage dont nous parlions dans cet article.


Nous avons lu

L’Insee vient de publier le 21 novembre l’édition 2024 de France Portrait Social

Cet ouvrage annuel rassemble, sous la rubrique Éclairages, trois analyses des discriminations ressenties et vécues par différents groupes de personnes (immigrés, originaires des Dom, jeunes, personnes en situation de handicap, minorités sexuelles, …). Par ailleurs, deux dossiers analysent le niveau de vie des ménages en 2023, année encore marquée par une forte inflation, à partir notamment des mesures socio-fiscales : en 2023 ; la hausse des niveaux de vie ne couvre que la moitié du surcoût lié à l’inflation pour les 20 % les plus modestes et plus que la totalité pour les 20 % les plus aisés. Enfin une quarantaine de fiches synthétiques dressent le panorama social de la France.

Notre groupe a inscrit le thème des discriminations à l’ordre du jour de nos Cafés de la statistique ; il sera abordé le 11 mars prochain.


Dans un blog du 2 décembre 2024, Jean-Luc Tavernier se demande comment mesurer « l’inestimable » production de l’Insee

Il rappelle que, depuis le début du siècle, les effectifs de l’Insee ont fortement et continûment diminué (d’environ un quart depuis 2006 à périmètre d’activité constant) comme le budget qui lui est alloué (de près d’un tiers en pourcentage du PIB, passant de 0,024 % à 0,016 % entre 2006 et 2023). S’il est patent que la production de l’Institut ne s’est pas réduite, il est difficile d’évaluer de combien elle s’est accrue et, partant, d’avoir une idée des gains de productivité réalisés par les agents de l’Institut. L’Inspection générale de l’Insee s’est donc livrée à l’exercice de donner un ordre de grandeur de la hausse de production de l’Insee, ce qui n’était pas un exercice facile, puisque l’Insee produit presque exclusivement du bien public, accessible à tous et par construction, non valorisé.

L’activité de l’Insee est très diversifiée (enquêtes statistiques, répertoires administratifs et statistiques, conjoncture, etc.) ce qui fait que la notion de volume, ou d’unités produites, peut paraître abstraite. Il n’y a pas de prix attaché à sa production, car elle est, pour la plus grande partie, mise à disposition gratuitement. Enfin, il n’y a pas non plus de clients « attitrés » pour chaque produit, car la production de l’Insee s’adresse autant aux journalistes, aux chercheurs, aux étudiants, aux acteurs publics ou aux citoyens. Une approche possible est d’assimiler la valeur de la production aux coûts des inputs mobilisés (effectifs, logiciels, ...) ; mais cette méthode ne permet pas de mesurer les gains de productivité : en effet si, à coût des inputs donné, l’institut arrive à produire plus en mettant en place une organisation plus efficace, alors ces gains de productivité ne seront pas retranscrits par cette approche.

Le blog présente une série d’indicateurs globaux qui ont été mis en place pour mesurer l’évolution de la production. La démarche a abouti, au sens où elle conduit à une évaluation de cet accroissement de production (+ 1,5 % par an en moyenne sur les 20 dernières années) qui apporte une information certaine par rapport à l’absence de chiffres. Dès lors, l’ordre de grandeur des gains annuels de productivité sur cette période apparaît voisin de 2,5 %.


Une analyse de l’économie et du fonctionnement des fake news

Le numéro d’octobre 2024 de L’Actuariel, revue trimestrielle de l’Institut des Actuaires, présente une analyse de l’économie et du fonctionnement des fake news. En qualifiant ces dernières « d’armes de destruction massive », cet article fait une analogie avec le fonctionnement des missiles en détaillant les composantes ou « systèmes » par lesquels se développent les fakes news : propulseur, carburant, guidage, ainsi que les systèmes de leurre, le système viral et le verrouillage de la cible.

L’article cite comme pourvoyeurs de fake news des organisations d’Etat ou privées, qui coordonnent des trolls pour diffuser massivement des informations partiellement ou totalement mensongères sur les réseaux sociaux, en citant quelques exemples : internet water army en Chine (280 000 « combattants »), agence Team Jorge en Israël (39 000 avatars).

L’article évalue le financement des fake news comme résultant à 80 % de la publicité et indique que dans les dépenses des annonceurs américains, pour 2,16 dollars US allant dans des journaux fiables, un dollar irait vers des sites de mésinformation.

Les techniques de guidage s’appuieraient sur des algorithmes créant des « bulles de filtres », pour proposer des sujets correspondant aux domaines d’intérêt des internautes. Les techniques de leurre passeraient par de « l’astroturfing », pour créer l’illusion d’un comportement spontané ou d’une opinion populaire et des « pièges à clics », à contenu sensationnaliste faux ou trompeur pour produire du trafic et engendrer des réactions émotionnelles. Le caractère viral repose sur la nature de rumeur que prennent les fakes news, selon un phénomène qualifié « d’infodémie ». Quant aux cibles, leur vulnérabilité résulterait de plusieurs biais (négativité, confirmation, déformation de la perception de la réalité), de la vélocité des mauvaises nouvelles et de « l’heuristique de disponibilité ».

L’article propose aussi des évaluations des coûts des fake news pour l’économie mondiale : le « marché de la fake news » pèserait au minimum 78 milliards de dollars par an. Ces coûts se répartiraient entre pertes de valeurs boursières (39 milliards), désinformation financière (17 mds aux seuls Etats-Unis), protection de « l’e-reputation » (plus de 9 milliards), désinformation sanitaire (9 milliards), sécurité des plateformes (3 milliards), etc. La seule désinformation politique couterait 400 millions de dollars dans le monde (dont 200 aux Etats-Unis et 140 en Inde).


Des principes pour aider les statisticiens à faire des compromis dans des situations de pression

La Royal Statistical Society (RSS), équivalent britannique de la SFdS, vient d’adopter des principes pour aider les statisticiens à faire des compromis dans des situations de pression et les a publiés sur son site.
Cette initiative vise à donner aux statisticiens les moyens d’utiliser des données et des méthodes suffisamment fiables pour éclairer la prise de décision en toute confiance, notamment en tenant compte du moment et de la manière de faire les bons compromis. Il peut souvent en effet y avoir de nombreux facteurs concurrents et il peut être difficile de juger comment les équilibrer pour que les données puissent éclairer au mieux les décisions. Il y a en effet une relation entre l’utilisation des ressources consacrées à un travail donné et la qualité de ce travail ; le statisticien doit souvent naviguer entre le temps de travail qu’il y consacre pour obtenir une qualité suffisante et le point au-delà duquel des efforts supplémentaires n’apporteront pas une amélioration significative de cette qualité comme le montre la figure jointe.

Cinq principes que devraient suivre les statisticiens sont proposés par la RSS :
  • comprendre les objectifs que visent leurs partenaires et leurs besoins ;
  • connaître les priorités et comment les justifier ;
  • minimiser les risques ;
  • communiquer de façon transparente et compréhensible ;
  • gérer et adapter la qualité du travail nécessaire.


Annonce de manifestations

Le service des enquêtes par sondage et l’unité de recherche Histoire des populations de l’Ined organisent le vendredi 17 janvier 2025 à l’Ined une journée d’études sur le thème Enquêter sur les populations au temps de la mécanographie. Cette journée sera l’occasion de réfléchir aux outils de collecte et de traitement des données avant l’ère de l’informatique dans un environnement technologique bien différent de celui d’aujourd’hui.

La 15e édition des Journées de Méthodologie Statistique (JMS) se déroulera du 25 au 27 novembre 2025 au centre international de conférences de Sorbonne Université, campus Pierre et Marie Curie, 4 place Jussieu 75005 Paris. Les JMS sont organisées par l’Insee en partenariat avec de nombreux acteurs de la statistique publique. Ce colloque permet de faire connaître des travaux novateurs dans le domaine de la statistique et d’en assurer la diffusion. Elles s’adressent à un public diversifié, au sein du service statistique public ou à sa périphérie, au monde de l’enseignement et de la recherche, au secteur privé, ainsi qu’aux collègues statisticiens de l’étranger. L’appel à contributions est ouvert sur le site des JMS, les déclarations d’intention de communications devant être faites pour le 10 janvier 2025.


Vie du groupe

Depuis la parution du précédent numéro de La statistique dans la cité, deux Cafés de la statistique ont été organisés au Café du Pont-Neuf, le mardi 19 novembre où Pascal Chevalier, chef du SSM du ministère de la Justice, a traité de l‘efficacité de la réponse pénale, et le mardi 10 décembre où Thomas Amossé, membre du Laboratoire interdisciplinaire pour la sociologie économique (Lise) du Cnam nous a parlé des classes moyennes.

Les Cafés suivants auront lieu
  • le mardi 14 janvier 2025 : le RESIL (Répertoire statistique des individus et des logements) avec Olivier Lefebvre (Insee) ;
  • le mardi 10 février 2025 : la sécurité alimentaire avec Akiko Suwa-Eisenmann, chercheuse senior à l’Inrae (Institut national de la recherche pour l’agriculture, l’alimentation et l’environnement) et professeure à PSE (Paris School of Economics) ;
  • le mardi 11 mars 2025 : une séance sur les discriminations sera introduite par Yannick L’Horty, Professeur d’économie à l’Université Gustave Eiffel, directeur du projet du CNRS Théorie et Évaluation des Politiques Publiques et de l’Observatoire National des Discriminations et de l’Egalité dans le Supérieur (Ondes) ;
  • le mardi 8 avril 2025 : l ’économie de guerre avec Julien Malizard, titulaire de chaire à l’Institut des Hautes Études de la Défense Nationale (IHEDN).
Les cafés lyonnais de la statistique poursuivent leurs activités avec notamment l’organisation le mardi 26 novembre d’un Café sur le thème « Sagesse et folie des foules » présenté par Aurélien Baillon, professeur à l’Emlyon Business School et chercheur au Groupe CNRS d’Analyse et de Théorie Économique (Gate).


Responsable de l’infolettre : Antoine Moreau, président du groupe SEP
Rédacteur en chef : Jean-Louis Bodin
Secrétaire de rédaction : Jean-Pierre Le Gléau
Webmestre : Érik Zolotoukhine

SFdS - Société Française de Statistique
©2024 SFdS