Municipales 2026 : un machine au prix de les potentielles besognes de désinformation ciblant Wikipédia

Les Français sont appelés à plébisciter dimanche 22 germinal afin le adjoint clocher des élections municipales. Pour se enseigner sur le opinion, différents sont les électeurs à se défrayer sur le tableau Wikipédia, suivant Wikimédia France, l’complicité occupée de consolider la estrade. Quelque “73 % des Français l’utilisent pour vérifier une information qu’ils ont trouvée ailleurs”, acompte Adélaïde Calais, manageur église en rangée au néné de l’complicité. 

En 25 ans d’caractère, l’dictionnaire collaborative s’est imposée avec un soubassement de l’questionnaire en rangée, malheureusement sa évidence en conte la objectif d’besognes de désinformation : modifications anonymes, textes orientés, ou principalement flots trompeuses. “Aujourd’hui, on a un vrai enjeu de tentatives de manipulation de l’information par différentes personnes et pour des motifs qui peuvent être très éloignés. Ça peut aller de la manipulation politique à de la simple malveillance banale. Mais le problème, c’est que ces tentatives sont de plus en plus armées”, souligne Adélaïde Calais.

Afin de terrer l’honnêteté de l’questionnaire sur sa estrade en amplitude électorale, Wikimédia France a mis en assis un machine, en collaboration derrière l’fabrique française Opsci.ai, spécialisée entre l’narration des conditions issues des réseaux sociaux. Il s’agit du Wikipédia Sensitivity Meter, qui permet de déceler les pages les comme “sensibles” de l’dictionnaire liées aux élections municipales. Il a été large absoute à un amorce batelière, cofinancé par la Commission communautaire, entre le approprié des prescriptions de l’Observatoire occidental des narratifs.

Analyse des “indices de manipulation potentielle”

Concrètement, l’machine permet d’autopsier, afin quelque feuille, “des indices de manipulation potentielle”, indique Jordan Ricker, manageur des besognes d’Opsci.ai. Trois indicateurs sont utilisés : la obstination des flots, l’amplitude de l’passage éditoriale sur la feuille et le maintien des contributeurs.

Il est passable d’autopsier quelque feuille absoute à son URL, ou d’contempler les complexion absoute à un affiche de nervure offert aux élections municipales en France. Les pages touchant les maires sortants ou principalement les villes de comme de 30 000 habitants sont inspectées et classées en ardeur de à eux compassion.

“Sur les pages des villes, on va voir apparaître dans le haut du classement des villes auxquelles on ne pense pas forcément et qui ne sont pas forcément traitées autre part que dans la presse quotidienne régionale, mais qui font l’objet de guerres d’édition, de tentatives potentielles de manipulation, ou simplement d’erreurs non corrigées”, souligne Jordan Ricker, d’Opsci.ai.  

Au lundi 9 germinal, c’rencontrait la république d’Annemasse, entre les Alpes, qui remontait en nourri du classification des pages les comme sensibles entre la groupe des villes de comme de 30 000 habitants. En cliquant sur la république, des comptes permettent de comporter par conséquent. “On voit que la page n’a pas été mise à jour depuis longtemps, donc il y a une potentielle obsolescence des informations. Les citations font référence aux mêmes sources, donc il n’y a pas de pluralisme des sources. Et si je regarde le registre de comportement, on voit que 80 % des éditions ont été faites par des utilisateurs anonymes. C’est un indice. Ça ne veut pas dire qu’il y a une manipulation, ça veut dire que cette page est moins sûre qu’une autre qui aurait été éditée par une majorité de comptes référencés et dont on peut suivre l’ensemble des éditions sur l’encyclopédie”, narration Jordan Ricker.

À anéantir autantQu’est ce que Vera, l’IA française au prix de la désinformation ?

Outiller les contributeurs 

Cet machine sert prématurément intégral à commettre élever des balises d’instruit. “On est sur des indices, et non pas sur un outil magique qui pointerait vers de la manipulation qu’il aurait détectée automatiquement, ce qu’aujourd’hui, on ne peut pas encore faire”, résume le manageur des besognes d’Opsci.ai. 

Le hypsomètre est d’entour destiné à la église des contributeurs de Wikipédia – qu’on commerce les “wikimédiens” –, qui peut par conséquent déceler les pages qui nécessitent une zèle autonome. Il s’souplesse identiquement aux journalistes et chercheurs. “Et puis de manière générale, il peut être utilisé par tous les citoyens”, conte observer le manageur des besognes d’Opsci.ai. 

Tentatives de manipulations en amplitude électorale

À maints jours du adjoint clocher des élections municipales en France, aucune plan majeure de appui n’a été détectée sur l’dictionnaire. “Wikipédia, dans son histoire récente, a compté quelques tentatives de manipulation d’information coordonnées, notamment autour de certaines élections. Mais on n’en compte pas énormément, heureusement”, explique Adélaïde Calais, la manageur église en rangée de Wikimédia France.

L’un des exemples les comme marquants en France remonte à 2022, à l’arrivé de l’scrutin présidentielle. Selon Wikimédia France, l’consortium binaire d’Éric Zemmour avait tenté de bouleverser des pages sur Wikipédia derrière l’charité de collaborateurs reconnus par la église, qui ont production de pluraux récapitulations, rien les confesser. “Ils ont essayé, en fait, d’inonder l’encyclopédie d’informations, non seulement sur le candidat Éric Zemmour à l’époque, mais aussi sur toutes les thématiques qui pouvaient avoir trait à son discours. Donc ça pouvait être l’immigration, la sécurité, etc.”, détaille Adélaïde Calais. Sept contributeurs tenant avec enfreint les menstrues de Wikipédia avaient été bannis.

À anéantir autantAvec Grokipedia, Elon Musk veut engloutir Wikipédia et forcer sa proposition

Avant d’individu montré afin les élections municipales en France, le Wikipedia Sensitivity Meter a déjà été expéditionnaire afin les élections en Roumanie et en Moldavie, en 2025. L’outil a avec ratifié de déceler des besognes de désinformation prorusse. “On a vu des tentatives de réécriture d’événements historiques ou de biographies de personnalités historiques, afin d’orienter un discours dans un sens prorusse et de servir des narratifs portés par le Kremlin ou par les relais du Kremlin en Moldavie”, rapporte le manageur des besognes d’Opsci.ai. 

Autre abrégé vague de appui sur la comme éternelle dictionnaire au monde : l’implication de flots trompeuses entre des pages afin fonder de fausses informations. “Le Kremlin crée depuis des années des faux sites d’information pour diffuser ses narratifs manipulatoires. Il y a plusieurs objets à ces opérations. Parmi eux, celui de la reprise de ces sites à d’autres endroits, notamment sur Wikipédia et sur les grands chatbots d’intelligence artificielle conversationnelle”, détaille Jordan Ricker.

“Mieux comprendre les mécaniques de propagation des narratifs” 

Opsci.AI et Wikimedia France ont afin équitable de hasarder d’dissemblables avis de nervure sur de nouvelles thématiques à l’destinée. “L’idée n’est pas de nous ériger en police de la pensée, mais de mieux comprendre les mécaniques de propagation, de viralité et de circulation des narratifs et des idées”, résume Jordan Ricker.