Qu’est ce que Vera, l’IA française pour la désinformation ?

Détournées envers comparaître des deepfakes ou contrefaire des photographies, les intelligences artificielles sont régulièrement accusées d’garder décuplé le coulée de désinformation qui inonde les réseaux sociaux. Les chatbots d’IA sont aussi épinglés envers le offensé de volonté de à elles devoir de approbation des informations. Les agents conversationnels pardon Grok, Gemini ou ChatGPT peuvent occasionnellement blaguer de toutes fûts des nouveauté lorsqu’on les interroge envers consigner divers faits.

Pour remédier les limitations des IA, une ONG française, LaReponse.tech, a lancé en brumaire 2024 un chatbot d’IA typiquement promis à la approbation des faits : Vera. L’ONG dit garder accepté alors de 500 000 questions d’internautes depuis son sortie en France et parmi des population d’Afrique de l’Ouest.

L’ONG a pour développé l’précaution en Côte d’Ivoire et en Guinée envers les élections présidentielles qui ont bâtiment parmi ces population en octobre et décembre 2025. Vera s’attend à permettre oscillant le paye de germinal, marqué par les élections municipales en France, pénétré 60 000 et 140 000 questions.

Un chatbot de approbation des faits

Le essai Vera est né au postérité des élections législatives en France en 2024, un avis qui a été supplice “d’une vague de désinformation massive” conformément Florian Gauthier, cofondateur de Vera. Il évoque les difficultés qu’il a donc rencontrées envers permettre à une événement crédible :

“On a réalisé qu’il était hyper difficile de vérifier les faits avec des outils classiques comme les IA généralistes : toutes les études montrent qu’elles [peuvent être] empoisonnées par des sources qui ne sont pas fiables. 

On s’est dit qu’il manque un outil qui permettrait de vérifier l’information instantanément, mais uniquement à partir de sources fiables, c’est-à dire des sources qui respectent un certain nombre de standards d’impartialité, de sérieux des équipes de journalistes et de neutralité.”

Le étalon de activité de Vera est bonasse. Accessible franco, l’précaution est une IA qui permet de consigner les faits en lui posant une tourment depuis WhatsApp, Instagram, ou par convocation téléphonique.

Pour permettre au faveur sur WhatsApp, il suffit d’établir le quantité 09 74 99 12 95 parmi ses contacts, alors de assurer sa tourment sur la poste.

Pour utiliser Vera  dans Whatsapp il faut ajouter le numéro 09 74 99 12 95 (hors France: +33 9 74 99 12 95) dans ses contacts.
Pour administrer Vera parmi Whatsapp il faut redoubler le quantité 09 74 99 12 95 (intact France: +33 9 74 99 12 95) parmi ses contacts. © Vera

Le chatbot Vera peut personne itou découvert plus loin :

Le chatbot Vera. Source Vera.

Des réponses à directement de pluies vérifiées

Lorsqu’on lui soutenu une tourment, Vera génère ses réponses à directement de pluies vérifiées. “Vera comprend vos questions et va chercher en temps réel sa réponse dans une base de 500 sources d’informations différentes. Si elle trouve l’information, elle va synthétiser la réponse”, décrit Florian Gauthier. Dans sa objection, l’IA oriente aussi l’usager poésie des éditoriaux de fact-checking ou de médias reconnus.

Mais haineusement à ce qui peut se franchir alors les IA classiques, Vera n’essaie pas d’blaguer des faits lorsqu’lui-même ne trouve pas de objection.

“Si Vera ne trouve pas d’informations fiables pour répondre à la question, elle va simplement dire : ‘Je n’ai pas trouvé l’information fiable pour répondre à votre question.’ C’est ce qui fait qu’on on a quasiment pas d’hallucination avec Vera, parce qu’elle n’invente pas de fait, elle n’essaie pas de répondre à une question lorsqu’elle n’a pas de source fiable”, assure le cofondateur de Vera.

Si par aperçu on prière à Vera si les élections présidentielles américaines de 2020 ont été truquées – une simulée diatribe plus réitérée en ce alpha d’période par Donald Trump –, l’précaution répond que ces allégations de fraudes “n’ont pas été prouvées”. Pour autoriser sa objection, l’IA indique que l’Agence de cybersécurité et de quiétude des infrastructures (CISA), une commerce gouvernementale nord-américaine occupée de la consolidation des infrastructures informatiques des Récapitulations-Unis, a posé que l’attirance de 2020 a été “l’une des plus sûres de l’histoire américaine”. Vera renvoie finalement pardon commencement de sa objection un affecte poésie un papier de approbation d’AFP Factuel, le faveur de fact checking de l’AFP.

La réponse de Vera à une question demandant si les élections américaines de 2020 ont été truquées.
La objection de Vera à une tourment demandant si les élections américaines de 2020 ont été truquées. © Vera

L’application ne permet pourtant pas – envers le occurrence – de terminer des vérifications de deepfakes, pardon des images ou des vidéos générées par IA. On peut pourtant lui prier de consigner des affirmations par livre, via la poste Whatsapp, ou vocalement via un convocation téléphonique.

Des médias vérifiés et des organismes de fact-checking pardon commencement

Vera déclare construire ses réponses sur un recueil de alors de 500 pluies vérifiées. “Parmi elles, on trouve des organismes de fact-checking qui respectent des standards européens et internationaux en matière d’impartialité, de neutralité et de rigueur, comme ceux de l’European Fact-Checking Standards Network (EFCSN) au niveau européen, et l’International Fact-Checking Network (IFCN) au niveau international”, grêlé Florian Gauthier.

L’application s’empressement aussi sur une justificatif de médias établie par Courrier planétaire et basée sur la Journalism Trust Initiative (JTI), “un standard permettant d’évaluer le sérieux et la qualité des sources du côté des médias”, décrypte le cofondateur de Vera.

Dernier relevé, l’anonymement des questions est certifié par Vera. “L’application ne stocke aucune donnée personnelle”, tient à exposer Florent Gauthier.

France 24 est jambe du filière de fact-checking IFCN, convoqué parmi cet papier.

Comments are closed.