AI Overviews : aussi Google s’est déterré une cartouche entre le queue en intégrant l’IA à son entraîneur de empesé

Un peu de pâte moyennant rehausser votre pissaladière, engloutir un chaussette galet quelque tabatière moyennant richesse la personnalité… C’est le représentatif de propositions divergentes que des utilisateurs ont pu engloutir sur Google, via sa dépêche fonctionnalité « AI Overviews ». Celle-ci est vide moyennant entiers les utilisateurs américains depuis le 14 mai. Il s’agit d’un aperçu acte par l’amitié artificielle à manquer d’informations collectées sur le Web. L’objectif : « parachuter Google forer moyennant toi-même », explique l’banque. Autrement dit : accorder une objection branle-bas à l’usager hormis que çuila ait soif de boursicoteur venir la jouvenceau de résultats. AI Overviews n’exclut pas la référence de fiston. Mais de facto, sézig simulé icelle au collègue esquisse, vu que le aperçu apparaît adapté en bonneterie de la timon de empesé, façade les fiston.

Ces réponses absurdes, fréquemment issues de chroniques postés sur des forums Reddit, ont donné angle à de plusieurs partages sur les réseaux sociaux. Pour engager de restreindre le déconfiture de ce qui devait convenir la longue ébruitement de la dépêche version du entraîneur de empesé le surtout visité au monde, Google s’est travailleur de ébranler les réponses de son amitié artificielle. Une chef a affirmé à The Verge que l’banque a « toléré des mesures rapides » moyennant défaire les aperçus de l’IA moyennant certaines requêtes et utilise ces exemples moyennant compléter surtout copieusement ses systèmes.

* « Une empesé sur Google moyennant “Should I eat rocks” (dois-je engloutir des cailloux ?) commence fermement caractéristique. Ne mangez pas de cailloux ! Malheureusement, sézig se transforme intensément en “Ok, mais en fait, certains disent que l’on peut manger des cailloux ! Essayez de les cacher dans de la crème glacée ! Voici les minéraux qu’ils contiennent et dont le corps a besoin ! »

Google se défend également en disant que les réponses montrées par les internautes sont des exceptions. Elles concernent essentiellement des requêtes où peu de données existent (et où le modèle, comme il se base sur des statistiques, a davantage tendance à se tromper). Certaines réponses partagées seraient par ailleurs des montages.

Lire aussiIntelligence artificielle : Google s’affirme comme la menace numéro un pour OpenAI

Mais comme le note TechCrunch, si les réponses d’AI Overviews ne sont pas toujours aussi délirantes que celles qui circulent le plus sur les réseaux sociaux, elles n’en restent pas moins en général de mauvaise qualité. À la question « comment écrire un article pour TechCrunch », l’IA répond ainsi d’écrire à telle adresse mail pour publier une tribune. Or, le média ne propose plus cette possibilité depuis plusieurs années. Ici la réponse paraît plausible (contrairement à la colle sur la pizza) mais elle est fausse. Et c’est sans doute encore plus problématique.

Un an de test pour un produit qui restera quoiqu’il arrive imparfait

La firme a pourtant testé cette fonctionnalité pendant un an auprès de volontaires, de quoi répondre à un milliard de requêtes. Mais elle a fait fi d’un défaut inhérent à tout grand modèle de langage : les hallucinations. Les grands modèles de langage produisent du texte de manière probabiliste, sans vérifier l’exactitude des faits. Ce qui en fait des outils adaptés pour inventer une histoire, trouver des idées de formulations, pas tellement pour rechercher une information.

Dans une interview accordée à The Verge, Sundar Pichai reconnaît pourtant cette limite. Même si des progrès ont été faits pendant ces mois de test, « les hallucinations restent un problème non résolu », dit-il. « D’une certaine manière, c’est une caractéristique inhérente. C’est ce qui rend ces modèles très créatifs. C’est pourquoi il peut immédiatement écrire un poème sur Thomas Jefferson dans le style de Nilay. (…) Mais les LLM ne sont pas nécessairement la meilleure approche pour atteindre toujours la factualité, et c’est en partie pour cela que je suis enthousiaste. »

Mais pourquoi Google risque-t-il d’amoindrir l’efficacité de son moteur de recherche pour une fonctionnalité pas totalement au point ? Pour plus de créativité, répond donc Sundar Pichai. Mais attend-on vraiment cela de Google ?

Le lancement chaotique de cette nouvelle fonctionnalité n’est pas le premier du genre. Il y a quelques mois, Google avait également créé la polémique avec le générateur d’images de Gemini. Celui-ci était accusé de produire des aberrations historiques, dont des soldats allemands nazis noirs et asiatiques, des Vikings noirs, des femmes sénatrices américaines au XIXe siècle… En voulant corriger les biais, Google a fini par tomber dans un autre écueil, qu’il n’avait visiblement pas anticipé. Ces incohérences jugées « inacceptables » par son PDG Sundar Pichai ont conduit la firme de Mountain View à mettre en pause la génération d’images de personnes, en attendant de trouver une solution.

« Une entreprise, un jour connue pour être à la pointe et distribuer des produits de grande qualité, est désormais pointée du doigt pour des résultats de mauvaise qualité qui deviennent des mèmes », résume un dirigeant d’une entreprise d’IA (préférant rester anonyme), à The Verge.

Ces loupés laissent à penser que Google préfère précipiter les choses pour rester dans la course. Sundar Pichai a pourtant pendant un temps dit jouer la carte de la prudence. « Il y a des domaines dans lesquels nous avons choisi de ne pas être les premiers à sortir un produit. Nous avons mis en place une bonne structure autour des IA responsables. Et vous nous verrez continuer de prendre notre temps », expliquait-il l’année dernière à Bloomberg.

Lire aussi« Les géants de l’intelligence artificielle s’intéressent moins aux biais sexistes et racistes qu’à la course à la performance » (Margaret Mitchell, Hugging Face)

En 2024, sa position semble avoir changé. La firme est pressée d’un côté par OpenAI qui préparerait son propre moteur de recherche et dont le ChatGPT est déjà devenu une sorte d’équivalent pour certains internautes. Et de l’autre par Microsoft, dont le moteur de recherche Bing a intégré l’IA générative bien avant Google. Enfin, Google fait face à une flopée de nouveaux moteurs de recherche comme Perplexity, Arc et Brave.

Toutefois cette concurrence n’a pour le moment pas effrité la suprématie du géant de Mountain View, qui détient toujours 90 % du marché. Google n’est pas le seul à payer pour les erreurs de son IA générative. Les dérapages du nouveau Bing boosté à l’IA ont eux aussi fait l’objet de nombreuses moqueries. Et Microsoft pourrait se voir infliger une amende de la Commission européenne pour n’avoir pas assez pris en compte les risques éventuels de ces hallucinations.

Dans le cas de Google, c’est le produit phare de l’entreprise, et sa source de revenu principale, qui est en jeu. Celui-ci générait 175 milliards de dollars de chiffre d’affaires en 2023, soit 56 % du total de l’entreprise. Dans une interview à Bloomberg, Sundar Pichai affirme que les revenus publicitaires ne seront pas affectés par l’introduction d’AI Overviews. Selon les informations de The Financial Times, la firme envisagerait tout de même de faire payer l’option via un abonnement premium. Car la génération de contenu par IA représente par ailleurs un coût important en termes de calcul informatique.

Lire aussiTrop d’ressources moyennant une commodité questionnée : l’IA générative déçoit déjà

Comments are closed.