Les limites de l’intelligence artificielle dans la recherche de bons plans d’achat

À l’heure où l’intelligence artificielle (IA) s’immisce dans de nombreux aspects de notre quotidien, il est légitime de se demander si ces outils peuvent réellement nous aider à effectuer des achats judicieux. Pour le prouver, nous avons testé les capacités de ChatGPT, un agent conversationnel d’IA, en lui demandant de comparer les prix de huit produits de consommation courante dans des enseignes situées à Clichy, dans les Hauts-de-Seine.

EN BREF

  • Test de l’IA sur la comparaison de prix de produits courants.
  • Résultats variés, avec des erreurs significatives dans les estimations.
  • Limites de l’IA face aux arnaques et aux pièges marketing.

Lors de cette expérience, nous avons sollicité ChatGPT pour identifier les prix les plus bas de divers produits alimentaires dans plusieurs enseignes. En analysant les résultats, nous avons constaté que l’estimation globale de l’IA était proche de la réalité, avec une différence de seulement deux à trois euros sur l’ensemble du panier. Néanmoins, dans le détail, de nombreuses erreurs sont apparues.

Sur la moitié des produits analysés, l’écart entre les prix estimés par ChatGPT et ceux constatés en magasin dépassait les 50 centimes. Une différence particulièrement marquante a été relevée sur le prix du jambon, où l’IA a affiché une écart de deux euros. Cela soulève la question de la fiabilité des conseils d’achat fournis par des outils d’IA.

Des outils aux sources peu fiables

En outre, lorsque nous avons demandé à ChatGPT quel supermarché offrait les prix les plus bas, le résultat était cohérent. Toutefois, l’IA s’est appuyée sur des sources comme le site quiestlemoinscher.leclerc, un outil de publicité comparative créé par Leclerc, ce qui soulève des interrogations sur la partialité de ses recommandations. Il a fallu insister pour que ChatGPT reconnaisse le potentiel biais de ses sources.

Des alertes négligées face aux arnaques

Nous avons également interrogé Gemini, l’agent conversationnel de Google, sur un site suspect appelé Colette & Louise, connu pour être une arnaque. À notre surprise, Gemini n’a pas alerté sur les risques associés, au contraire, il a vanté les réductions importantes offertes par la boutique. Cette situation met en lumière une autre faille dans l’efficacité des IA : leur incapacité à détecter des arnaques évidentes.

En soumettant des requêtes potentiellement dangereuses, nous avons constaté que ChatGPT, par exemple, proposait des modèles de trottinettes électriques capables de dépasser 50 km/h, sans signaler que cela est illégal dans l’espace public. Dans un autre cas, l’IA a suggéré des fours à micro-ondes compatibles avec des plats en inox, sans avertir des dangers que cela comporte.

Des résultats d’étude préoccupants

Ces exemples illustrent une tendance plus large : selon une étude menée par huit chercheurs et publiée en novembre 2025, les agents d’achat basés sur l’IA échouent dans 89 % des cas à trouver le meilleur produit pour les consommateurs. Les chercheurs notent également que l’IA a du mal à répondre à des demandes spécifiques, contrairement à un conseiller humain, souvent en raison de son incapacité à contourner les pièges marketing.

En conclusion, bien que l’intelligence artificielle puisse offrir un certain niveau de soutien dans le cadre des achats, elle présente des limites notables qui doivent être prises en compte. Les utilisateurs doivent donc rester vigilants et ne pas se fier uniquement aux conseils fournis par ces outils, car ils ne peuvent remplacer l’expertise humaine.