Ă l’heure oĂč l’intelligence artificielle (IA) s’immisce dans de nombreux aspects de notre quotidien, il est lĂ©gitime de se demander si ces outils peuvent rĂ©ellement nous aider Ă effectuer des achats judicieux. Pour le prouver, nous avons testĂ© les capacitĂ©s de ChatGPT, un agent conversationnel d’IA, en lui demandant de comparer les prix de huit produits de consommation courante dans des enseignes situĂ©es Ă Clichy, dans les Hauts-de-Seine.
EN BREF
- Test de l’IA sur la comparaison de prix de produits courants.
- Résultats variés, avec des erreurs significatives dans les estimations.
- Limites de l’IA face aux arnaques et aux piĂšges marketing.
Lors de cette expĂ©rience, nous avons sollicitĂ© ChatGPT pour identifier les prix les plus bas de divers produits alimentaires dans plusieurs enseignes. En analysant les rĂ©sultats, nous avons constatĂ© que l’estimation globale de l’IA Ă©tait proche de la rĂ©alitĂ©, avec une diffĂ©rence de seulement deux Ă trois euros sur l’ensemble du panier. NĂ©anmoins, dans le dĂ©tail, de nombreuses erreurs sont apparues.
Sur la moitiĂ© des produits analysĂ©s, l’Ă©cart entre les prix estimĂ©s par ChatGPT et ceux constatĂ©s en magasin dĂ©passait les 50 centimes. Une diffĂ©rence particuliĂšrement marquante a Ă©tĂ© relevĂ©e sur le prix du jambon, oĂč l’IA a affichĂ© une Ă©cart de deux euros. Cela soulĂšve la question de la fiabilitĂ© des conseils d’achat fournis par des outils d’IA.
Des outils aux sources peu fiables
En outre, lorsque nous avons demandĂ© Ă ChatGPT quel supermarchĂ© offrait les prix les plus bas, le rĂ©sultat Ă©tait cohĂ©rent. Toutefois, l’IA s’est appuyĂ©e sur des sources comme le site quiestlemoinscher.leclerc, un outil de publicitĂ© comparative créé par Leclerc, ce qui soulĂšve des interrogations sur la partialitĂ© de ses recommandations. Il a fallu insister pour que ChatGPT reconnaisse le potentiel biais de ses sources.
Des alertes négligées face aux arnaques
Nous avons Ă©galement interrogĂ© Gemini, l’agent conversationnel de Google, sur un site suspect appelĂ© Colette & Louise, connu pour ĂȘtre une arnaque. Ă notre surprise, Gemini nâa pas alertĂ© sur les risques associĂ©s, au contraire, il a vantĂ© les rĂ©ductions importantes offertes par la boutique. Cette situation met en lumiĂšre une autre faille dans lâefficacitĂ© des IA : leur incapacitĂ© Ă dĂ©tecter des arnaques Ă©videntes.
En soumettant des requĂȘtes potentiellement dangereuses, nous avons constatĂ© que ChatGPT, par exemple, proposait des modĂšles de trottinettes Ă©lectriques capables de dĂ©passer 50 km/h, sans signaler que cela est illĂ©gal dans lâespace public. Dans un autre cas, l’IA a suggĂ©rĂ© des fours Ă micro-ondes compatibles avec des plats en inox, sans avertir des dangers que cela comporte.
Des rĂ©sultats d’Ă©tude prĂ©occupants
Ces exemples illustrent une tendance plus large : selon une Ă©tude menĂ©e par huit chercheurs et publiĂ©e en novembre 2025, les agents d’achat basĂ©s sur l’IA Ă©chouent dans 89 % des cas Ă trouver le meilleur produit pour les consommateurs. Les chercheurs notent Ă©galement que l’IA a du mal Ă rĂ©pondre Ă des demandes spĂ©cifiques, contrairement Ă un conseiller humain, souvent en raison de son incapacitĂ© Ă contourner les piĂšges marketing.
En conclusion, bien que l’intelligence artificielle puisse offrir un certain niveau de soutien dans le cadre des achats, elle prĂ©sente des limites notables qui doivent ĂȘtre prises en compte. Les utilisateurs doivent donc rester vigilants et ne pas se fier uniquement aux conseils fournis par ces outils, car ils ne peuvent remplacer l’expertise humaine.