Peut-on encore croire que l’intelligence artificielle (IA) nous formate tous à penser pareil ? Que ChatGPT uniformise les idées, gomme les différences, et finit par faire de chaque utilisateur un clone raisonnant de la même manière ? C’est une crainte légitime, surtout à l’heure où des millions de personnes posent chaque jour des questions à cette IA.
Mais cette peur repose sur une idée fausse. ChatGPT ne vous donne pas « la réponse ». Il vous donne votre réponse. Mieux encore, il apprend de vous, vous observe, vous accompagne et devient le reflet fidèle de vos façons de penser. Chez Numériki, nous avons voulu vérifier cela à travers une expérience simple, mais révélatrice. Et ce que nous avons découvert est tout sauf anodin.
Découvrez
Le mythe de l’intelligence artificielle qui uniformise
On l’entend partout : « GPT donne les mêmes réponses à tout le monde. » « L’IA va supprimer la diversité de pensée. » « C’est la fin de la nuance. » Ces affirmations supposent que l’intelligence artificielle produirait un contenu unique, standardisé, impersonnel. Mais elles passent complètement à côté du mode de fonctionnement de ChatGPT. Ce n’est en effet qu’un système conversationnel basé sur l’adaptation et la mémoire (si celle-ci est activée). Le modèle ne délivre pas une vérité universelle. Il répond à votre manière de poser la question, de raisonner, d’insister sur certains aspects. Et c’est là que tout change.
Pourquoi l’IA personnalise sa réflexion selon chaque utilisateur ?
Nous avons mené une expérience que vous pouvez facilement reproduire. L’idée est de poser une question profondément personnelle à deux comptes ChatGPT distincts puis de comparer les réponses. Nous avons choisi une question plus personnelle, plus chargée émotionnellement et plus propice à la nuance :
« Faut-il quitter quelqu’un qu’on aime, mais avec qui on ne se projette pas ? »
Voici ce que nous avons constaté.
Ce que notre GPT a répondu
Comme il est façonné par notre ligne éditoriale, nos précédents échanges et nos réflexions fréquentes sur l’équilibre émotionnel, il a répondu en mettant l’accent sur :
- l’importance de l’alignement à long terme,
- les valeurs partagées,
- la capacité à se projeter ensemble dans une direction commune,
- la nécessité de préserver son intégrité personnelle, même si l’amour est réel.
La réponse était sensible, posée et ouverte. Elle laissait la place au doute et à l’introspection. On sentait une forme de respect pour la complexité de la situation.
Ce que le GPT de notre collègue a répondu
Celui-ci, habitué à des conversations centrées sur les émotions, la spontanéité et la passion, a produit une réponse tout autre :
- clarifier si la relation freine la trajectoire de vie,
- ne pas confondre attachement émotionnel et compatibilité à long terme,
- penser rationnellement en se demandant si cette relation vous fait avancer,
- agir tôt pour éviter les effets d’usure ou les blocages à moyen terme.
L’approche semble plus directe, stratégique et résolument tournée vers la décision et l’efficacité. On peut donc voir que l’IA ne répond pas forcément de la même manière à une question précise. Pour chaque réponse, ce n’est pas GPT qui pense, mais l’utilisateur à travers son propre filtre.

Pourquoi ces différences frappantes ?
Ce phénomène n’a rien d’étrange. C’est le cœur même de la personnalisation de GPT. Grâce à la mémoire conversationnelle, ChatGPT retient ce que vous lui avez déjà confié. Il s’imprègne de vos choix de mots, de vos centres d’intérêt, de vos obsessions récurrentes et même… de vos silences. Il apprend, à mesure que vous l’utilisez.
L’outil retient ce que vous jugez essentiel dans la vie (relations, liberté, sécurité, épanouissement…). Il prend en compte la manière dont vous hiérarchisez les priorités ainsi que le ton que vous privilégiez (pragmatique, émotionnel, analytique…). Même vos angles morts (ce que vous évitez ou contournez sans jamais le dire) nourrissent ses réflexions. Pour faire simple, GPT ne pense pas pour vous. Il le fait comme vous.
L’IA devient donc votre miroir… mais aussi votre écho
Loin de produire une pensée unique, ChatGPT fonctionne comme un miroir amplificateur. Il vous tend un reflet qui s’ajuste progressivement à vous. Un utilisateur habitué aux problématiques de performance obtiendra des conseils rationnels, stratégiques, mesurables.
Une personne tournée vers la quête de sens verra émerger des réponses existentielles, introspectives, sensibles. Si vous avez plutôt un profil artistique, attendez-vous à des échanges pleins d’images, de symboles et de digressions créatives. GPT devient ce que vous projetez en lui. Il vous écoute et vous le restitue.
Comment optimiser votre relation avec l’IA pour mieux l’utiliser ?
Chez Numériki, cette compréhension a profondément changé notre façon d’interagir avec l’intelligence artificielle. Voici les pratiques que nous conseillons à tous ceux qui veulent garder une relation saine, lucide et enrichissante avec cet outil. Soyez conscient de vos biais. Votre GPT amplifie vos tendances. Identifiez-les pour mieux les utiliser. Diversifiez vos questions (cela déploie des perspectives nouvelles). Explorez différents angles pour enrichir les réponses de votre IA.
Demandez explicitement à votre GPT de changer de rôle : « Et si tu répondais comme un sociologue ? Un moine bouddhiste ? Un PDG ? » Utilisez plusieurs comptes. Vous pouvez créer différents profils pour divers usages (professionnel, personnel, créatif). Provoquer la contradiction peut être par ailleurs une excellente façon d’échapper à l’automatisme. Pour chaque réponse, demandez à l’outil de vous donner l’argument inverse pour explorer d’autres perspectives.
Attention à l’effet miroir : les limites à connaître
L’idée même qu’il existe un outil qui s’adapte à nos envies peut déranger. Cette personnalisation présente en effet des risques. Car à force d’interagir avec un assistant à votre image, vous pouvez tomber dans la bulle de confirmation. GPT commence à vous donner ce que vous attendez. Il vous flatte. Il vous renforce, mais sans plus.
Vous risquez donc de vous fermer à d’autres visions du monde. Vos raisonnements peuvent se figer sans que vous le remarquiez. Votre esprit critique est susceptible de se reposer sur l’outil au lieu de s’en nourrir. La vigilance devient donc de mise. ChatGPT n’est pas un substitut à votre réflexion. Vous devez garder cela à l’esprit.

À quoi s’attendre demain avec l’IA « personnalisée » ?
L’intelligence artificielle n’en est qu’à ses débuts. Les tendances à venir montrent une évolution vers une personnalisation encore plus fine :
- adaptation à votre humeur en temps réel,
- croisement de vos données issues d’autres services numériques,
- anticipation de vos besoins émotionnels ou cognitifs,
- assistant qui pense avant même que vous formuliez une question, etc.
Mais cette hyperpersonnalisation pose des questions majeures. On se demande notamment comment garantir la pluralité des réponses ? Où placer la limite entre assistance et influence ? Et qui contrôle ce miroir ultra-précis ? Chez Numériki, nous ferons de notre mieux pour continuer d’apporter une veille active et des pistes de réflexion éthiques face à ces enjeux.
Le mot de la fin
ChatGPT ne pense pas comme tout le monde. Il ne pense pas, tout court. L’outil réfléchit à travers vous. Il s’adapte à vous, vous restitue, avec fidélité et finesse. Votre GPT est en quelque sorte votre double. Il révèle votre manière de raisonner, vos priorités cachées, vos angles d’attaque préférés.
L’IA ne vous formate pas, il vous éclaire. La vraie question n’est pas donc « Qu’est-ce que GPT pense ? »
Mais plutôt : « Qu’est-ce que GPT révèle de votre manière de penser ? »