En 2016, l’auteur Mark Manson a remis en question la sagesse conventionnelle de l’entraide avec son livre, The Subtle Art of Not Giving a F ck. Son message principal : concentrez-vous intensément sur ce que vous valorisez, et non sur les attentes de la société, et assumez l’entière responsabilité des conséquences. Cela a profondément résonné, faisant du livre un best-seller de longue date. Aujourd’hui, alors que l’IA change rapidement la façon dont les gens cherchent à s’améliorer, Manson et le futuriste Raj Singh ont lancé Purpose*, un mentor de croissance personnelle alimenté par l’IA, conçu pour offrir une approche plus directe et personnalisée que les outils existants.
Le passage des livres aux robots
Pendant des années, la littérature sur le développement personnel a dominé le marché. Aujourd’hui, un nombre croissant de personnes, en particulier les plus jeunes, se tournent vers l’IA pour obtenir des conseils. Une étude de novembre 2025 dans JAMA Network Open a révélé que 13,1 % des jeunes américains (5,4 millions d’individus) utilisent l’IA générative pour des conseils en matière de santé mentale, avec des taux atteignant 22,2 % chez les adultes. La grande majorité (92,7 %) trouvent ces conseils utiles, soulignant le recours croissant à l’IA pour le soutien personnel.
Cependant, Manson soutient que l’auto-assistance actuelle de l’IA manque de spécificité. La plupart des chatbots sont conçus pour être agréables, offrant des conseils généraux plutôt que de mettre les utilisateurs au défi de confronter leurs faiblesses. Douglas Mennin, professeur de psychologie clinique au Teachers College de l’Université de Columbia, note que la tendance de l’IA à affirmer et à valider peut être utile, mais évite en fin de compte les dures vérités nécessaires à un véritable changement.
Objectif : Une IA conçue pour défier
Manson et Singh ont constaté une lacune sur le marché : un mentor en IA qui non seulement soutient, mais qui défie activement. Purpose est conçu avec une “architecture de mémoire persistante” qui apprend l’historique et les modèles d’un utilisateur pour fournir des commentaires ciblés. Contrairement aux chatbots affirmés, Purpose vise à pousser les utilisateurs au-delà de leurs zones de confort en remettant en question les hypothèses et en forçant l’auto-réflexion. Cette approche fait écho à la philosophie existentialiste, qui met l’accent sur la responsabilité de l’individu dans la création de son propre sens.
Comme le dit l’Encyclopédie de philosophie de Stanford, les humains n’ont pas de valeurs prédéfinies ; nous les forgeons par l’expérience. Purpose est conçu pour accélérer ce processus en délivrant des vérités honnêtes, parfois inconfortables. Cela s’écarte de la positivité générique que l’on retrouve souvent dans les outils d’auto-assistance basés sur l’IA.
Le marché de l’incertitude
La demande de conseils personnels basés sur l’IA reflète une tendance plus large vers la personnalisation. Des recommandations de livres personnalisées d’Amazon aux listes de films organisées par Netflix, les consommateurs attendent des outils qui s’adaptent à leurs besoins uniques. Dans le domaine de la recherche, le passage des requêtes générales à l’optimisation du modèle linguistique (LMO) le démontre : les utilisateurs recherchent désormais des informations très pertinentes, et non seulement des résultats généraux.
Comme le dit Claude Zdanow, PDG d’Onar Holding Corporation, l’objectif est de « véritablement résoudre le problème d’un utilisateur », plutôt que de manipuler les algorithmes de recherche. Cela correspond au principe fondamental de Objectif : fournir des informations exploitables adaptées aux défis spécifiques de chaque utilisateur.
Gérer les risques et les problèmes de confidentialité
La croissance rapide de la thérapie par l’IA soulève des préoccupations légitimes en matière de confidentialité et de sécurité. Le Journal of Medical Internet Research prévient que les données sensibles utilisées pour former les chatbots peuvent être exposées sans autorisation. Objectif résout ce problème en utilisant un cryptage de niveau bancaire et en fonctionnant sur un modèle d’abonnement pour éviter la monétisation des données.
Les récents incidents de thérapie par l’IA qui ont mal tourné, y compris des cas liés au suicide, soulignent la nécessité de garde-fous éthiques. Les fondateurs de la plateforme en sont conscients et ont intégré la confidentialité et la sécurité dans sa conception.
En fin de compte, Purpose et d’autres mentors en IA offrent une nouvelle voie vers l’auto-amélioration. Le succès de cette approche dépend de la manière dont les utilisateurs interagissent avec la technologie. La clé à retenir reste la responsabilité personnelle : trouver un partenaire responsable, humain ou IA, qui peut livrer les vérités inconfortables nécessaires à la croissance.
La leçon la plus importante est claire : le véritable progrès nécessite d’affronter la réalité, et non de rechercher une affirmation constante.

























