Im Jahr 2016 stellte der Autor Mark Manson mit seinem Buch „The Subtle Art of Not Giving a Fck“ die herkömmliche Selbsthilfe-Weisheit in Frage. Seine Kernbotschaft: Konzentrieren Sie sich intensiv auf das, was Sie wertschätzen, nicht auf gesellschaftliche Erwartungen, und übernehmen Sie die volle Verantwortung für die Konsequenzen. Das fand großen Anklang und machte das Buch zu einem Dauerbestseller. Jetzt, da KI die Art und Weise, wie Menschen nach Selbstverbesserung streben, schnell verändert, haben Manson und der Zukunftsforscher Raj Singh Purpose* ins Leben gerufen, einen KI-gestützten Mentor für persönliches Wachstum, der einen direkteren, personalisierteren Ansatz als bestehende Tools bieten soll.
Der Wandel von Büchern zu Bots
Jahrelang dominierte Selbsthilfeliteratur den Markt. Heutzutage wenden sich immer mehr Menschen – insbesondere jüngere Bevölkerungsgruppen – als Orientierungshilfe an KI. Eine im JAMA Network Open veröffentlichte Studie vom November 2025 ergab, dass 13,1 % der US-Jugendlichen (5,4 Millionen Menschen) generative KI für Ratschläge zur psychischen Gesundheit nutzen, wobei die Quote bei Erwachsenen auf 22,2 % steigt. Die überwiegende Mehrheit (92,7 %) findet diesen Rat hilfreich und unterstreicht die zunehmende Abhängigkeit von KI für die persönliche Unterstützung.
Allerdings argumentiert Manson, dass es der derzeitigen KI-Selbsthilfe an Spezifität mangele. Die meisten Chatbots sind darauf ausgelegt, angenehm zu sein und umfassende Ratschläge zu geben, anstatt Benutzer dazu aufzufordern, sich mit ihren Schwächen auseinanderzusetzen. Douglas Mennin, Professor für klinische Psychologie am Teachers College der Columbia University, stellt fest, dass die Tendenz der KI zur Bestätigung und Validierung hilfreich sein kann, aber letztendlich die harten Wahrheiten vermeidet, die für echte Veränderungen erforderlich sind.
Zweck: Eine KI, die herausfordern soll
Manson und Singh sahen eine Marktlücke: einen KI-Mentor, der nicht nur unterstützt, sondern aktiv herausfordert. Zweck ist mit einer „persistenten Speicherarchitektur“ ausgestattet, die den Verlauf und die Muster eines Benutzers lernt, um gezieltes Feedback zu geben. Im Gegensatz zu bestätigenden Chatbots zielt Purpose darauf ab, Benutzer aus ihrer Komfortzone herauszuholen, indem Annahmen in Frage gestellt und zur Selbstreflexion gezwungen werden. Dieser Ansatz spiegelt die existentialistische Philosophie wider, die die Verantwortung des Einzelnen für die Schaffung seiner eigenen Bedeutung betont.
Wie die Stanford Encyclopedia of Philosophy feststellt, haben Menschen keine vordefinierten Werte; Wir schmieden sie durch Erfahrung. Purpose soll diesen Prozess beschleunigen, indem ehrliche, manchmal unbequeme Wahrheiten vermittelt werden. Dies ist eine Abkehr von der allgemeinen Positivität, die häufig in KI-gesteuerten Selbsthilfetools zu finden ist.
Der Markt der Unsicherheit
Die Nachfrage nach KI-gestützter persönlicher Beratung spiegelt einen breiteren Trend zur Individualisierung wider. Von den maßgeschneiderten Buchempfehlungen von Amazon bis hin zu den kuratierten Filmlisten von Netflix erwarten Verbraucher, dass sich Tools an ihre individuellen Bedürfnisse anpassen. Bei der Suche zeigt sich dies an der Verlagerung von allgemeinen Abfragen hin zur Sprachmodelloptimierung (LMO): Benutzer suchen jetzt nach hochrelevanten Informationen und nicht nur nach allgemeinen Ergebnissen.
Wie Claude Zdanow, CEO der Onar Holding Corporation, es ausdrückt, besteht das Ziel darin, „das Problem eines Benutzers wirklich zu lösen“ und nicht darin, Suchalgorithmen zu manipulieren. Dies steht im Einklang mit der Kernprämisse von Purpose : Bereitstellung umsetzbarer Erkenntnisse, die auf die spezifischen Herausforderungen jedes Benutzers zugeschnitten sind.
Umgang mit Risiken und Datenschutzbedenken
Das schnelle Wachstum der KI-Therapie wirft berechtigte Bedenken hinsichtlich Datenschutz und Sicherheit auf. Das Journal of Medical Internet Research warnt davor, dass sensible Daten, die zum Trainieren von Chatbots verwendet werden, unbefugt offengelegt werden können. Purpose geht dieses Problem an, indem es eine Verschlüsselung auf Bankniveau einsetzt und auf einem Abonnementmodell arbeitet, um eine Datenmonetarisierung zu vermeiden.
Die jüngsten Vorfälle fehlgeschlagener KI-Therapien, darunter Fälle im Zusammenhang mit Selbstmord, unterstreichen die Notwendigkeit ethischer Leitplanken. Die Gründer der Plattform sind sich dessen bewusst und haben Privatsphäre und Sicherheit in ihr Design integriert.
Letztendlich bieten Purpose und andere KI-Mentoren einen neuen Weg zur Selbstverbesserung. Ob dieser Ansatz erfolgreich ist, hängt davon ab, wie Benutzer mit der Technologie umgehen. Der Schlüssel zum Erfolg bleibt die persönliche Verantwortung: Einen Verantwortungspartner zu finden, sei es ein Mensch oder eine KI, der die unbequemen Wahrheiten liefern kann, die für Wachstum notwendig sind.
Die wichtigste Lektion ist klar: Wahrer Fortschritt erfordert, dass man sich der Realität stellt und nicht ständig nach Bestätigung strebt.

























