W 2016 roku autor Mark Manson w swojej książce The Subtle Art of Not Giving a Fck rzucił wyzwanie konwencjonalnym poglądom na temat samopomocy. Jego główne przesłanie: Skoncentruj się na tym, co ty cenisz, a nie na oczekiwaniach społecznych, i weź pełną odpowiedzialność za konsekwencje. Rezonowało to głęboko w sercach czytelników, czyniąc książkę bestsellerem przez wiele lat. Teraz, gdy sztuczna inteligencja szybko zmienia sposób, w jaki ludzie dążą do samodoskonalenia, Manson i futurysta Raj Singh uruchomili Purpose*, trenera rozwoju osobistego opartego na sztucznej inteligencji, którego zadaniem jest oferowanie bardziej bezpośredniego i spersonalizowanego podejścia niż istniejące narzędzia.
Przejdź od książek do botów
Przez wiele lat na rynku dominowała literatura samopomocowa. Obecnie coraz więcej osób – szczególnie młodsze pokolenia – zwraca się o poradę do sztucznej inteligencji. Badanie z listopada 2025 r. opublikowane w JAMA Network Open wykazało, że 13,1% amerykańskiej młodzieży (5,4 miliona osób) korzysta z generatywnej sztucznej inteligencji w celu uzyskania porad dotyczących zdrowia psychicznego, przy czym wśród dorosłych odsetek ten sięga 22,2%. Zdecydowana większość (92,7%) uważa te wskazówki za przydatne, co podkreśla rosnącą zależność od sztucznej inteligencji w zakresie osobistego wsparcia.
Manson argumentuje jednak, że istniejącej sztucznej inteligencji samopomocy brakuje specyfiki. Większość chatbotów zaprojektowano tak, aby były przyjemne i oferowały ogólne porady, a nie zmuszały użytkowników do konfrontacji ze swoimi słabościami. Douglas Mennin, profesor psychologii klinicznej w Teachers College Columbia University, zauważa, że nastawienie sztucznej inteligencji na potwierdzanie i zatwierdzanie może być korzystne, ale ostatecznie unika twardych prawd niezbędnych do wprowadzenia prawdziwych zmian.
Cel: sztuczna inteligencja zaprojektowana, aby rzucać wyzwania
Manson i Singh dostrzegli lukę na rynku: mentora AI, który nie tylko wspiera, ale także aktywnie rzuca wyzwania. Cel został zaprojektowany z wykorzystaniem „architektury pamięci trwałej”, która uczy się historii i wzorców użytkownika, aby zapewnić ukierunkowaną informację zwrotną. W przeciwieństwie do chatbotów afirmatywnych, Cel ma na celu wypchnięcie użytkowników poza ich strefę komfortu poprzez kwestionowanie założeń i zmuszanie do autorefleksji. Podejście to współbrzmi z filozofią egzystencjalistyczną, która kładzie nacisk na indywidualną odpowiedzialność za kreowanie własnego znaczenia.
Jak stwierdza Stanford Encyclopedia of Philosophy, ludzie nie mają z góry określonych wartości; kształtujemy je poprzez doświadczenie. Cel ma na celu przyspieszenie tego procesu poprzez przedstawienie szczerej, czasem niewygodnej prawdy. Stanowi to odejście od ogólnego pozytywnego nastawienia często spotykanego w narzędziach samopomocy AI.
Rynek niepewności
Zapotrzebowanie na osobiste wskazówki dotyczące sztucznej inteligencji odzwierciedla szerszy trend w kierunku dostosowywania. Od spersonalizowanych rekomendacji książek Amazona po listę filmów wybranych przez Netflix – konsumenci oczekują narzędzi dostosowanych do ich unikalnych potrzeb. W wyszukiwarkach widać to po przejściu od ogólnych zapytań do optymalizacji modelu językowego (LMO): użytkownicy szukają obecnie bardzo istotnych informacji, a nie tylko ogólnych wyników.
Jak mówi Claude Zdanov, dyrektor generalny Onar Holding Corporation, celem jest „rzeczywiste rozwiązanie problemu użytkownika”, a nie manipulowanie algorytmami wyszukiwania. Jest to zgodne z głównym założeniem *Cel: dostarczanie praktycznych spostrzeżeń dostosowanych do konkretnych problemów każdego użytkownika.
Nawigacja po zagrożeniach i problemach związanych z prywatnością
Gwałtowny rozwój terapii AI budzi uzasadnione obawy dotyczące prywatności i bezpieczeństwa. Journal of Medical Internet Research ostrzega, że wrażliwe dane wykorzystywane do szkolenia chatbotów mogą zostać ujawnione bez autoryzacji. Cel rozwiązuje ten problem poprzez szyfrowanie banku i działanie w modelu subskrypcyjnym, aby uniknąć monetyzacji danych.
Niedawne incydenty związane z terapią AI, w tym przypadki samobójstw, podkreślają potrzebę wprowadzenia etycznych środków bezpieczeństwa. Założyciele platformy zdają sobie z tego sprawę i w jej projekcie wbudowali prywatność i bezpieczeństwo.
Ostatecznie Purpose i inni mentorzy AI oferują nową ścieżkę samodoskonalenia. Sukces tego podejścia zależy od tego, w jaki sposób użytkownicy wchodzą w interakcję z technologią. Najważniejszym wnioskiem pozostaje osobista odpowiedzialność: znalezienie odpowiedzialnego partnera, człowieka lub sztucznej inteligencji, który może dostarczyć niewygodnych prawd potrzebnych do rozwoju.
Najważniejsza lekcja jest jasna: prawdziwy postęp wymaga zmierzenia się z rzeczywistością, a nie ciągłego szukania akceptacji.

























