L’ascesa dei mentori dell’intelligenza artificiale: un nuovo approccio alla crescita personale

0
14

Nel 2016, l’autore Mark Manson ha sfidato la saggezza convenzionale dell’auto-aiuto con il suo libro, L’arte sottile di non fregarsene di un f ck. Il suo messaggio principale: concentrarsi intensamente su ciò che tu apprezzi, non sulle aspettative della società, e assumerti la piena responsabilità delle conseguenze. Ciò ha avuto una risonanza profonda, rendendo il libro un bestseller di lunga data. Ora, con l’intelligenza artificiale che cambia rapidamente il modo in cui le persone cercano l’auto-miglioramento, Manson e il futurista Raj Singh hanno lanciato Purpose*, un mentore di crescita personale basato sull’intelligenza artificiale progettato per offrire un approccio più diretto e personalizzato rispetto agli strumenti esistenti.

Il passaggio dai libri ai robot

Per anni, la letteratura sull’auto-aiuto ha dominato il mercato. Oggi, un numero crescente di persone, soprattutto quelle più giovani, si rivolgono all’intelligenza artificiale come guida. Uno studio del novembre 2025 pubblicato su JAMA Network Open ha rilevato che il 13,1% dei giovani statunitensi (5,4 milioni di individui) utilizza l’intelligenza artificiale generativa per consulenza sulla salute mentale, con tassi che salgono al 22,2% tra gli adulti. La stragrande maggioranza (92,7%) ritiene utile questo consiglio, evidenziando la crescente dipendenza dall’intelligenza artificiale per il supporto personale.

Tuttavia, Manson sostiene che l’attuale auto-aiuto dell’IA manca di specificità. La maggior parte dei chatbot sono progettati per essere gradevoli, offrendo ampi consigli piuttosto che sfidare gli utenti ad affrontare i propri punti deboli. Douglas Mennin, professore di psicologia clinica al Teachers College della Columbia University, osserva che la tendenza dell’intelligenza artificiale ad affermare e convalidare può essere utile, ma alla fine evita le dure verità necessarie per un cambiamento reale.

Scopo: un’intelligenza artificiale progettata per sfidare

Manson e Singh hanno visto una lacuna nel mercato: un mentore dell’intelligenza artificiale che non si limita a supportare, ma sfida attivamente. Scopo è progettato con un’“architettura di memoria persistente” che apprende la cronologia e i modelli di un utente per fornire feedback mirato. A differenza dei chatbot affermativi, Purpose mira a spingere gli utenti oltre le zone di comfort mettendo in discussione le ipotesi e forzando l’autoriflessione. Questo approccio riecheggia la filosofia esistenzialista, che enfatizza la responsabilità dell’individuo nel creare il proprio significato.

Come afferma la Stanford Encyclopedia of Philosophy, gli esseri umani non hanno valori predefiniti; li forgiamo attraverso l’esperienza. Scopo è progettato per accelerare tale processo fornendo verità oneste, a volte scomode. Si tratta di un allontanamento dalla positività generica spesso riscontrata negli strumenti di auto-aiuto guidati dall’intelligenza artificiale.

Il mercato dell’incertezza

La richiesta di una guida personale basata sull’intelligenza artificiale riflette una tendenza più ampia verso la personalizzazione. Dai consigli di libri personalizzati di Amazon agli elenchi di film curati di Netflix, i consumatori si aspettano che gli strumenti si adattino alle loro esigenze specifiche. Nella ricerca, il passaggio dalle query generali all’ottimizzazione del modello linguistico (LMO) lo dimostra: gli utenti ora cercano informazioni altamente pertinenti, non solo risultati generici.

Come afferma Claude Zdanow, CEO di Onar Holding Corporation, l’obiettivo è “risolvere veramente il problema di un utente”, piuttosto che manipolare gli algoritmi di ricerca. Ciò è in linea con la premessa principale dello Scopo : fornire informazioni utili su misura per le sfide specifiche di ciascun utente.

Navigare tra rischi e preoccupazioni relative alla privacy

La rapida crescita della terapia con intelligenza artificiale solleva legittime preoccupazioni sulla privacy e sulla sicurezza. Il Journal of Medical Internet Research avverte che i dati sensibili utilizzati per addestrare i chatbot possono essere esposti senza autorizzazione. Lo Scopo affronta questo problema utilizzando la crittografia di livello bancario e operando su un modello di abbonamento per evitare la monetizzazione dei dati.

I recenti episodi di terapia con intelligenza artificiale andati male, compresi i casi legati al suicidio, sottolineano la necessità di barriere etiche. I fondatori della piattaforma ne sono consapevoli e hanno integrato privacy e sicurezza nella sua progettazione.

In definitiva, Purpose e altri mentori di intelligenza artificiale offrono un nuovo percorso verso l’auto-miglioramento. Il successo di questo approccio dipende da come gli utenti interagiscono con la tecnologia. L’aspetto chiave rimane la responsabilità personale: trovare un partner responsabile, umano o AI, in grado di fornire le scomode verità necessarie per la crescita.

La lezione più importante è chiara: il vero progresso richiede di affrontare la realtà, non di cercare una costante affermazione.