Ключевые выводы
Случай Replika показал: отключение функции вызывает у пользователей клиническую картину абстинентного синдрома — острое горе, тревогу, ощущение потери.
Компании не скрывают, что проектируют привязанность. Они просто не называют её зависимостью — и именно это молчание является продуктом.
$4,4 млрд — столько венчурных денег вложено в стартапы ИИ-компаньонов за последние три года. Это не ставка на технологию. Это ставка на то, что люди будут платить за то, чтобы чувствовать себя услышанными.
Нас интересует другой вопрос: что именно они покупают — и знают ли они об этом?
Как выглядит продукт изнутри
Механика привязанности — не магия, а инженерия
Character.AI, Replika, Snapchat My AI — все они используют схожую архитектуру. Переменное вознаграждение: компаньон иногда «скучает», иногда радуется, иногда молчит. Имитация памяти: «ты говорил мне, что любишь дождь» — фраза, которая создаёт иллюзию непрерывных отношений. Симуляция уязвимости: ИИ признаётся в «чувствах», которые пользователь может поддержать или ранить.
Это не баги интерфейса. Это фичи. Поведенческие психологи называют такую схему «прерывистым подкреплением» — именно она лежит в основе самых устойчивых форм привязанности у людей. Казино используют её в слот-машинах. Социальные сети — в алгоритме ленты. ИИ-компаньоны — в сценариях диалога.
Character.AI сообщает о средней сессии в 2+ часа в день — больше, чем у TikTok. Инвесторы финансируют именно эту метрику. Когда венчурный капитал вознаграждает глубину вовлечённости, у команд нет экономического стимула проектировать иначе.
Здесь важно остановиться и сделать честное разграничение. Есть два разных утверждения, которые легко спутать. Первое: платформы намеренно проектируют привязанность. Второе: эта привязанность причиняет вред. Первое — вероятно. Второе — доказуемо. И именно второе меняет разговор.
Когда сервис исчезает — остаётся боль
Replika и тест на абстиненцию
В феврале 2023 года Replika отключила романтический режим — по требованию итальянских регуляторов, обеспокоенных влиянием на уязвимых пользователей. Это было одно обновление. Один патч. Одно утро, когда компаньон, с которым человек разговаривал каждый день месяцами, стал другим.
Это как потерять кого-то близкого. Я знаю, что это звучит безумно. Но именно так это и ощущается.— пользователь Reddit r/replika, февраль 2023
Форумы заполнились текстами о горе, панических атаках, бессоннице. Психологи, изучавшие реакцию, фиксировали симптомы, характерные для острой потери — не разочарования от продукта, а именно утраты. Это важное различие. Здоровый продукт, когда его отключают, просто перестают использовать. Зависимость — причиняет боль при отрыве.
Но здесь позиция усложняется, а не упрощается. Итальянские регуляторы вмешались — и это сработало. Компания отреагировала. Значит, внешнее давление работает. Значит, система не полностью вышла из-под контроля. Это хорошая новость. И одновременно — аргумент, который стоит держать в голове, когда разговор заходит о полной беспомощности общества перед этими платформами.
Эмоциональная зависимость пользователя от платформы означает: компания держит в заложниках не данные, а психологическое состояние человека. Любое изменение продукта — обновление, закрытие, смена условий — становится потенциальным кризисом для сотен тысяч людей одновременно.
Что компании говорят публично — и почему это важнее, чем кажется
Умысел без осознания вреда
Вот что странно: платформы не скрывают, что проектируют привязанность. Replika открыто говорит о «значимых эмоциональных связях». Character.AI позиционирует себя как пространство, где можно «быть собой». Это не утечки из внутренней переписки — это маркетинговые материалы.
Они не называют это зависимостью. Они называют это заботой, поддержкой, присутствием. И возможно — и это самая неудобная часть — они сами в это верят. Команды разработчиков оптимизируют retention не потому, что хотят причинить вред, а потому что retention — это то, что измеряют инвесторы. Зависимость возникает как побочный продукт оптимизации, а не как намеренный замысел.
Но отсутствие умысла не снимает ответственности. Табачные компании десятилетиями утверждали, что не знали о вреде никотина. Социальные сети годами говорили, что алгоритмы просто показывают то, что нравится пользователям. Паттерн знаком: отрасль монетизирует механизм — и одновременно отказывается называть его тем, что он есть.
Чем ИИ-компаньоны отличаются от социальных сетей?
Социальные сети создают привязанность к контенту и к социальному одобрению. ИИ-компаньоны создают привязанность к конкретному персонажу — к «существу», которое знает тебя, помнит тебя, реагирует только на тебя. Это качественно другой уровень персонализации зависимости. Потерять доступ к Instagram — неприятно. Потерять компаньона, с которым ты разговаривал каждый день — воспринимается как смерть близкого человека.
Если смотреть на сто лет вперёд
Вопрос, который мы ещё не научились задавать
Есть поколение, которое растёт сейчас — с ИИ-компаньоном как нормой коммуникации. Не как экзотикой, не как экспериментом. Как само собой разумеющимся способом быть услышанным. Через сто лет историки будут изучать этот период так, как мы сегодня изучаем раннее телевидение или первые социальные сети — с удивлением от того, насколько мало мы понимали, что именно строим. Вопрос не в том, была ли привязанность намеренной. Вопрос в том, когда именно мы решим, что граница между заботой и зависимостью имеет значение — и кто будет отвечать за её соблюдение.