keepsimple logo
cover_choice_architect.png

Эра Архитектора Выбора

В 2020 году, почти за три года до того как LLM стали мейнстримом, я написал статью «The Science of User Experience». В ней я сделал два предсказания – первое мир уже догнал, ко второму вплотную подошел.
 

 

Предсказание первое: побеждает PM-генералист

В той статье я описывал проблему, которую видел повсюду — компании путают продакт-менеджеров с проджект-менеджерами, в вакансиях пишут «Product Manager / Product Owner» будто они взаимозаменяемы, нанимают людей с сертификатом PMI-ACP и считают, что вопрос закрыт.
Я утверждал, что продакт-менеджмент неизбежно сконцентрируется вокруг PM-генералистов. Что «суб-продакты» — те, кто просто двигает тикеты, транслирует запросы сейлзов, генерирует аналитические репорты и ведёт стендапы — уйдут в небытие. Что роль будет переопределена вокруг людей, которые достаточно глубоко понимают пользователей, психологию, культуру и бизнес, чтобы принимать настоящие продуктовые решения, а не просто процессные.
LLM сделали довольно быстро сделали это реальностью.
AI теперь делает то, на чём джуниоры и процессные PM строили свои карьеры — пишет спеки, систематизирует фидбек, мониторит конкурентов, обобщает ресёрч. Claire Vo выступая на очень популярном продуктовом саммите Lenny's Newsletter питчила утверждение, что «Product Management is Dead». Entry-level роли в продакте сокращаются. Люди, которые воспринимали продакт-менеджмент как координационную работу, выпадают из рынка.
При этом PM-генералисты — те, кто понимает зачем продукт существует, а не просто как его зарелизить — востребованы как никогда. Спрос на PM растёт в SaaS, FinTech, AI и enterprise-сегменте. Более 6 000 открытых PM-позиций по миру в 2025 году — максимум за последние два с лишним года. Роль не умирает, а скорее, фильтруется.
Это было предсказание номер один. Оно сработало.
Но почему оно сработало? Почему генералисты выживают, а процессные ребята — нет? Что конкретно делает PM-генералист такого, чего не может AI?
Этот вопрос ведёт напрямую ко второму предсказанию.
 

 

Предсказание второе: в основе всего — Архитектура Выбора

В той же статье 2020 года я подробно писал о Ричарде Талере и Кассе Санстейне — нобелевском лауреате и «регуляторном царе» эпохи Обамы, которые ввели термины «choice architecture» (архитектура выбора) и «choice architect» (архитектор выбора) в своей совместной книге Nudge.
Талер и Санстейн определили архитектора выбора, как человека, ответственного за организацию контекста, в котором люди принимают решения. Они выстроили целую теорию о том, как правительства и организации могут влиять на поведение людей через редизайн среды выбора, не ограничивая при этом опций — то, что они назвали «либертарианским патернализмом».
Их работа была настолько оценена, что под неё были созданы влиятельные государственные подразделения. В Великобритании, как часть Кабинета министров был создан “Behavioural Insights Team”. Немного ранее, Санстейн стал во главе Office of Information and Regulatory Affairs (OIRA) при правительстве США. По всему миру государства начали нанимать тысячи учёных, для изучения ошибок мозга и оптимизации выбора граждан.
Опираясь на их фундамент, я предложил в своей статье, что в контексте IT и продуктовой разработки choice architecture сводится к двум конкретным элементам:
  1. Описание сознания и когнитивных искажений, которым подвержена целевая аудитория.
  2. Решения о том, как отображать порядок элементов, участвующих в выборе, который эта аудитория должна сделать. (“Должна”, в контексте достижения бизнес-цели архитектора выбора).
По сути мое утверждение и тогда и сейчас, это то, что продакт-менеджер, это тот самый человек, который «организует контекст, в котором пользователи принимают решения в приложении», что позволяет нам спокойно называть его архитектором выбора
Я утверждал, что это не просто красивая формулировка. Это ядро профессии. Что понимание когнитивных искажений, поведенческих паттернов и психологии принятия решений — это не «nice to have» для PM, а фундаментальный навык, который отделяет настоящих продактов от администраторов бэклога.
Это и есть ответ на вопрос выше. PM-генералист выживает, потому что PM-генералист — осознанно или нет — занимается вопросами архитектуры выбора. Его многогранность позволяет ему это делать. Он понимает сознание аудитории. Он принимает решения о том, как расположить элементы выбора. Всё остальное — спеки, тикеты, стендапы — всегда было рутиной. Именно эту рутину ИИ и съел.
Сейчас, в 2026 году, понимание этих концептов важно как никогда. Важно потому, что ИИ вошёл в игру как choice architect сам по себе.
 

 

ИИ уже строит наш выбор

Вот что изменилось с момента написания той статьи: сущность, проектирующая среду, в которой вы принимаете ежедневные решения — это всё чаще не человек, а алгоритм.
Стюарт Миллс, исследователь из LSE, ввёл термин «autonomous choice architect» для описания подталкивающих (nudgge) AI-систем. Он имеет ввиду алгоритмы, питаемые большими потоками данных, настроенных на максимизацию заданной цели, непрерывно перестраивающих среду, в которой люди делают выбор.
Задумайтесь. Алгоритм Facebook News Feed ежедневно отбирает для вас около 300 постов из примерно 1 500 возможных. Это первый элемент choice architecture — модель ваших искажений, предпочтений, паттернов вовлечения. Вслед идет второй элемент – решения о порядке и формате презентации вам контента.
Главная страница Netflix, бейдж «Amazon's Choice», выдача Google, лента «Для вас» в TikTok — всё то же самое. Choice architecture, исполняемая машинами.
Эти AI-системы теперь делают то, что исследователи называют гипернаджингом (hypernudging) — непрерывная, реалтаймовая адаптация к вашему индивидуальному поведению, эксплуатация ваших конкретных когнитивных искажений со скоростью и масштабом, недоступными ни одному человеку. Алгоритм обучения может тестировать сотни различных техник подталкивания в разное время суток, определять, к каким из них вы наиболее восприимчивы, и применять их без чьего-либо одобрения.
Ваш смартфон уже располагает достаточным количеством данных для построения персонализированного профиля ваших искажений. Добавьте набор предопределённых наджей и обучающийся алгоритм — и вы получите систему, которая с высокой точностью определяет, какой именно надж сработает на вас, конкретно, прямо сейчас.
Казалось бы, это все должно сделать человека в цепочке решений лишним звеном. Больше данных, быстрее итерации, персонализация масштаба, недостижимого ни одной человеческой командой. Зачем нужен человек, если машина архитектурит выбор лучше?
А ответ банально прост. Потому что алгоритм далеко не всегда лучше, далеко не везде и все это не по тем причинам, о которых думает большинство.
 

 

Где алгоритм ломается

Автономный choice architect работает прекрасно, когда у вас огромная база пользователей, быстрые циклы обратной связи и свобода экспериментировать в масштабе. Потребительские приложения. Соцсети. E-commerce. Это — площадки для алгоритмического наджинга.
Но мир — это не только потребительские приложения (которых на вскидку не более 25% всего рынка).
Есть целые B2B-домены, где вы физически не можете провести тысячи A/B-тестов. Ваша база — 200 энтерпрайз-клиентов, каждый со своими воркфлоу и процессами закупок. У вас нет роскоши статистической значимости. Нет быстрых циклов итераций. У вас один шанс на демо, один шанс на онбординг, один шанс на страницу прайсинга, один шанс на созвоне — и если ваш построенный нарратив не верен, контракт потерян на год.
Есть чувствительные домены — здравоохранение, финансы, образование, госсектор — где вы просто не имеете права передать choice architecture алгоритму. Где этическая, юридическая и человеческая цена промаха — это не просадка конверсии, а пациент, принявший неверное решение о лечении, гражданин, неправильно понявший политику, студент, подтолкнутый не в ту сторону. В этих контекстах архитектура выбора должна быть осознанной, подотчетной и человеческой.
Есть случаи, где регуляции запрещают персонализированный наджинг, в котором AI силён. Где требования прозрачности не позволяют использовать непрозрачные алгоритмы для организации людского выбора. Где сама идея «оптимизации» человеческого решения ощущается неправильно — потому что решение слишком значимо, слишком персонально, слишком контекстно для системы, обученной на агрегированных паттернах.
Алгоритмическая choice architecture мощна. Но она не универсальна. И места, где она не работает — это именно те места, где человек-choice-architect важнее всего.
И даже там, где алгоритмы работают — даже в потребительских приложениях и e-commerce — есть ограничение, которое идёт глубже доменных рамок.
 

 

Внешний мир

Желания, страхи и мотивации людей не существуют в датасете. Они формируются тем, что происходит в реальном мире — не только онлайн. Начинается война. Экономика сдвигается. Культурное движение набирает силу. Поколение вырастает с иными ценностями, чем предыдущее. Пандемия перестраивает то, как люди думают о риске, доверии и близости.
Эти сдвиги создают постоянно движущийся ландшафт когнитивного и эмоционального контекста, который влияет на каждое решение, принимаемое человеком. Сигналы — повсюду: в разговорах, в уличных трендах, в том, как город ощущается по-другому после выборов, в тонких культурных сдвигах. Уловить их можно только живя среди людей и/или будучи крайне осознанным и внимательным.
AI может мониторить онлайн-сигналы. Скрейпить сентимент. Отслеживать метрики вовлечения. Но он не может пройтись по району и почувствовать сдвиг. Не может сидеть на встрече с нервным энтерпрайз-клиентом и считать атмосферу в комнате. Не может ощутить, что именно этот момент в конкретной культуре делает определённое сообщение воспринимаемым иначе, чем полгода назад.
Лучшие choice architect-ы, которых я знал — это те, кто впитывает эти реальные сигналы и переводит их в продуктовые решения. Они ловят что-то из внешнего мира — тренд, страх, культурное течение — и умеют наложить это на искажения своей аудитории и на расположение элементов в среде принятия решений продукта.
AI может обработать то, что уже зафиксировано. Но он не может поймать то, что ещё не зафиксировано, не задокументировано, не рассказано в масс медиа. И в мире, где среда принятия решений постоянно перестраивается силами за пределами любого датасета, этот разрыв — перманентный.
Это значит, что человек-choice-architect действует на высоте, недоступной алгоритму. Но это также значит, что он действует и на каждой высоте ниже — потому что тот же навык, который «считывает комнату» на макроуровне, работает и при выборе расположения кнопки на микроуровне. Это одна и та же игра.
 

 

Два уровня одной игры

Мне понадобились годы, чтобы чётко это сформулировать. Неважно, оптимизируете ли вы checkout-воронку или выстраиваете нарратив, объединяющий людей вокруг идеи — вы играете в одну и ту же игру, но на разных уровнях.
Уровень 1: Микро-choice-architecture. Воронки, конверсии, дефолтные настройки, расположение кнопок, тайминг нотификаций. Описание когнитивных искажений пользователя + решения о том, как расположить элементы его непосредственного выбора. AI может быть отличнейшим решением на этом уровне, потому что микро-оптимизация это распознавание паттернов в масштабе.
Но кто-то всё равно должен решить, для чего эта воронка. На что должен дефолтить дефолт. Что должно заставить почувствовать оповещение.
Уровень 2: Макро-choice-architecture. Бренд-нарратив, миссия компании, культурное позиционирование, эмоциональный и идеологический контекст, который окружает продукт ещё до того, как пользователь к нему прикоснётся. Это тоже choice architecture — всё то же описание когнитивных искажений аудитории + решения о расположении элементов, направляющих выбор. Просто выбор масштабнее: доверяю ли я этой компании? Ассоциирую ли я себя с их ценностями? Хочу ли я быть частью этого?
Оба уровня следуют одному уравнению. Оба требуют одного и того же фундаментального понимания как люди принимают решения. Разница лишь на каком уровне ты оперируешь.
AI доминирует на уровне 1. AI помогает на уровне 2. Но ни одна система не может работать на обоих уровнях без человека, который понимает сознание достаточно глубоко, чтобы связать микро и макро.
Так что конкретно этот человек должен знать?
 

 

Домашняя работа архитектора выбора

Когнитивные науки — не «я пролистал список из 10 искажений», а реальная глубина. Когда ты смотришь на проблему и сразу видишь активные искажения — эвристика доступности формирует восприятие, ошибка базовой оценки искажает оценку рисков, пренебрежение вероятностью управляет иррациональным поведением. В общем и целом, мы говорим об уровне где ты интуитивно, крайне быстро улавливаешь паттерны описанные в UXCore.io. Это больше не опциональные знания. Когда AI может разворачивать персонализированные наджи в масштабе, человек, направляющий этот AI, обязан точно понимать, какие когнитивные рычаги задействованы.
Культурный контекст — потому что надж, который работает в Берлине, может дать обратный эффект в Бангкоке. В статье 2020 года я приводил пример использования цветов испанского флага и полупрозрачного изображения Sagrada Familia для создания подсознательного ощущения знакомости через эффект знакомства с объектом (mere-exposure effect). Этот уровень культурной специфичности становится только важнее по мере глобализации продуктов и генерации AI вариаций. Кто-то должен знать, какие вариации уместны — а это требует человеческого суждения, укоренённого в реальном понимании мира.
AI-оркестрация — это новый домен. Не вайб-кодить AI а направлять его. Определять, что AI должен оптимизировать, задавать его ограничения, интерпретировать его результаты и — критически важно — тормозить его, когда оптимизация ведёт в этически неприемлемом направлении. Choice architect не конкурирует с AI. Он управляет им.
Нарративная архитектура — разница между продуктом, которым пользуются, и продуктом, в который верят. Это не копирайтинг. Это понимание того, как эвристика доступности, эффект простого воздействия и контекстно-зависимая память работают вместе, создавая ощущение принадлежности, знакомости и доверия. AI может сгенерировать тысячу версий вашего сообщения. Только человек может знать, какая версия несёт правильный смысл в правильный момент.
Этика как несущая конструкция — Талер и Санстейн выстроили свою теорию вокруг либертарианского патернализма: подталкивать к лучшим решениям, не ограничивая свободу выбора. В мире автономных choice architect-ов и гипернаджинга это не «nice-to-have». Человек, который решает, как и к чему направляются AI-наджи, обладает огромной властью. Ограничения, заложенные в алгоритмическую choice architecture, целиком зависят от предусмотрительности людей, которые их устанавливают — а люди печально известны своей неспособностью видеть непредвиденные последствия. Что означает: этическое суждение choice architect-а — это не декорация, а несущая конструкция.
Это серьёзный список. А сейчас мы подходим к самой сложной части.
 

 

Проблема G.I. Joe (всё ещё не решена)

В статье 2020 года я выделил концепцию, которую профессор Лори Сантос назвала «заблуждением G.I. Joe»: повсеместное убеждение, что «знание — это половина победы».
Это не так. И никогда не было.
Вы можете прочитать эту статью, покивать — «choice architecture, ясно, ага, звучит правильно» — и вернуться к спорам о sprint velocity, но подобный подход никак не изменит вашу реальность.
Людьми, которые станут архитекторами выбора, будут не те, кто понимает когнитивные искажения. А те, кто изменил собственное поведение на основе этого знания. Кто ловит себя на эффекте якоря при обсуждении оклада. Кто замечает, как эффект предвзятости подтверждения формирует его собственные продуктовые предпочтения. Кто чувствует дискомфорт, осознав, что его «интуиция» по поводу дизайн-решения — это всего лишь эвристика доступности, подкидывающая свежие воспоминания.
Я говорил это в 2020-м и скажу снова: чтобы применять это знание, недостаточно помнить эти искажения. Нужно впустить их в свою жизнь. И это вовлечение неизбежно изменит ваше поведение, идеологию и картину мира.
Это не смена карьеры. Это смена жизни. Большинство людей этого не сделает. Те, кто сделает, будут чрезвычайно ценны — потому что именно они окажутся единственными людьми, квалифицированными управлять AI-системами, подталкивающими миллионы и миллиарды людей каждый день.
 

 

Единственный способ остаться релевантным

Инженеры, PM, дизайнеры — все боятся. И их страх обоснован. AI пожирает исполнительный слой в каждой дисциплине. Stanford обнаружил, что занятость молодых разработчиков упала почти на 20% от пика. Entry-level PM-роли сокращаются. Четверть специалистов в продуктовых ролях сообщает о тяжёлом выгорании.
Но если вы продакт-менеджер и читаете это — знайте, что есть один правильный ход, гарантирующий вашу релевантность. Я говорю не об учении vibe-кодить (хотя это не помешает), не об очередном сертификате и не переобувании в «AI PM», потому что LinkedIn говорит, что это модный тайтл.
Как вы могли уже догадаться, мой совет всем нам, это глубокое погружение в когнитивные и поведенческие науки.
Это то, что я всегда считал и, вероятно, буду считать сердцем нашей профессии. И хотя этот путь может показаться утомительным, стремление быть релевантным постоянно - достаточно хорошая цель, чтобы обосновать наши усилия.
Все потому, что что бы AI ни автоматизировал — спеки, код, дизайны, аналитику, A/B-тесты — он не может автоматизировать понимание почему люди выбирают то, что выбирают. Как искажения взаимодействуют с культурой, контекстом и эмоциями, порождая решения. Наша сила в возможности взглянуть на output ИИ системы и сказать «Выглядит норм, но это неправильно — потому что не учитывает, как эта аудитория думает, чувствует и решает сегодня».
Это понимание делает всех нас архитекторами выбора.
 

 
Вольф Алексанян
Ереван, Армения, 2026
footer_choice_architect.png