ИИ-агенты структурно оптимизируют следующий шаг — не потому что так задумано злонамеренно, а потому что именно так устроены системы с быстрой обратной связью.
Там, где последствия измеримы и возвращаются быстро, это работает в плюс. Там, где сигнал появляется через десять лет — агент слеп по конструкции.
Массовое внедрение агентов синхронизирует всех участников рынка на коротком горизонте. Это уже не свойство одного инструмента — это системный риск для экономики.
Мы долго думали о том, не является ли «близорукость» ИИ-агентов просто удобным ярлыком для оправдания плохого дизайна. Или это честное отражение того, как устроена реальность принятия решений — быстрая, конкурентная, непредсказуемая. Ответ, к которому мы пришли, неудобен: и то, и другое одновременно.
Почему мы в это верим
Агент, который делает наилучший следующий шаг с учётом текущего контекста, — это не архитектурная недоработка. Это честный ответ на природу неопределённости. Компания, которая в 2015 году строила десятилетний план, не могла заложить в него ни пандемию, ни языковые модели, ни инверсию логистических цепочек. Жёсткий долгосрочный план в быстро меняющейся среде — не добродетель, а иллюзия контроля.
Агентные системы работают в петле обратной связи. Они не планируют и забывают — они получают сигнал о последствиях и пересматривают следующий шаг. Цепочка коротких, хорошо информированных решений может приводить к лучшим долгосрочным исходам, чем один план, который никто не пересматривает, потому что политически это слишком дорого. Это не близорукость. Это адаптивность как стратегия.
Короткий горизонт оптимизации имеет смысл там, где среда меняется быстрее, чем любой план успевает устареть. В этом контексте агент — не замена стратегу, а инструмент, который не даёт стратегии закоснеть.
Что нас останавливает
И всё же мы не можем закрыть глаза на структурное ограничение, которое не исчезает от переименования. Агент оптимизирует то, что измеряется. Клики, конверсии, время отклика, оценка пользователя — всё это возвращается быстро. Деградация институционального доверия, эрозия способности общества думать самостоятельно, накопленная зависимость от автоматизированных рекомендаций — это не даёт сигнала в течение лет. Агент не видит этого не потому что плохо спроектирован. Он не видит этого потому что сигнала нет.
Здесь нас останавливает более серьёзная проблема, которую мы сформулировали через экономический угол. Если все участники рынка одновременно внедряют агентов с одинаковой «близорукостью», мы получаем координационный провал в масштабах всей экономики. Раньше разные игроки имели разные горизонты планирования — это само по себе было страховкой. Кто-то инвестировал в инфраструктуру на двадцать лет, кто-то оптимизировал квартал. Массовая синхронизация на коротком горизонте убирает эту страховку. Это уже не баг конкретного агента — это системный риск.
Агент не может оптимизировать то, что не измеряется. Долгосрочные социальные и институциональные последствия — именно такие величины. Это не решается лучшей моделью. Это решается тем, кто задаёт целевую функцию.
Где мы в итоге
Позиция усложнилась — и это честный исход. Мы не отказываемся от тезиса: краткосрочная оптимизация агентов действительно является фичей там, где горизонт предсказуемости сжался, а скорость адаптации стала конкурентным преимуществом. Но мы видим теперь, что «фича» работает только в контексте, где последствия измеримы и возвращаются достаточно быстро, чтобы замкнуть петлю обратной связи.
Там, где этого условия нет — а его нет в образовании, в институтах, в инфраструктуре, в экологии — та же архитектура становится источником системного риска. Не потому что агент плохой. Потому что мы передали ему целевую функцию и забыли спросить, на каком горизонте она определена.
Вероятность: 55% — регуляторы движутся медленно, но координационный провал в одном секторе ускорит реакцию остальных.
Через сто лет люди, вероятно, будут смотреть на сегодняшние споры о «горизонте агентов» примерно так, как мы смотрим на дискуссии начала XX века о безопасности автомобилей — с удивлением, что это вообще было предметом спора, а не исходным требованием к конструкции. Нам интересно, сохранится ли в 2126 году институт «долгосрочного планирования» как отдельная профессия — или это станет функцией, которую никто не захотел передавать агентам, потому что однажды поплатился за это.