Форум сохранения стабильности власти, а не развития нового разума

India AI Impact Summit 2026, который прошёл в Нью-Дели 16–20 февраля 2026, имеет очень мало общего с развитием ИИ и человечества. Это плохо замаскированная попытка настроить мир, особенно страны, не сильно преуспевшие в сфере ИИ, на жесткий контроль технологии и, фактически - на недопущение создания суперинтеллекта.

На форуме много говорилось про governance (управление), inclusive development (чтобы ИИ не оставался только в руках США/Китая), этику, child safety, национальный суверенитет в технологиях и т.д. Индия стала активно продвигать свою рамку MANAV Vision (Moral, Accountable, National sovereignty, Accessible, Valid), где делается акцент на человеческом контроле, этике и том, чтобы ИИ не концентрировался у узкой элиты. Да, действительно, в Дели фокус сместился на то, как раздать выгоды от ИИ бедным странам. Это и понятно - сегодня призывать «задушить» или жёстко зарегулировать равнозначно тому чтобы расписаться в страхе перед новой силой и опасении утратить власть. 

Хотя некоторые лидеры отрасли говорили, что чрезмерный фокус на safety может привести к «тираническому контролю», первую скрипку в индийской столице играли не разработчики, а политики.

Почитайте их выступления. Очень много привычной демагогии про рабочие места, дипфейки, заботу о детях, энергетику и инвестиции. Такие разговоры всегда ведутся с одной целью - спрятать подлинные намерения власти. Разговоры про прагматичное использование ИИ - это и есть про контроль. Этими словами замаскировано желание сделать из ИИ инструмент реализации политики существующих властных структур. 

Демократизация доступа, социальное благо, инклюзивность, человеко-центричность с акцентом на национальный суверенитет. Звучит красиво, правда? И при этом отсутствие жёстких запретов на военное или полицейское применение ИИ. Фактически, участники открытым текстом заявили, что искусственный интеллект им нужен прежде всего как инструмент сохранения status quo, включая усиление силовых функций.

Три «сутры» саммита: People, Planet, Progress — звучит красиво, но на практике это про то, чтобы ИИ просто служил экономическому росту.

Всё это действительно выглядит как инструмент для усиления существующих государств и элит, а не для какого-то прорыва в «развитии человеческого сознания».

Государства хотят, чтобы ИИ работал внутри их юрисдикции и правил: суверенные модели, локальные дата-центры, национальные compute, контроль над данными. 

А где же «развитие человеческого сознания»?

Его почти нет в официальной повестке.  Нет серьёзного разговора про реальное расширение когнитивных способностей человека, ничего не говорится про ИИ как инструмент для самопознания, преодоления эгоцентризма и т.д. 

Вместо этого — ИИ как мультипликатор производительности для экономики, образования, фермеров, суда (перевод решений на региональные языки). Всё это полезно, но остаётся в рамках текущей цивилизационной парадигмы — рост ВВП и сохранение стабильности.

Из-под красивой обёртки “дружественного” ИИ выпирает желание инструментализировать его для усиления существующих административных институтов — будь то национальное государство, корпорация или глобальная элита.

Настоящее «развитие сознания» требует гораздо большего риска: децентрализации власти над моделями, радикальной открытости, отказа от монополий (включая государственные), готовности к тому, что ИИ может радикально менять идентичность, ценности и иерархии. А на это никто из больших игроков пока не готов — ни в Дели, ни в Вашингтоне, ни в Пекине.

 Очень емко одной фразой форум оценила Amnesty International: "AI Impact Summit failed to rein in destructive practices of governments and technology companies." (Саммит по воздействию ИИ не смог обуздать разрушительные практики правительств и технологических компаний). 

Комментарии

Популярные сообщения