Разделы

Цифровизация Инфраструктура

В США предлагают не дать развиваться ИИ в других странах, физически уничтожая чужие ЦОДы и устраивая диверсии

Экс-глава Google и двое других экспертов по искусственному интеллекту считают, что США следует отказаться от агрессивного «Манхэттенского проекта в сфере сильного ИИ», предполагающего американскую монополию в данной сфере – это может спровоцировать Китай. Вместо этого, североамериканской стране следует выбрать взвешенный подход к разработке такого ИИ с акцентом на оборону. Эксперты предлагают выстроить систему сдерживания, которая позволит затормозить развитие ИИ соперниками, в том числе за счет угрозы кибератак, диверсий и нанесение военных ударов по инфраструктуре.

Статья экс-главы Google

Группа американских экспертов разместила в публичном доступе статью под названием «Стратегия суперинтеллекта» (“Superintelligence Strategy”), в которой говорится, что агрессивное стремление США взять под свой исключительный контроль «суперинтеллектуальные» системы может спровоцировать ожесточенную ответную реакцию со стороны Китая, потенциально в форме кибератаки, которая способна дестабилизировать международные отношения.

Авторами работы являются три фигуры, считающиеся весьма авторитетными в американской ИИ-отрасли – бывший генеральный директор Google Эрик Шмидт (Eric Schmidt), действующий глава Scale AI Александр Ван (Alexandr Wang) и директор НКО Center for AI Safety («Центр безопасности ИИ») Дэн Хендрикс (Dan Hendrycks).

Работа является своего рода ответом на инициативу по финансированию создания в США систем сильного искусственного интеллекта общего назначения (Artificial General Intelligence; AGI) в духе Манхэттенского проекта, которая была выдвинута комитетом Конгресса США по экономическим отношениям с Китаем (USCC) в ноябре 2024 г.

«Манхэттенский проект [для AGI] предполагает, что соперники скорее смирятся с устойчивым дисбалансом или угрозой полного уничтожения, чем предпримут меры по его предотвращению, – говорится в статье. – То, что начинается как стремление к супероружию и глобальному контролю, рискует спровоцировать враждебные контрмеры и эскалацию напряженности, тем самым подрывая ту самую стабильность, которую стратегия якобы должна обеспечивать».

Экс-глава Google выступил против инициативы Конгресса США по запуску «Манхэттенского проекта для AGI»

К AGI могут относиться системы, которые способны мыслить и действовать как человек или даже превосходить его по когнитивным способностям, и подходящие для решения широчайшего круга задач.

Манхэттенский проект (Manhattan Project) – программа по разработке первых образцов ядерного оружия, которую США в сотрудничестве с Великобританией и Канадой реализовывали в период с 1942 по 1947 гг. В ходе проекта было создано три атомные бомбы, две из которых были применены вооруженными силами США над территорией милитаристской Японии в конце Второй мировой войны. Всего в проекте приняло участие около 130 тыс. человек. Расходы на него составили примерно $2 млрд (с учетом инфляции на 2023 г. – около $27 млрд).

Стратегия сдерживания

Шмидт и соавторы работы подвергают критике идею, которую в последнее время транслируют в публичное пространство видные представители ИИ-отрасли США и некоторые американские политики. Она предполагает государственную поддержку ИИ-компаний из США в гонке по созданию систем AGI и рассматривает это в качестве оптимальной стратегии конкуренции с Китаем.

По мнению Шмидта, Вана и Хендрикса, США следует проявлять осторожность в своем стремлении занять доминирующее положение в сфере «сверхинтеллектуальных» систем. Чрезмерное рвение может спровоцировать «превентивный удар» со стороны противника, которого США в первую очередь видят в Китае.

В своей работе эксперты предлагают новую концепцию гарантированного взаимного выхода из строя ИИ (Mutual Assured AI Malfunction; MAIM), применений которой подобно военной доктрине взаимного гарантированного уничтожения (Mutually Assured Destruction; MAD), якобы способствует сдерживанию противника. Предложенная концепция предполагает применение властями сверхдержав проактивных мер по уничтожению вызывающих их опасение проектов, не дожидаясь, пока противник доведет итоговый продукт до состояния, в котором его можно будет использовать в качестве оружия.

Шмидт, Ван и Хендрикс считают, что США следует отказаться от стремления одержать победу в ИИ-гонке в пользу разработки методов, которые позволят обеспечить сдерживание других значимых глобальных акторов, желающих добиться превосходства в этой сфере. Среди решительных мер, которые могут быть приняты в рамках реализации стратегия сдерживания – расширение арсенала кибератак, нацеленных на ИИ-проекты противника, ограничение доступа к передовым ИИ-чипам и открытым моделям и даже нанесение физического ущерба вычислительной инфраструктуре за счет «кинетических ударов» ("kinetic strikes"), под которыми, вероятно, подразумевается атака при помощи ракет, взрывчатки или других видов вооружения. Впрочем, такие удары эксперты рассматривают в качестве крайней меры и считают возникновение необходимости в них маловероятным.

Угроза применения подобных мер при попытке занять доминирующее положение в сфере ИИ позволит поддерживать режим сдерживания в стабильном состоянии, считают авторы работы. Однако для этого все принявшие концепцию MAIM государства должны соблюдать ряд условий. В их числе размещение дата-центров с ИИ-инфраструктурой вдали от густонаселенных территорий и обеспечение их прозрачности для противника, четко сформулированный и согласованный перечень действий, которые будут однозначно трактованы стороной, против которой они были совершены, как попытка эскалации, а также «вклад» каждого такого действия в совокупный уровень напряженности между сторонами конфликта.

Мнение Шмидта изменилось?

Сравнение ИИ с ядерным оружием может показаться несколько притянутым за уши, однако в США, по всей видимости, не склонны недооценивать ценность и опасность новых технологий в этой сфере.

Политика США в отношении КНР в последние годы направлена на сдерживание технологического развития Поднебесной, в частности ВПК. Американские власти считают, что попадание передовых технологий, в частности, ИИ, в руки китайских военных, представляет для США угрозу национальной безопасности.

В январе 2025 г. Пентагон сообщил о том, что уже применяет ИИ-инструменты в своей работе, но машинный интеллект пока еще самостоятельно не убивают людей. ИИ-инструменты дают оборонному ведомству США «значительное преимущество» в идентификации, отслеживании и оценке угроз.

Примечательно, что Шмидт ранее выступал за жесткую конкуренцию США с Китаем в разработке передовых ИИ-систем. В конце января 2025 г. в экспертной статье для газеты Washington Post призвал США нарастить усилия в направлении развития ИИ-моделей с открытым исходным кодом на волне успеха открытой модели r1 китайской компании DeepSeek, который Шмидт назвал «поворотным моментом» в глобальной ИИ-гонке. Экс-глава Google заявил, что США, если планируют опередить Китай, должны выпускать больше открытых моделей, инвестировать в ИИ-инфраструктуру и поощрять открытость ИИ-лабораторий в том, что касается обнародования методологий обучения моделей.

Дмитрий Степанов