Началось ИИ-сдерживание

Технологии

Не знаю, замечали ли вы шумиху, которая поднялась последнее время вокруг искусственного интеллекта? Дошло до абсурда. На Финнополисе мэр Москвы Сергей Собянин предположил, что тех, кто будет развивать ИИ, могут разбомбить так же, как это было с Ираком, решившим развивать ядерные вооружения. Собянину вторил Герман Греф, который рассказал, что когда зашла речь о создании в мире единых правил регулирования ИИ и обучения моделей, то было предложено разбомбить ЦОДы тех стран и компаний, которые не будут соблюдать принятые правила.

Хорошо, что у меня нет допуска для участия в таких совещаниях, а то я бы не знал, как жить дальше после таких новостей, которые на тебя постоянно сыпятся как из рога изобилия!

Но то, что сейчас, действительно, началась некоторая гонка запрета ИИ, это факт. Все боятся появления Скайнет из «Терминатора» и пытаются загнать его обратно, как джинна в бутылку и все беды в ящик Пандорры. Но тут впору вспоминать вышедший в этом году фильм «Оппенгеймер» и историю, на которой он базируется. Хотели как лучше, а получилось как всегда. То, что сначала изучалось в сугубо научных целях очень быстро нашло свое применение в военном деле и там же и опробовано. И все заявления ученых «Ну я же не знал», можно засунуть в жопу. Джин из бутылки был выпущен. Да, потом началось ядерное сдерживание и в клуб держав с большой бомбой решили пускали не всех, а только избранных. Вот и с ИИ, как мне кажется, сейчас происходит тоже самое. Попробую свести воедино все, что было сделано с начала осени в этом направлении.

Президент США подписал 30 октября Указ о надежном, безопасном и доверенном развитии и использовании искусственного интеллекта, который положил начало очень активной работе в этой области не только в самих США; за ними потянулись и все американские сателлиты. Например, австралийский центр кибербезопасности ACSC завел у себя на сайте целый раздел по безопасности искусственного интеллекта. Аналогичные страницы появились и у других партнеров США. Сам же Указ Байдена определяет лидирующую роль США в области ИИ во всем мире.При этом разработчики ИИ должны будут делиться с американским правительством результатами своих испытаний. Самое интересное, что Указ обязывает военных и разведку этично и безопасно использовать ИИ. Ага, щаз 🙂

В России тем временем решили обновить национальную стратегию по развитию искусственного интеллекта, принятую в 2019-м году. В ближайшее время Президент должен подписать соответствующий Указ.

Американские АНБ и CISA вместе с английским NCSC и двумя десятками партнеров из Японии, Израиля, Польши, Южной Кореи, Сингапура и т.п. в конце ноября выпустили краткое руководство «Guidelines for Secure AI System Development«, в котором даются базовые рекомендации по защите на 4-х этапах жизненного цикла искусственного интеллекта — проектировании, разработке, внедрении и эксплуатации и поддержке. Как по мне, так ооочень высокоуровневый документ получился. По сути они взяли обычные рекомендации по ИБ информационных систем и заменили там все на ИИ/модели/датасеты. А вот список литературы и источников там достаточно неплохой.

Руководство по разработку безопасных ИИ-систем
Руководство по разработку безопасных ИИ-систем

Вслед за АНБ и CISA, американский институт по стандартизации NIST запустил целую серию активностей вокруг безопасного и доверенного ИИ. Например, он руководит только что созданным институтом AI Safety Institute (англичане тоже заявили о создании института безопасности ИИ) и хочет создать консорциум по надежному ИИ. Еще раньше NIST создал центр Trustworthy & Responsible AI Resource Center, на сайте которого уже выложено немало полезных материалов, среди которых фреймворк по управлению рисками ИИ, соответствующий плейбук и словарь.

Главное, чтобы CISA и NIST не начали конкурировать между собой. А то у них обоих появились свои собственные дорожные карты по развитию безопасного и надежного ИИ (дорожная карта CISA и NIST).

А вот США и Великобритания явно конкурируют между собой за лидерство. Они почти одновременно говорят схожие вещи и анонсируют схожие инициативы. Но есть, конечно, и отличия. Например, в конце октября Правительство Великобритании выпустило обзор рисков применения генеративных ИИ до 2025-го года.

Риски генеративных моделей ИИ
Риски генеративных моделей ИИ

Авторы этого отчета считают, что генеративный ИИ усилит риски физической и информационной безопасности, а также скорость, масштаб и изощренность атак. При этом правительства не будут иметь представления о том, как развивается ИИ в частном секторе, и как можно управлять рисками такого неконтролируемого развития (OpenAI, привет). А это, в свою очередь, породит новые и непредвиденные риски.

Интересно, что никто не оценивает применение ИИ по ту сторону баррикад, плохими парнями. Не недружественными государствами, а именно киберкриминалом. Они вообще ничем не сдерживают свое развитие и об их инициативах часто вообще ничего не известно.

Институт ООН по исследованию проблем разоружения (UNIDIR) выпустил отчет «AI and International Security«, который предлагает таксономию рисков искусственного интеллекта в контексте международного мира и безопасности. Предполагается, что этот отчет может стать точкой отсчета для дискуссий о мерах доверия к ИИ. Риски описаны достаточно высокоуровневые:

  • принятие решений о применении силы или ухудшение международных отношений вследствие использования ИИ
  • преднамеренная или непреднамеренная эскалация конфликта в результате использования ИИ
  • неправильное использование ИИ для распространения нового оружия, включая оружие массового поражения.
Отчет UNIDIR по рискам искусственного интеллекта
Отчет UNIDIR по рискам искусственного интеллекта

При этом ООН анонсировала 27-го октября создание нового консультативного совета по ИИ. А уже 29 октября страны G7 согласовали в Хиросиме кодекс поведения для компаний-разработчиков ИИ, который должен ограничить враждебное развитие ИИ. Развитие данного кодекса нашло свое отражение в декларации, которую подписали 1-2 ноября в Блетчли-парке (Великобритания) на AI Safety Summit почти 28 стран и Евросоюз. Они договорились внимательно следить, наблюдать, оценивать и бла-бла-бла. Ничего конкретного, но решили вновь собраться в 2024-м году. В обоих документах есть списки (очень похожие) рисков ИИ, а также мысль о международном сотрудничестве в этом вопросе, разработке соответствующих методологий и инструментов (американцы в этом вопросе ушли уже чуть дальше).

Кстати, англичане перед своим саммитом выпустили ряд документов, среди которых не только упомянутый выше обзор рисков генеративного ИИ до 2025 года, но и отчет о возможностях и рисках, связанных с использованием передовых моделей ИИ, включая ключевые риски и неопределенности в развитии наиболее совершенных моделей искусственного интеллекта, а также некоторые потенциальные сценарии развития ИИ до 2030 года.

Будущие риски ИИ
Будущие риски ИИ

Смотря на все эти инициативы, запущенные чуть ли не в один день, я задаюсь одним вопросом — это им всем так кто-то одновременно приказал выпустить все эти указы, меморандумы и т.п. или они просто пытаются занять пальму первенства в столь важном вопросе?

Конфедерация европейских организаций по защите данных (CEDPO) в конце октября опубликовала документ «Генеративный искусственный интеллект: последствия для защиты персональных данных«, который содержит рекомендации по различным последствиям использования генеративных моделей искусственного интеллекта при обработке персональных данных и методам, которые могут применяться для соблюдения прав на защиту своей приватности.

Руководство по применению генеративного ИИ при работе с персональными данными
Руководство по применению генеративного ИИ при работе с персональными данными

А что Китай?

Регулирование ИИ стало темой недавних переговоров Китая и США, которые закончились… разнонаправленно. Американцы написали, что два лидера сверхдержав договорились о сдерживании рисков ИИ. Китайская пресса была более сдержанной. И связано это с тем, что разные регуляторы Поднебесной имеют свою точку зрения на данную тему и единой политики у Китая пока в этой области нет — только общие слова. А самое главное, что у Китая и США совершенно разные культуры и моральные ценности, а значит они вряд ли договорятся о едином пути развития ИИ и озвучиваемые опасения США о создании в крупнейшем государстве Азии роботов-убийц не найдут своего решения.

Ну и чтобы заметка была совсем уж полной, не могу не привести ссылку на отчет американской Комиссии национальной безопасности по искусственному интеллекту. 750 (!) страниц о том, как может использоваться ИИ в и против национальной безопасности и что с этим делать. Документ был написан в 2021-м году и лег в основу многих решений, которые позже США стали предпринимать в этом направлении, включая и те, что были описаны выше.

Комиссия по национальной безопасности об ИИ
Комиссия по национальной безопасности об ИИ

Интересно, какой ответ готовит Россия на все эти ограничения и сдерживания? Очевидно же, что в какой-то момент времени России может быть ограничен доступ к последним исследованиям и ресурсам в области искусственного интеллекта.

И вновь обращу внимание на то, что киберкриминал не скован никакими меморандумами и декларациями и будет развивать и использовать ИИ так, как ему удобно. И это тоже предстоит еще оценить.

Оцените статью
Бизнес без опасности
Есть что добавить? Добавьте!

Нажимая кнопку "Отправить", я даю свое согласие на обработку персональных данных (если вдруг они указаны в комментарии) в соответствие с политикой конфиденциальности. Также я соглашаюсь с тем, что в своем комментарии не раскрываю никаких сведений, составляющих государственную тайну, а также никакой иной информации, охраняемой законом (для этого используйте иные способы :-) ), если это не разрешено ее владельцем. Ваш комментарий может появиться не сразу, а после модерации (так бывает не всегда, но бывает).

  1. Павел

    Есть мнение, что то, что все кинулись называть ИИ, на самом деле им не является. Пока что мы видим генеративные модели и экспертные системы, ну и развлекаловку в виде голосовых ассистентов. Безусловно, все эти инструменты очень даже создают новые риски ИБ, но не глобальные. Мелковатые риски для такого ажиотажа. И пока что не наблюдается предпосылок для какого-то качественного рывка ИИ. Количественный рост весьма бурный, да. Так что или нам не все рассказывают, и где-то в недрах секретных лабораторий уже есть совсем иной ИИ, чем мы все видели, или это временный хайп, который уляжется, и будет как с криптовалютами. Ну они теперь есть, и всё на этом.

    Ответить
    1. Алексей Лукацкий автор

      Специалист на то и специалист, чтобы экстраполировать и предвидеть. Если хотя бы половина того, что может ИИ по словам тех, кто этим занимается, правда, то это будущая угроза. А внедрение ИИ в беспилотники — это уже сегодняшний день и тоже угроза

      Ответить
      1. Павел

        Очень хороший пример с беспилотниками. Раньше они наводились по gps, и еще всяким сигналам. Теперь им добавили нейросети, видимо, для распознавания образов и облегчения наведения. Плюс один метод, отлично. Но причем тут интеллект? Он же не думает. Инструмент — да. Риски и угрозы — да. Интеллект — нет.

        Ответить
        1. Алексей Лукацкий автор

          Сейчас именно ИИ принимает решение об атаке, а не человек за пультом. Связано это как-то с интеллектом? Не знаю. Появились ли совсем новые риски? Безусловно

          Ответить