Posted 28 мая, 07:00

Published 28 мая, 07:00

Modified 28 мая, 07:00

Updated 28 мая, 07:00

Сергей Карелов: Что содержат утечки секретных военных материалов в эпоху ИИ

28 мая 2024, 07:00
Искусственный интеллект учат убивать.

Еще 70 лет назад единичные утечки секретных военных материалов содержали карты военных объектов и чертежи новых вооружений противника.

10 лет назад, с приходом эпохи интернета, утечки стали массовыми и включали в себя широкий спектр документов (погуглите, например, «Иракское досье» — 292 тыс. документов).

В 2020-х интеграция ИИ в военный потенциал стала нормой для крупных держав по всему миру. И потому утечки секретных военных материалов кардинально поменяли свой характер. Теперь наиболее ценные утечки содержат не документы, а наборы данных для обучения ИИ.

Вот новейший характерный пример — утекший в сеть китайский относительно небольшой набор данных «Чжоусидун» (переводится как «Щит Зевса» или «Эгида» — мифическая могущественная сила, обладающая волшебными защитными свойствами).

Набор содержит «608 камерных и спутниковых фото американских эсминцев класса Arleigh Burke, а также других эсминцев и фрегатов союзников США» с ограничивающими рамками, нарисованными вокруг «радарных систем кораблей, являющихся частью боевой системы Aegis… Ограничивающие рамки нарисованы вокруг радаров SPY на надстройке, один на левом борту и один на правом борту, а также вокруг вертикальных пусковых установок, расположенных ближе к носу и корме корабля».

Это цитаты из только что опубликованной совместной работы исследователей Berkeley Risk and Security Lab и Berkeley AI Research Lab, озаглавленной Open-Source Assessments of AI Capabilities: The Proliferation of AI Analysis Tools, Replicating Competitor Models, and the Zhousidun Dataset. Авторы исследования обучили на этом наборе модель YOLOv8, а затем проверили ее успешность при идентификации радиолокационных изображений на кораблях для задачи нацеливания на них.

И хотя этот набор мал, проведенное исследование показывает, что обучать даже относительно небольшую открытую модель выявлять цели, а потом супер точно наводить на них средства уничтожения — хорошо решаемая практическая задача.

Военным же в таком случае можно будет целиком положиться на ИИ, который и цель выберет сам, и наведет на нее ракету.

Если же выбор цели окажется ошибочным — ничего страшного. Значит, ИИ просто плохо учили — и надо переучить. Ведь и с людьми такое случается.

Короче, жуть.

Сергей Карелов, IT-эксперт, автор Telegram-канала «Малоизвестное интересное»

Подпишитесь