Posted 28 мая, 07:00
Published 28 мая, 07:00
Modified 28 мая, 07:00
Updated 28 мая, 07:00
Еще 70 лет назад единичные утечки секретных военных материалов содержали карты военных объектов и чертежи новых вооружений противника.
10 лет назад, с приходом эпохи интернета, утечки стали массовыми и включали в себя широкий спектр документов (погуглите, например, «Иракское досье» — 292 тыс. документов).
В 2020-х интеграция ИИ в военный потенциал стала нормой для крупных держав по всему миру. И потому утечки секретных военных материалов кардинально поменяли свой характер. Теперь наиболее ценные утечки содержат не документы, а наборы данных для обучения ИИ.
Вот новейший характерный пример — утекший в сеть китайский относительно небольшой набор данных «Чжоусидун» (переводится как «Щит Зевса» или «Эгида» — мифическая могущественная сила, обладающая волшебными защитными свойствами).
Набор содержит «608 камерных и спутниковых фото американских эсминцев класса Arleigh Burke, а также других эсминцев и фрегатов союзников США» с ограничивающими рамками, нарисованными вокруг «радарных систем кораблей, являющихся частью боевой системы Aegis… Ограничивающие рамки нарисованы вокруг радаров SPY на надстройке, один на левом борту и один на правом борту, а также вокруг вертикальных пусковых установок, расположенных ближе к носу и корме корабля».
Это цитаты из только что опубликованной совместной работы исследователей Berkeley Risk and Security Lab и Berkeley AI Research Lab, озаглавленной Open-Source Assessments of AI Capabilities: The Proliferation of AI Analysis Tools, Replicating Competitor Models, and the Zhousidun Dataset. Авторы исследования обучили на этом наборе модель YOLOv8, а затем проверили ее успешность при идентификации радиолокационных изображений на кораблях для задачи нацеливания на них.
И хотя этот набор мал, проведенное исследование показывает, что обучать даже относительно небольшую открытую модель выявлять цели, а потом супер точно наводить на них средства уничтожения — хорошо решаемая практическая задача.
Военным же в таком случае можно будет целиком положиться на ИИ, который и цель выберет сам, и наведет на нее ракету.
Если же выбор цели окажется ошибочным — ничего страшного. Значит, ИИ просто плохо учили — и надо переучить. Ведь и с людьми такое случается.
Короче, жуть.
Сергей Карелов, IT-эксперт, автор Telegram-канала «Малоизвестное интересное»