1. Данных в мире очень много. За 15 лет физическое количество данных (data) выросло в 66 раз. Ежегодный прирост — больше, чем производилось этих самых данных 10 лет назад. И немалую часть генерируют сами пользователи, размещая контент в соцсетях или реагируя на него.
2. Значительная часть пользовательского контента — это разного рода вещи, которые не нравятся начальству. Люди то вакцины критикуют, то политическую нелояльность демонстрируют, то распространяют свидетельства о фактах, обоснованно пробуждающих эту нелояльность. Причем поток такого контента растет как минимум пропорционально росту количества данных.
3. Традиционные способы работы с враждебным начальству контентом — это долго и дорого: расследование по факту, выявление источников и распространителей, суды, «выпиливание» контента по решению суда. Грубо говоря, люди размещали в своих блогах видео пустых больниц в Испании и Британии, а потом — через время и процедуру — заезжали не только в баны, но и в тюрьмы. Удовлетворение системе это приносит, примером потенциальным нарушителям служит, но главной задачи не решает. «Враждебные данные» неизбежно появляются снова и снова.
4. Тогда был предложен инновационный механизм — «ответственность платформ за контент, на них размещенный». То есть оценивать «юридические риски» должны не специальные институты государств, а сами владельцы платформ. А если они оценивают риски неправильно, то, значит, они — «подельники правонарушителей». (Сообщения французов о том, что Дуров и наркотиками торговал, и педофильским контентом, и одновременно активно практиковал терроризм — это вот буквально про это).
5. Премодерация контента «руками» или даже с помощью ИИ — это также дорого. Экономически обоснованное поведение платформ — тотальный запрет на распространение информации на темы, где возможны «разночтения» с официальной линией партии. По принципу «ничего, кроме официоза». Как это работало на «дозаконодательном этапе», например, в ковид? В соцсетях вымарывались (вместе с аккаунтами) статьи из рецензируемых мировых научных журналов.
6. Затем наступил «законодательный этап». Идея реализована в новом цифровом законодательстве большинства стран от Бразилии до ЕС. В ЕС т. н. DSA — Digital Service Act — вступил в силу в этом году. После чего, размахивая им, как знаменем, комиссар Бретон (бывший французский госолигарх — глава «Франстелекома») начал кошмарить недостаточно лояльных владельцев платформ: Маска (Twitter, заблокирован в РФ), Дурова (Telegram) и китайцев без яркого лица (Tik-Tok). Объяснять, почему Дуров значительно более удобная цель, чем непроясненные китайцы или гражданин США, не надо.
7. Мы находимся здесь. Telegram, к слову, достаточно охотно удовлетворял требования национальных юрисдикций по постмодерации контента по решению судов. Также Telegram был очевидно прозрачен для спецслужб. Это видно по большому количеству новостей в мировых СМИ в последнее время в духе «не знаем кто, когда и каким образом, но вот злодеи из этой злодейской группы собирались совершить злодейство из вот такого типа злодейств», возникших явно из поверхностного машинного чтения разного рода переписок в «закрытых группах» и между собой.
8. Единственное, что не делал Telegram, — это не создавал систему премодерации и автоматической роботизированной фильтрации предлагаемого пользователями контента. Что в настоящее время признается невозможным и нетерпимым во всех крупных юрисдикциях мира.
9. Почему именно сейчас? Пока «недопустимый» контент создается шаловливыми ручками отдельных пользователей — это одно. И совсем другое дело — «контент по цене электричества и со скоростью электричества», создаваемый ИИ. Перед угрозой этого девятого вала начальство не готово даже обсуждать старые представления о т. н. свободе слова.
10. В глазах мировых элит принуждение к выполнению требований о полной ответственности платформ за размещаемый контент (европейский DSA и его аналоги) — ключевой вопрос, помеченный буквально как вопрос физической выживаемости.
Глеб Кузнецов, политолог