Posted 16 июня 2023, 16:09

Published 16 июня 2023, 16:09

Modified 1 февраля, 20:14

Updated 1 февраля, 20:14

Telegram-канал «Малоизвестное интересное». Путь инфоргов к расчеловечиванию будет коротким

16 июня 2023, 16:09

Убивать людей непросто, даже если в сознание убийц идеология вколотила убеждение, что это их враги. Еще сложнее так изменить сознание людей, чтобы они убивали врагов запросто. Не испытывая при этом отвращения и ужаса от содеянного, а впоследствии — угрызений совести и душевных мук. Наиболее эффективным механизмом для такого изменения сознания является расчеловечивание образа врагов.

Вот пример, релевантный тому, о чем будет дальше рассказано в посте.

В эпизоде сериала «Черное зеркало» «Люди против огня» солдаты воспринимают мир через фильтр, формируемый ИИ в дополненной реальности. В восприятии солдат этот фильтр превращает их противников в чудовищных и отвратительных мутантов, чтобы преодолеть нежелание солдат убивать себе подобных и избавить их от этических и психологических последствий. Фильтр в виде электронного импланта МАСС делает процесс убийств для солдат не сложнее, чем уничтожение тараканов в своей квартире. Ибо в глазах солдат их жертвы — не обычные люди, такие же, как они, а «паразиты» — чудовища, внешне похожие на зомби.

Уровень развития обеих технологий (дополненная реальность и ИИ) уже позволяет делать подобные вещи (пока без имплантов, заменяемых очками, типа VisionPro от Apple). Однако исследователи из Center for Humans and Machines при институте The Max Planck Institute for Human Development даже не стали заморачиваться с очками.

Мне видится логика их исследования так.

  • Первый обязательный шаг к расчеловечиванию — деперсонализация.
  • Исследовать последствия деперсонализации легко и просто на уже массово используемых фильтрах, предлагаемых пользователям соцсетями и платформами видеоконференций.
  • Прежде чем исследовать более сложные фильтры (позволяющие, например, при видеоконференции с начальником парой кликов мышью украсить его ослиными ушами или козлиными рогами), можно поэкспериментировать с самым простым и популярным «фильтром размытия», делающим лицо собеседника на экране размытым до неузнаваемости.
  • Применив «фильтр размытия» для коммуникации разных типов (статическая — типа выбора благотворительной организации и динамическая — диалоговая телеконференция), исследователи определяли, каким образом использование фильтра через изменение восприятия образа других людей влияет на поведение.

Результаты показали, что люди, использующие «фильтр размытия», ведут себя по отношению к людям с размытым образом куда более эгоистично. Т.е. фильтр помогает им проще отказываться от морали за счет обезличивания людей, тем самым меняя социальное и этическое поведение.

Авторы так комментируют полученные результаты: «Начиная исследование, мы уже знали, что деперсонализация может иметь такие неприятные последствия. Однако результаты исследования ценны тем, что мы показали — деперсонализация скоро станет легкой и доступной опцией на многих цифровых платформах и устройствах… Это требует широкой дискуссии в обществе об управлении технологиями дополненной реальности и ИИ, которые изменяют то, какими нам представляются другие люди».

Мне остается лишь добавить:
1. Это первое исследование, практически подтверждающее быструю трансформацию когнитивных гаджетов восприятия у взрослых людей.
2. Подобного типа трансформации когнитивных гаджетов происходят пока далеко не у всех, а лишь у инфоргов (людей, проводящих в онлайне больше времени, чем во сне).
3. Доля инфоргов в обществе будет расти по мере перехода общества к новому типу культуры — алгокогнитивная культура.

Подпишитесь