Posted 24 мая 2023, 11:11

Published 24 мая 2023, 11:11

Modified 1 февраля, 20:10

Updated 1 февраля, 20:10

Telegram-канал «Малоизвестное интересное». Шансы человечества притормозить и подумать тают

24 мая 2023, 11:11

Ряд ведущих компаний в области ИИ, включая OpenAI, Google DeepMind и Anthropic, поставили перед собой цель создать искусственный общий интеллект (AGI) — системы ИИ, которые достигают или превосходят человеческие возможности в широком диапазоне когнитивных задач.

Преследуя эту цель, разработчики могут создать интеллектуальные системы, внедрение которых повлечет значительные и даже катастрофические риски. Поэтому по всему миру сейчас идет бурное обсуждение способов снижения рисков разработки AGI.

По мнению экспертов, существует около 50 способов снижения таких рисков. Понятно, что применить все 50 в мировом масштабе нереально. Нужно выбрать несколько главных и сфокусироваться на них. По сути, от того, какие из способов будут признаны приоритетными, зависит будущее человечества.

Только что вышедший отчет Centre for the Governance of AI анализирует мнения специалистов 51-й ведущей команды среди мировых разработчиков AGI на предмет выяснения:
— какие из 50 способов снижения ИИ-рисков они для себя считают более приоритетными, а какие — менее;
— какие из способов снижения ИИ-рисков большинство разработчиков готовы применять, а какие большинству разработчиков не нравятся (вследствие чего рассчитывать на успех этих способов снижения риска вряд ли стоит).

Итог опроса таков: менее всего разработчики хотят координировать свои действия (делясь информацией о том, что собираются делать, а не как сейчас — что уже сделали) с правительством и между собой.

Именно эти способы снижения ИИ-рисков двое из «крестных отцов ИИ» Йошуа Бенжио и Джеффри Хинтон считают ключевыми в создавшейся ситуации.

А саму ситуацию, ИМХО, точнее всего описал Джек Кларк, первым нажавший в январе 2023 кнопку тревоги на слушаниях по ИИ в Конгрессе США: «Лошади уже сбежали, а мы спорим, как укреплять ворота конюшни».

В русском языке для подобных ситуаций есть другая пословица, использованная мною в конце прошлого года. Тогда я написал, что риски ИИ материализуются на наших глазах, и через год будет уже поздно пить Боржоми.

Подпишитесь