В недавнем интервью Кристофер Нолан — главный режиссер становящегося на глазах культовым фильма «Оппенгеймер» — сказал, что видит «очень сильные параллели» между Оппенгеймером и учеными, обеспокоенными ИИ.
Напомню, что уже в конце 1947 года Оппенгеймер начал бить в набат, призывая к общемировому контролю над атомной энергией. А когда после войны, будучи советником Комиссии по атомной энергии, ответственной за ядерные исследования в США, Оппенгеймер выступил против разработки водородной бомбы, его сочли неблагонадежным и лишили допуска к секретной информации, а вместе с этим — возможности заниматься ядерными исследованиями.
В наше время один из «отцов-основателей» технологий ИИ Джеффри Хинтон сам принял решение уйти с заслуженно высокой исследовательской позиции в Google, чтобы открыто говорить о рисках ИИ без оглядок на своих работодателей.
Другой «отец-основатель» — Ричад Саттон — решил так же открыто обратиться к человечеству, не уходя с высшего научно-исследовательского поста в Google DeepMind. В своем 17-минутном обращении «ИИ-наследники», прозвучавшем на World Artificial Intelligence Conference 2023 в Шанхае, Саттон говорит о следующем.
Такой план — The Alberta Plan — разработан под руководством Саттона в Alberta Machine Intelligence Institute DeepMind Alberta.
Ну а пока «отцы-основатели» пытаются достучаться до общества, все идет по накатанной и никто особо не заморачивается. Ведь в наше время, чтобы «отцы-основатели» не мешались под ногами, уже не нужно объявлять их, как Оппенгеймера, неблагонадежными. Достаточно иронично-сочувствующих замечаний в масс-медиа — мол, старость никого не щадит, даже «отцов-основателей».
Только вряд ли про нас наши наследники фильм типа «Оппенгеймер» снимут…
Сергей Карелов, IT-эксперт, автор Telegram-канала «Малоизвестное интересное»