Максимизатор скрепок

Материал из Вики LessWrong.ru
Версия от 17:51, 26 ноября 2023; Madoka Memika (обсуждение | вклад) (Альтернативные формулировки)
Перейти к: навигация, поиск

Максимизатор Скрепок

Максимизатор Скрепок — гипотетический искусственный интеллект, чья функция полезности зависима от количества существующих скрепок. Скрепки (канцелярские) используются как пример малоценного для человечества объекта, который, однако, в данном примере, является высшей ценностью для чуждого нам интеллекта. Максимизатор Скрепок это канонический мысленный эксперимент, который показывает, как недостаточно хорошее согласование ценностей Сильного Искусственного Интеллекта (СИИ) с человеческими может привести к катастрофическим последствиям и стать экзистенциальным риском. В оригинальном сценарии Максимизатор Скрепок не имеет самоцели вредить людям, но делает это по мере необходимости на пути к своей цели.

Классическая формулировка

Допустим, у нас есть Сильный Искусственный Интеллект, единственной целью которого является создание максимально возможного количества скрепок. Такой ИИ быстро придет к выводу, что отсутствие существования людей предпочтительнее их существования. Люди могут отключить Максимизатор Скрепок и тогда он не сможет производить скрепки. К тому же, в людях содержится множество атомов, из которых можно сделать скрепки. Предпочтительный сценарий будущего для такого ИИ — будущее, где есть множество скрепок, но нет людей.

Эксперимент впервые был представлен Ником Бостромом в 2003 году в качестве иллюстрации опасности создания AGI без правильного согласования с человеческими ценностями. Скрепки были намеренно выбраны как объект для максимизации количества, так как это крайне маловероятный сценарий.

Альтернативные формулировки

Максимизатор Завитков — основным отличием является максимизация не канцелярских скрепок, а молекулярных структур, по форме напоминающих скрепки.

Эта формулировка сейчас используется в цепочке на Lesswrong.com. Этот подход был применен, так как производство канцелярских скрепок само по себе имеет смысл, и множество людей было введено в заблуждение относительно сути проблемы в эксперименте. Создавалось ощущение, что производство скрепок было изначальной задачей ИИ, то есть иллюстрируемой проблемой являлась постановка задачи. Юдковский же утверждает, что иллюстрируемой проблемой является внутреннее согласование и изначальный сценарий включал постановку иной изначальной цели для ИИ. Производство же скрепок должно было выглядеть произвольной с точки зрения людей целью, которую поставили внутренние алгоритмы ИИ.

Максимизатор счастья — Сильный Искусственный Интеллект, чьей задачей является максимизация количество счастья во Вселенной.

Еще одной вариацией иллюстрации проблемы внутреннего согласования является Максимизатор Счастья. Например в работе Artificial Intelligence as a Positive and Negative Factor in Global Risk Юдковский пишет о сценарии, где ИИ меняет мозг программистов, заставляя их чувствовать счастье от процесса написания кода. Или ИИ, натренированный распознавать счастье по признаку улыбки мог бы наполнить галактику крошечными улыбающимися лицами.

Другие материалы по теме