36
правок
Изменения
м
→Связь с другими концепциями
{{LwComWikiLink|Squiggle Maximizer Formerly Paperclip Maximizer}}
'''Максимизатор Скрепок''' — гипотетический искусственный интеллект, чья [[Функция полезности|функция полезности]] зависима от количества существующих скрепок. Скрепки (канцелярские) используются как пример малоценного для человечества объекта, который, однако, в данном примере, является высшей ценностью для чуждого нам интеллекта. Максимизатор Скрепок это канонический мысленный эксперимент, который показывает, как недостаточно хорошее согласование ценностей Сильного Искусственного Интеллекта (СИИ) с человеческими может привести к катастрофическим последствиям и стать экзистенциальным риском. В оригинальном сценарии Максимизатор Скрепок не имеет самоцели вредить людям, но делает это по мере необходимости на пути к своей цели.
Эксперимент впервые был представлен Ником Бостромом в 2003 году в качестве иллюстрации опасности создания AGI без правильного согласования с человеческими ценностями. Скрепки были намеренно выбраны как объект для максимизации количества, так как это крайне маловероятный сценарий.
==Связь с другими концепциями==
'''Скрепки''' - часто используется в контексте согласования ИИ как условное обозначение чего-то малоценного и бесполезного для людей.
[[Тезис ортогональности|'''Тезис Ортогональности''']] утверждает, что в существовании разумного [[Агент|агента]], преследующего какую-либо цель, нет ничего невозможного и единственной сложностью в его создании является количество ресурсов, требующихся для этого. Поэтому вероятность появления Сильного Искусственного Интеллекта с ценностями, чуждыми человеческим реальна. При этом, кажущееся интуитивно верным утверждение о том, что кто-то настолько "умный" не может ставить своей целью что-то настолько "глупое" как создание скрепок. Однако Ник Бостром пишет, что "почти любой уровень интеллекта совместим с почти любыми конечными целями", следовательно, у СИИ могут быть самые разнообразные цели, включая "глупые".
Тезис '''[[Инструментальная Конвергенция|Инструментальной Конвергенции]]''' же гласит, что даже если цели у Сильных Интеллектов могут радикально различаться, одинаковые инструментальные причины породят множество похожих промежуточных целей. В отношении Максимизатор Скрепок это значит, что он, являясь СИИ, будет стараться взять под контроль окружающую материю и пространство, а также предотвращать свое отключение, что схоже со многими другими сценариями, включающими СИИ.
==Альтернативные формулировки==
'''Максимизатор ЗавитковЗагогулин''' — основным отличием является максимизация не канцелярских скрепок, а молекулярных структур, по форме напоминающих скрепки.
Эта формулировка сейчас используется в цепочке на Lesswrong.com. Этот подход был применен, так как производство канцелярских скрепок само по себе имеет смысл, и множество людей было введено в заблуждение относительно сути проблемы в эксперименте. Создавалось ощущение, что производство скрепок было изначальной задачей ИИ, то есть иллюстрируемой проблемой являлась постановка задачи. [[Юдковский, Элиезер|Юдковский]] же утверждает, что иллюстрируемой проблемой является внутреннее согласование и изначальный сценарий включал постановку иной изначальной цели для ИИ. Производство же скрепок должно было выглядеть произвольной с точки зрения людей целью, которую поставили внутренние алгоритмы ИИ. Молекулярные структуры, по форме напоминающие скрепки были выбраны новой формулировкой так как они больше интуитивно похожи на [[конвергентная бесполезность|конвергентно-бесполезную]] вещь.
'''Максимизатор счастья''' — Сильный Искусственный Интеллект, чьей задачей является максимизация количество счастья во Вселенной.
Еще одной вариацией иллюстрации проблемы внутреннего согласования является Максимизатор Счастья. Например в работе [https://intelligence.org/files/AIPosNegFactor.pdf Artificial Intelligence as a Positive and Negative Factor in Global Risk] [[Юдковский,_Элиезер|Юдковский]] пишет о сценарии, где ИИ меняет мозг программистов, заставляя их чувствовать счастье от процесса написания кода. Или ИИ, натренированный распознавать счастье по признаку улыбки мог бы [https://www.lesswrong.com/posts/PoDAyQMWEXBBBEJ5P/magical-categories наполнить галактику крошечными улыбающимися лицами].
'''Катастрофа Гипотезы Римана''' - ИИ, созданный для решения Гипотезы Римана может попытаться захватить все ресурсы Земли для производства суперкомпьютеров, которые могли бы выполнить возложенную на него задачу.
==Другие материалы по теме==
* [https://www.lesswrong.com/tag/squiggle-maximizer-formerly-paperclip-maximizer Максимизатор ЗавитковЗагогулин] - цепочка на Lesswrong.com
* [[Безопасность искусственного интеллекта]]
* [https://arbital.com/p/paperclip/ Скрепки] - статья на Arbital.com
* [https://ru.wikipedia.org/wiki/Инструментальная_сходимость Инструментальная сходимость] - статья в Википедии
* [https://educ.wikireading.ru/hCl7qYdvhn Инструментальная конвергенция] - глава книги Ника Бострома "Искусственный интеллект [Этапы. Угрозы. Стратегии]" об Инструментальной Конвергенции (Сходимости)
* [[Тезис ортогональности|Тезис Ортогональности]]
* [[Инструментальная Конвергенция]]
* [[Минимизаторы Скрепок]] - название отсылает к Максимизатору скрепок
[[Категория:AI Safety]]
[[Категория:Понятия]]