Изменения

Перейти к: навигация, поиск

Максимизатор скрепок

6349 байт добавлено, 17:49, 26 ноября 2023
Новая страница: « ==Максимизатор Скрепок== '''Максимизатор Скрепок''' — гипотетический искусственный интел…»

==Максимизатор Скрепок==

'''Максимизатор Скрепок''' — гипотетический искусственный интеллект, чья [[Функция полезности|функция полезности]] зависима от количества существующих скрепок. Скрепки (канцелярские) используются как пример малоценного для человечества объекта, который, однако, в данном примере, является высшей ценностью для чуждого нам интеллекта. Максимизатор Скрепок это канонический мысленный эксперимент, который показывает, как недостаточно хорошее согласование ценностей Сильного Искусственного Интеллекта (СИИ) с человеческими может привести к катастрофическим последствиям и стать экзистенциальным риском. В оригинальном сценарии Максимизатор Скрепок не имеет самоцели вредить людям, но делает это по мере необходимости на пути к своей цели.

==Классическая формулировка==

Допустим, у нас есть Сильный Искусственный Интеллект, единственной целью которого является создание максимально возможного количества скрепок. Такой ИИ быстро придет к выводу, что отсутствие существования людей предпочтительнее их существования. Люди могут отключить Максимизатор Скрепок и тогда он не сможет производить скрепки. К тому же, в людях содержится множество атомов, из которых можно сделать скрепки. Предпочтительный сценарий будущего для такого ИИ — будущее, где есть множество скрепок, но нет людей.

Эксперимент впервые был представлен Ником Бостромом в 2003 году в качестве иллюстрации опасности создания AGI без правильного согласования с человеческими ценностями. Скрепки были намеренно выбраны как объект для максимизации количества, так как это крайне маловероятный сценарий.

==Альтернативные формулировки==

'''Максимизатор Завитков''' — основным отличием является максимизация не канцелярских скрепок, а молекулярных структур, по форме напоминающих скрепки.

Эта формулировка сейчас используется в цепочке на Lesswrong.com. Этот подход был применен, так как производство канцелярских скрепок само по себе имеет смысл, и множество людей было введено в заблуждение относительно сути проблемы в эксперименте. Создавалось ощущение, что производство скрепок было изначальной задачей ИИ, то есть иллюстрируемой проблемой являлась постановка задачи. [[Юдковский, Элиезер|Юдковский]] же утверждает, что иллюстрируемой проблемой является внутреннее согласование и изначальный сценарий включал постановку иной изначальной цели для ИИ. Производство же скрепок должно было выглядеть произвольной с точки зрения людей целью, которую поставили внутренние алгоритмы ИИ.

'''Максимизатор счастья''' — Сильный Искусственный Интеллект, чьей задачей является максимизация количество счастья во Вселенной.

Еще одной вариацией Например в работе [https://intelligence.org/files/AIPosNegFactor.pdf Artificial Intelligence as a Positive and Negative Factor in Global Risk] [[Юдковский,_Элиезер|Юдковский]] пишет о сценарии, где ИИ меняет мозг программистов, заставляя их чувствовать счастье от процесса написания кода. Или ИИ, натренированный распознавать счастье по признаку улыбки мог бы [https://www.lesswrong.com/posts/PoDAyQMWEXBBBEJ5P/magical-categories наполнить галактику крошечными улыбающимися лицами].

==Другие материалы по теме==

* [https://www.lesswrong.com/tag/squiggle-maximizer-formerly-paperclip-maximizer Максимизатор Завитков] - цепочка на Lesswrong.com
* [[Безопасность искусственного интеллекта]]
* [https://ru.wikipedia.org/wiki/Инструментальная_сходимость Инструментальная сходимость] - статья в Википедии
* [https://educ.wikireading.ru/hCl7qYdvhn Инструментальная конвергенция] - глава книги Ника Бострома "Искусственный интеллект [Этапы. Угрозы. Стратегии]" об Инструментальной Конвергенции (Сходимости)
36
правок

Навигация