Просмотр сообщений - Gradient

Просмотр сообщений

В этом разделе можно просмотреть все сообщения, сделанные этим пользователем.


Сообщения - Gradient

Страницы: [1] 2 3 ... 6
1
Достаточно давно работаю над различными ИИ класса "обучение с подкреплением". То есть над "достигателями целей", "машинами результатов".
В теории всё вроде понятно, на практике модели обучаются туго, но вопрос не в этом. Как вообще можно сформулировать задачу для ИИ? Задачу, касающуюся реального мира, вроде "сделай, чтобы у меня на столе был кг золота" или "сделай, чтобы вот этот больной человек стал здоровым".
Ведь ИИ - не человек, с которым можно поговорить. Это система автоматического управления в незнакомой среде.

Вообще, какие есть известные варианты задания цели?
1) Через подкрепление. Мы можем сделать, чтобы ИИ получал сигнал подкрепления и старался делать то, что этот сигнал будет максимизировать. Таким образом можно обучить его достижению любой цели, но он потратит огромную кучу времени, даже чтобы просто выяснить, чего мы от него хотим. И даже если мы будет очень хорошо понимать, за что давать подкрепления, а за что - нет, то всё равно передать ему эту функцию цели - задолбаешься. То есть допустим мы хотим, чтобы ИИ, будучи помещённым в Doom, открыл на карте жёлтую дверь. Каким бы умным он ни был, и как бы ни понимал игру, ему всё равно придётся искать ту комбинацию действий, что приведёт к награде, а потом ещё разбираться, а что конкретно дало награду, потому что в кадре в этот момент много всего было.
2) Явно показать цель. Делаем ИИ, который будет явно просчитывать траекторию, и делаем функцию, которая оценивает предсказанные им кадры. Плюс к том, что мы можем сделать кучу кадров жёлтой двери, открытой и закрытой, и на этих кадрах разметить датасет для предсказания наград. Либо мы даже можем подать ему в качестве цели скриншот с полуоткрытой жёлтой дверью. Тогда ИИ в крайнем случае сможет перебрать траектории "в уме" и найти ту, которая приведёт к открытию этой двери. Без того, чтобы ставить кучу опытов на территории.
3) Сделать некий язык описания целей. ИИ всё так же явно предсказывает свои траектории, но на этот раз оценщик траекторий устроен иначе. Это некая нейросеть, которая по описанию цели и кадру выдаёт сигнал награды. Например, оценщик понимает такие слова, как дверь, жёлтая, открыть. И ещё пару десятков слов. И у него в датасете есть пары: [дверь, синяя, открыть] (и кадр синей открываемой двери) - и сигнал награды 1. [дверь, красная, открыть] (и кадр жёлтой открываемой двери) - и сигнал награды 0. И много тому подобных пар. В общем, оценщик обучен на них, и может, имея описание цели, понять, достигнута ли она.

Но в реальности у нас ситуация будет ещё сложнее, чем в игре. В реальности, если у нас будет сильный (то есть работающий в +- любом энвайронменте, а не человекоподобный) ИИ, то какие задачи мы ему захотим ставить? Те, которые сами не тянем. Излечить человека, построить ракету до Альфы Центавра, сделать передо мной килограмм золота. Как такую цель сформулировать, имея довольно небогатый арсенал средств общения с ИИ?

Я пытался запустить такое обсуждение на хабре, но результат меня не вдохновил.
https://habr.com/ru/post/538522/

Отдельно есть ещё вопрос. Вот есть у нас, допустим, самоулучшающийся ИИ. Как ставить задачи ему?
Когда я задаюсь вопросом, как вообще такой ИИ сделать, получается, что одна и та же архитектура должна решать и задачи динамической оптимизации (ну то есть задачи управления), и задачи статической оптимизации (что-то вроде задачи эволюции или градиентного спуска). Это ощутимо разные задачи, в динамической задаче у нас есть ось времени, и мы не можем попасть в прошлое. В статической же задаче у нас огромное число наблюдаемых и управляемых переменных - миллион для небольшой нейросети. Для того, чтобы ИИ улучшил себя, он должен решать статическую задачу, а чтобы он чем-то управлял, он должен решать задачу динамическую. И единственная величина, которая мне видится общей для обеих задач - это сигнал подкрепления. То есть как сделать явную постановку цели - неочевидно.

2
Цитировать
Значит оптимизационных параметров больше двух.
- я бы сказал, их очень много...
Цитировать
Где проходит грань между интеллектом и рациональным агентом?
- хороший вопрос, заставляет привести свои мысли в порядок =) Я бы провёл границу так. Интеллект - это такой планировщик, достигатель целей в реальном мире. А РА - это частный случай интеллекта, наиболее эффективный (скорее всего, соответствует байесовому теорверу, теории принятия решений и использует формализацию бритвы Оккама для априорной оценки гипотез). То есть у не-РА мы будем замечать какие-либо систематические ошибки, которые он не зарешает, даже если у него будет куча времени, статистики и мотивации. Либо будет зарешивать какими-то ужасающе затратными способами (например, учить таблицу умножения наизусть вместо того, чтобы запрограммировать алгоритмы, её порождающие, в своей вычислительной системе, или подбирать линейную зависимость решающим деревом). Кроме того, он, возможно, будет систематически промахиваться с точки зрения теории полезности - делать ставки на что-то проигрышное, даже если может правильно посчитать матожидание выигрыша.
Откуда у меня вообще идея, что человек отличается от РА (ну кроме того, что человек не может запрограммировать себе в мозг калькулятор и имеет когнитивные искажения)? Оттуда, что я не могу сформулировать для него глобальную функцию полезности. Получается настолько сложная функция, что я понимаю, что с таким подходом можно записать функцию полезности для вообще чего угодно, в том числе неразумного. Поэтому я делаю такое упрощение: человека иногда можно рассматривать как РА - обычно в такие моменты, когда он сознательно чего-то хочет. Есть и некоторые другие случаи, но этот основной. Ну, то есть критерий - есть относительно простая, измеримая цель, и поведение человека достаточно хорошо описывается стремлением к этой цели, хитрым и изобретательным стремлением. Вот в такие моменты он как-то приближается к РА. В остальное время... Не скажу, что человек не рационален, но отмечу это как спорное утверждение.

Полагаю, я видел нечто, более близкое к РА, чем люди. Это системы ИИ вида "обучение с подкреплением", которые работают на относительно малых задачах. Когда у человека нет знаний, релевантных задаче, и задачу не удаётся свалить на зрительную кору, человек и машина оказываются примерно в равных условиях. На задачах небольшой размерности (5-50 входов) машина, по моим наблюдениям, обычно играет лучше. На более крупных задачах теста не было, да я и с трудом представляю себе, кто согласится побыть в роли ИИ, когда на входе 500 датчиков неизвестно чего, а на выходе какой-то сигнал подкрепления, и надо принять хотя бы 100-200 решений подряд. Я пробовал использовать и напрямую байесовскую систему принятия решений - она обучается лучше и быстрее всех, но сколько-нибудь большое число датчиков уводит её в комбинаторный взрыв.

Цитировать
Все психические процессы, включая мышление и память -- это чёрный ящик. Вообще психика -- это чёрный ящик, а сознание это внешний интерфейс, дающий возможность коммуникации с другими психиками. Мне очень нравится эта теория, потому как человек систематически недооценивает сложность тех или иных психических процессов, а это именно то, что прямо вытекает из теории... [] Юдковский приводил пример со зрением, когда профессор дал какому-то студенту тему для курсовой "система машинного зрения", и ждал что тот создаст такую. С мышлением было то же самое: чем дольше его ковыряют, тем сложнее оно оказывается. Мы думаем, что мы знаем, как мы думаем, но стоит нам попытаться эти "знания" применить в инженерном деле, как тут же выясняется, что эти знания яйца выеденного не стоят.
- теория мне и самому нравится, она хорошо описывает нашу способность описать, что происходит в мышлении, но неспособность это запрограммировать =) И без практики даже неспособность понять, что что-то не так.
Поэтому я и не претендую на понимание того, что происходит в умах у людей, а отталкиваюсь от модели РА. Модель простая и... Очень похоже, что она описывает наболее выигрышные стратегии. Условно, если я знаю, что РА стал бы идеалистом в такой-то ситуации почти независимо от системы целей - значит, и мне стоит.

Цитировать
С такими утверждениями надо обходиться аккуратнее. Есть общее правило, которое помечает такие утверждения как сомнительные. Есть уровни организации материи, если ты смешиваешь разные уровни организации материи в одном утверждении, то скорее всего, ты делаешь что-то не так
- да, я согласен. Грубовато выразился.
Чуть детализирую. Мозг - система управления, у него есть сенсоры, актуаторы (входы и выходы) и передаточная функция. У нейронов тоже есть входы, выходы и передаточная функция. Входы - это не только синапсы, это ещё и... Например, датчики гормонов. Это упрощение, но его можно неограниченно приближать к эмпирическим данным, либо проигнорировать какие-то виды воздействий.
Если бы меня спросили, из чего искусственная нейросеть (вот данная конкретная) собирает аппроксимацию, я бы ответил что-то вроде такого: нейронка аппроксимирует суперпозицией из функций ReLu, которые являются комбинацией линейной функции и константы. Так же нейронка умеет брать взвешенные суммы от этих функций. Есть ещё кое-какие ограничения, но список доступных операций вот. Умножения двух переменных, например, там нет, как и пороговой функции.
Если задать такой вопрос применительно к человеческому мозгу, то... Я знаю про нейроны, которые умеют искать взвешенные суммы, а он них брать сигмоиду. Наверняка это не исчерпывающий список, и мозг поддерживает на низком уровне какие-то ещё операции. Я не знаю точно, как строит модели человеческий мозг, но если моделями являют обученные нейросети, то "базовые блоки" для них - это взвешенная сумма, сигмоида и какие-то ещё функции, о которых я пока не знаю.
Может быть, над нейронами есть ещё какие-то уровни абстракции - то есть может, у человека есть какие-то стандартные микросхемы из нейронов, которые выполняют какие-то типичные операции и применяются плюс-минус по всему мозгу. И модели состоят именно из этих стандартных решателей, а обучать модель из одних только сигмоид и взвешенных сумм мозг не умеет. Если окажется так, то моя идея "для человека базовый блок - это нейрон, в математическом смысле" будет неверна.
Цитировать
интеллект это уже психология,  а нейроны -- физиология
- разумеется. Только мне неизвестен хороший способ свести психологию к физиологии. Теоретически они сводимы, но модели у нас пока нет. А вот матмодель нейрона уже построена... Много моделей построено, с разным уровнем детализации. Если смотреть только на поведение человека, то по идее, оно будет сводимо к поведению системы "математических" нейронов. По идее, это никто напрямую не проверял, вполне возможно, что современные матмодели делают акцент на чём-то не том, и потому из современных "абстрактных нейронов" соберётся неработающий мозг.

Цитировать
А на кого они переносятся?
- на ИИ (в данном случае малоценно) и ограниченно - на человека, стремящегося к цели, именно в процессе этого стремления. То есть если я знаю, как поступил бы РА, мне, вероятно, стоит поступить так же.

Цитировать
Либо потому, что выделение категории "душа" -- это какой-то минимум при решении какой-то там оптимизационной задачи, связанной с выстраиванием наилучшей категоризации мира, либо потому, что этот гипотетический интеллект будет выстраиваться человеком, и он неизбежно заложит категорию "душа" в AGI либо прямо, либо косвенно.
- да, в такой формулировке выглядит менее дико, чем "оно станет идеалистом, а оно явно лучше меня знает, что делать". Редукционизм)))

3
Цитировать
Такая модель реальности -- это реальность. Для этого достаточно написать дифуры КМ, а всё остальное будет не кодом, а данными, начальными условиями для дифур.
- тут я вижу много проблем.
Во-первых, начальные условия ещё попробуй найди. Я не уверен, что это проще, чем построить нейросеть, например, которая даёт прогноз +- 0.01%.
Во-вторых... Допустим, мой ИИ смотрит на мир через датчики биржевого бота. Или через камеры беспилотника. Или через сенсоры ядерного реактора. Тут ещё построить бы модель, которая за данными этих датчиков улавливает квантмех.
В-третьих, это слишком тяжеловесная модель. Если мне нужен горизонт планирования на хотя бы час вперёд (и так раз в секунду), эта модель вряд ли годится.
Ну и в-четвёртых, КМ не является полной моделью мира, как ни прискорбно. Она плохо работает с гравитацией.
Я согласен, что модель выбирается под задачу. В случае с ИИ - скорее строится под задачу.
Я бы согласился, что такая модель реальности - это и есть реальность, если бы имел машину времени. А так - для принятия решений, у которых гарантировано хоть какое-то подобие оптимальности, нужно предвидеть будущее. Есть и другой подход, но об этом чуть позже.

Цитировать
И это неплохой пример тому, о чём я говорю. У тебя есть модель программирования, и ты пытаешься её натянуть на концепцию интеллекта. То есть у тебя заранее есть модель, и ты обтачиваешь напильником категорию "интеллект", чтобы она влезла в модель программирования. Что ты получишь в результате? Насколько твоя модель интеллекта, которую ты создашь, будет соответствовать реальному интеллекту?
- тут не совсем так. Не, я понимаю, вы указываете на то, что я довольно предвзят к каким-то видам моделей, и это что-то похожее на ту самую опорную машину.
Но я не особенно пытаюсь моделировать человеческий интеллект.
Я отталкиваюсь вот от чего: есть концепция рационального агента. Это идеальный игрок, который максимизирует полезность настолько хорошо, насколько это вообще возможно. Человек не является РА. Но человек может для достижения целей постараться действовать как РА. Не столь важно, будет ли РА реализован через человека или через ИИ - по идее, они будут выдавать схожие результаты. Узнав поведение одного, мы можем примерно знать поведение другого в сходных ситуациях.
Есть тот вид рационального агента, которого описывает Юдковский, пользуясь связкой терминов "инструментальная рациональность" и "эпистемологическая рациональность". Это... Если перевести его рассуждения на язык математики, получается AIXI, то есть примерно тот ИИ, который я описал. В идеале. На практике есть разные ограничения.
По идее, из концепции "максимизируй полезность" необязательно следует "для этого строй модели мира, тестируй их на практике, меняй их вероятности по теореме Байеса, а априорную вероятность выводи через Колмогоровскую сложность". Но... Я не видел чего-то лучше. Всё, что видел, является либо урезанными вариантами AIXI, и в связи с этим можно предсказать, где имено система навернётся. Либо различными порождениями эволюции и подобных процессов, где происходит выбор не в пространстве действий, а в пространстве стратегий, но такой подход намного менее эффективен по данным.
Поэтому я полагаю, что выводы, применимые к AIXI, хорошо переносятся на других рациональных агентов. Не на любые другие интеллекты, а на других РА

Цитировать
Было бы хорошо, если бы было так, но реально всё хуже. Человек учится решать простые задачи, эти задачи часто несвязаны друг с другом. Потом уровни абстракции повышаются, разные категоризации реальности (возникшие при решении разных классов задач) начинают перемешиваться, а потом человек приходит в школу, и начинает повышая уровни абстракции мышления копать вниз к микроустройству Вселенной. В результате получается такой бардак, что сам чёрт ногу сломит
- я задумывался об этом. Я наблюдаю, что все эти задачи так или иначе завязаны на навигацию тела в пространстве и восприятию через глаза и уши (в меньшей степени через другие органы чувств). Все остальные задачи накручены поверх как многоуровневые абстракции. То есть в принципе можно было бы вывести единую предсказательную модель именно потому, что мы всегда смотрим через одни и те же сенсоры, в каком-то смысле. На практике эта модель была бы слишком огромная и не влезала бы в сознательную память, и работала бы как что-то типа машинлёрнинга, то есть чистый блэкбокс. Возможно, у нас даже есть такая модель, и именно она подсказывает, что мы увидим в следующую секунду. В таком случае её базовыми блоками являются, видимо, нейроны, а не что-то более абстрактное.

Цитировать
И если мы берём и начинаем приписывать интеллект чему-то, что явно интеллекта не имеет, то мы начинаем использовать развитые нейронные сети (созданные для анализа и предсказания поведения других людей) для анализа этого чего-то. Последнее время я сознательно думаю о программах, как об одушевлённых сущностях.
- да, это полезная эвристика.
Тогда... Окей, мои рассуждения о рациональных агентах не вполне переносятся на людей, которые РА не являются и не очень пытаются. Опорная машина не равна онтологии, это лишь базовый набор эвристик

Цитировать
Зрительная кора хорошо развита? Почему бы не использовать её, думая о конечных группах?
- если воспринимать зрительную кору как набор эвристик (и аппаратное обеспечение, их поддерживающее), то да, выглядит разумно

4
Цитировать
Я не очень верю таким теоремам. Эти теоремы созданы людьми, со всеми их интеллектуальными ограничениями. Чтобы доказать теорему о реальности, надо создать модель этой реальности, модель была создана человеком, и человек заложил туда кучу своих ограниченностей. Теорема была доказана о модели, а не о реальности, а соответствие модели и реальности всегда под вопросом.
- попробую тогда действовать несколько менее широко, чем эта теорема. Некий оптимизатор решает задачу "построить модель реальности так, чтобы эта модель уложилась в минимум кода и имела минимум погрешности". Модель реальности строится из базовых блоков, взятых из некоторого языка программирования. При построении модели у нас получится, что какие-то из блоков мы переиспользуем, и потому если оптимизатор достаточно быстро ведёт перебор, то он вынесет эти повторяющиеся блоки кода в функции. Это выглядит довольно разумным, потому что так бы действовал челвоек, так действует deep learning (более ранние слои порождают абстракции, которые используют более поздние слои). Хотел бы ещё сослаться на эволюцию, но тут не хватает знаний. Детали, которые используются часто, окажутся сжаты в функции, вызовы функций относительно компактны в коде, так что по умолчанию AIXI будет плохо замечать сложность, скрытую за функциями.
Если расчёт экспоненты - это расчёт суммы ряда, то в коде получается около 7 действий (зависит от того, как считать, но примерно так). Если же экспонента вынесена в функцию, то конкретно вызов функции - это 1 действие. Если у нас экспонента встречается в 1000 мест, и при этом она вынесена в функцию, то общая сложность все работы с экспонентой получится 7 + 1000. 7 операторов при написании функции, 1000 вызовов. Создание языка программирования я имел в виду именно в этом смысле.
Да, конечно, на практике идеального оптимизатора не существует, но это иногда не мешает рассуждать о том, что сделал бы AIXI, если бы этот оптимизатор был, и делать то же самое, называя это рациональностью =)
Или вы видите тут какую-то проблему в рассуждениях? Мне кажется, я выдал довольно короткую цепочку (она просто продублирована разными словами), там не должно быть сложностей проверки, как с доказательством теоремы Ферма.

Цитировать
Хех. Любой человек, в том числе и Гарри Поттер из ГПиМРМ верит в души. Душа -- это историческое название для психики. Спорить о существовании души -- глупо: она и существует и не существет. Она не существует в реальности, но существует в моделях, которые человек использует для мышления о реальности (точнее не так: в некоторых моделях реальности она существует, в некоторых моделях она не существует). И человек не может думать о некоторых аспектах реальности, не включая в свои модели категории "душа" (может быть стыдливо называя её "психикой" или словом "mind" или ещё как-то).
- это хорошее замечание.
Да, люди прогнозируют действия друг друга, не используя редукционизм, а используя полунатурное моделирование (эмпатию?), либо моделирование чёрным ящиком (как с любым незнакомым явлением), либо комбинируя подходы.
Но... Существуют люди, которые явно или неявно утверждают: "Разум - прост. Это онтологически базовая сущность. Поэтому будем считать, что мир создан Богом, это же намного проще по Оккаму, чем физическая модель Большого Взрыва, и живые существа порождены разумным замыслом, так как в нём меньше блоков, чем в модели эволюции".
То есть априорная вероятность любой физической модели в такой ситуации сильно ниже, чем априорная вероятность модели разумного замысла =) Конечно, факты будут двигать эти вероятности (если у нас агент похож на рационального).
Такая расстановка априорных вероятностей выглядит для меня довольно плохой практикой. Кажется, довольно неправильно в любой непонятной ситуации искать проявления разума, причём часто ещё и нечеловеческого. Но в то же время у меня создаётся впечатление, что такие априорные вероятности выставятся автоматом у рационального агента, который проводит достаточно много времени в обществе и мало времени изучает неразумную природу.

5
Пришла в голову такая цепочка рассуждений. Вот, допустим, мы создали ИИ, примерно рационального агента. Примерно воплотили концепцию AIXI, то есть ИИ строит кучу моделей реальности и измеряет их сложность, а затем проставляет им штрафы в зависимости от погрешности на ретроданных и от сложности. Для прогноза будущего использует гистограмму от прогнозов каждой модели - например, если первая модель выдала 9 со штрафом 2, а вторая выдала 11 со штрафом 1, то будет гистрограммный прогноз: 1/3 за 9, 2/3 за 11. Ну, это грубое описание, реально моделей будет много, для штрафа есть формулы, одиночная модель будет выдавать гауссиану...

Мы тут же влетим в проблему построения опорной машины. Дело в том, что даже программу для распознавания объектов на картинке мы из сырого кода получать перебором будем долго. Нейросетка для видеоанализа - это мегабайты, а их надо будет подобрать как код (необязателен полный перебор, но это будет определённо не очень умный оптимизирующий процесс). Поэтому ИИ придётся создавать свою библиотеку функций, чтобы часто используемые концепции можно было повторно использовать. То есть ИИ будет описывать реальность на каком-то высокоуровневом языке, а ещё будет иметь транслятор на тот язык, который дал нашему ИИ программист.

Программист: все твои программы будут написаны на Брейнфаке, так как он легко генерится эволюцией и Тьюринг-полный.
AIXI: Ага. *пишет Питон на Брейнфаке, потому что это самый короткий способ получить нейросети, и пишет нейросети. Опорная машина построена, и это Питон*

Я очень упрощённо пишу, скорее всего здесь будет попытка каким-то оптимизатором подобрать удачную модель мира, но теоремы говорят, что скорее всего в этой модели мира будет язык программирования, так как изначально заданный язык будет не очень хорошо описывать наш мир.

Вот. У нас есть "правильная" опорная машина - в ней маловероятные гипотезы описываются сложными конструкциями, а высоковероятные - простыми. То есть априорная вероятность гипотезы обратно пропорциональна длине кода. Всё круто?

А теперь добавим ещё пару вводных.
1) Мы дали нашему ИИ способность моделировать других агентов, ставя себя на их место. Просто дали ему инструмент, которым он может запускать виртуальную копию себя, и этот инструмент оказался удобен для прогнозирования животных и людей.
2) Мы запустили наш ИИ достигать целей, находясь среди людей. То есть крайне важно предсказывать людей, которые целеустремлённые агенты, а значит, для них отлично работает наш подход с виртуальной копией. Ну, или не отлично, но лучше, чем иные варианты.

ИИ настраивает свою опорную машину так, что в ней задача "прогнозировать человека" - это что-то простое. В смысле, выражается очень короткой языковой конструкцией, потому что эту функцию часто приходится дёргать.

То есть человеческий разум становится для ИИ онтологически базовой сущностью (или близко к этому), так как разум=моноблок. То есть ИИ становится идеалистом, в философском смысле. Начинает верить в души =)

Заменяем в этом рассуждении "ИИ" на "человек", "опорную машину" на "картину мира" (не карту, а тот список блоков, из которых она строится), а человеческое общество оставляем.

Я правильно понимаю, что человек практически неизбежно должен был стать идеалистом? И любой интеллект, обитающий в коллективе и умеющий в эмпатию, по умолчанию идеалист? Если человек (или наш модельный ИИ) не увидит огромную вселенную, в которой люди занимают ничтожно малую часть, что может его сподвигнуть стать материалистом (ну или иным не-идеалистом?)

Ну или может, я где-то ошибся в рассуждениях, или недостаточно обосновал?

6
Цитировать
если набирать людей склонных к риску, с не совсем тупыми идеями, и помогать им в обмен на обещание поделиться сверх-прибылями, и если из десятка случаев взлетит один, то можно неплохо навариться.
- я думал об этом. Такой подход даст примерно то же, что и диверсификация. Тут вижу две основные гипотезы Первая - матожидание прибыли не зависит от риска. То есть если у тебя есть 0%-й шанс проиграть, то  заработаешь 100$, если 50%, то в случае успеха 200$. Я частенько слышал от людей, разбирающихся в экономике, что рынок сбалансирован именно так... И в теории всё звучит логично, но на практике надо измерять. Вторая - матожидание прибыли может зависеть от риска. Если рискуешь 0%, то зарабатываешь 100$, а если 50%, то 210$, ну или 190$.
Вот если верна 2-я гипотеза, и рынок неидеально сбалансирован, то можно побыть венчурным фондом, как вы предложили, или самому заниматься чем-то рискованным, но с частью средств.

7
Согласен, это серьёзная проблема. И кажется, довольно фундаментальная. То есть, видимо, чтобы быть радикально сильнее "одноклассников" без большого риска убиться по дороге, надо уметь прогнозировать будущее лучше, чем это позволяют данные.

*пошёл обдумывать этот грустный расклад и придумывать, можно ли как-то хитро выкрутиться*

8
Цитировать
Кажется, есть некоторое непонимание. Уличная эпистемология не заточена на дебаты. Основная идея в том, что ты осваиваешь уличную эпистемологию, разговариваешь с людьми об их убеждениях один на один и подталкиваешь их к тому, чтобы они задумывались, почему они верят в то, во что верят. Некоторые из них потом сами увлекаются уличной эпистемологией. Кажется, коэффициент R0 тут больше единицы, хотя вопрос, насколько больше
- я полагал, что в данной ситуации мы собираемся использовать УЭ по принципу "оно склоняет реальность в ту сторону, где оба собеседника верят в то, что соответствует действительности", ну и уверены сами, что мы-то уж достаточно хорошо разобрались в вопросе, чтобы не ошибиться со стороной. А здесь идея в том, чтобы вызвать "эпидемию" УЭ? Интересно. И, кажется, когда переписка именно в комментариях к чему-то, что нам не нравится... Не очень разумна. Кажется, что УЭ лучше заниматься там, где это сделать легче, но так, чтобы в сумме поучаствовало как можно больше людей.

Цитировать
Дебаты (и вообще публичная полемика) в принципе не слишком хороший инструмент, потому что при публичном споре человек чаще начинает ещё и беспокоиться за свой статус. Что часто приводит к радикализации обеих сторон и это плохо влияет и на убедительную часть тоже.
- насколько я понимаю, публичную полемику люди используют, потому что она позволяет донести аргументы обеих сторон до широкой публике. Для этого же подходит и написание книжки/статьи, но с книгой/статьёй типичная проблема: человек читает аргументы и мысленно говорит "вот редиска, все наши аргументы переврал, чтобы они звучали слабо, свои аргументы привёл, а наши контр-аргументы вообще не упомянул".

В любом случае, из описанной модели следует, что УЭ - это капитально, но пока она расползётся на всех, пройдёт много времени. А публичная полемика позволяет достаточно быстро донести свои аргументы до широких масс, и ещё и показать, что это не устаревшие аргументы - но ценой снижения убедительности.

Цитировать
Но в целом, конечно, нет подхода, который работал бы всегда и везде, иначе бы давно его кто-нибудь бы нашёл и постоянно использовал бы. Любой подход будет хотя бы иногда давать сбои. Вопрос в том, как часто и насколько серьёзные будут последствия.
- полностью согласен. Видимо, нужно изучать, какой подход какие сильные стороны имеет, и когда они проявляются. Как минимум проверить гипотезу "публичная полемика иногда меняет мнение зрителей", и если она верна, то построить модель изменений.

Цитировать
Т.е. можно прокачать калибровку до идеала. Можно научиться правильно определять ожидаемую полезность в том или ином выборе. Можно научиться придумывать решения, которые дают ожидаемую полезность выше, чем те, которые приходили в голову раньше. Но ты всё равно сильно зависишь от своего базового уровня. Грубо говоря, даже удваивать своё состояние каждый год - это очень-очень круто (и, кажется, людей, которые так умеют на регулярной основе, в современной истории не зафиксировано). Но если у тебя старт - сотня тысяч, то даже удваивая состояние каждый год, миллиард ты получишь лишь через тринадцать лет.
- ну, если у меня калибровка будет прокачана до идеала, то я буду получать лучшие результаты, чем другие люди с тем же стартовым капиталом. Это не позволит стать Рокфеллером, но позволит быть первым парнем на деревне, грубо говоря. Что уже даёт какую-то власть и возможность продавливать свои решения там, где "одноклассники" не могут.

9
Цитировать
Это так, но при множестве неявных допущений, которые я даже перечислить затрудняюсь. Допустим, я дискутирую с тобой, забив на какие-либо правила, но ты имеешь гораздо больший опыт дискуссий, и поэтому несмотря на моё преимущество, оказываешься убедительнее. Или, можно вспомнить бихевиоризм, и _дрессировать_ оппонента на то, чтобы он предпочитал рациональные методы ведения дискуссии -- при должном навыке, можно это делать так, что он не заметит этого (кстати это работает, в не самых запущенных случаях: если в качестве подкрепления использовать высказывание согласия с оппонентом, то оппонент неосознанно начинает использовать те самые методы, которые работают, помимо согласия можно использовать похвалу или всё что угодно ещё, что будет пробуждать в оппоненте позитивные эмоции). Или можно провоцировать оппонента, создавать у него чувство превосходства, и ждать когда его занесёт так, что потом он будет выглядеть последним идиотом. Или можно вообще забить на дискуссии с ними, и, скажем, захватить власть в отдельно взятом государстве, и создать из него государство рационалистов. Хотя с государством может не выйдет... ну, тогда можно попытаться создать корпорацию, успех в которой требует рациональности
- это интересные аргументы на тему "почему придерживаться правил спора может быть хорошей идеей даже в явно агрессивной среде".
Немножко сформулирую мою модель. Есть две разных задачи: первая - переубедить людей, чтобы они отбросили ложные убеждения и не вернулись к ним. Вторая - добиться от людей некоего поведения... Например, мы уверены, что самоизоляция реально сильно помогает от пандемии, и мы хотим, чтобы все люди добросовестно соблюдали хотя бы те требования, которые не вредят им экономически. Или мы уверены, что человек, который сейчас может прийти к власти - это намного хуже альтернатив, и мы хотим это предотвратить даже дорогой ценой.
Почему я вообще вторую задачу упоминаю? Там ранее по тексту были опасения, что люди верят во что-то неправильное, и из-за этого произойдёт что-то плохое, и потому их надо по-честному переубеждать. Я полагаю, честное переубеждение - это частное решение, и не факт, что всегда наилучшее. Иногда может быть лучше информационная борьба, а то и принуждение. Да, это позиция конфликта, но эскалация конфликта - это не обязательно проигрышный вариант.

Цитировать
И вот я сейчас задумался над одним из этих вопросов и понимаю, что у меня вообще нет никакой модели. Если мы где-то найдём 10 тысяч человеко-часов, чтобы воевать в комментариях, это приведёт к чему? А если миллион человеко-часов? А если не воевать, а вежливо разговаривать? Я вот совершенно не понимаю, даже где можно попробовать поискать ответы на эти вопросы. А вы?
- у меня есть только шаблон модели. Делим все варианты взаимодействия в комментариях на группы. Делим виды интернет-ресурсов на группы. Определям, какой вид поведения в каких обстоятельствах сколько людей убеждает (и насколько надолго). Как это измерить? Ну... Теоретически я бы измерил так: если у меня есть история интернет-сёрфинга этого человека, я бы посмотрел, как он раньше высказывался о данной проблеме, и как стал высказываться теперь. Или какие ресурсы по этому вопросу смотрел раньше, а какие смотрит теперь. Условно. У нас есть вконтантик (обстановка номер 1), есть ютуб (номер 2). Есть два подхода: УЭ (подход 1) и грязные приёмы (подход 2). Есть два варианта позиции: "синие правы" и "зелёные правы". Каждого человека, читавшего эту переписку, мы заносим в одну из групп по его прошлому (за синих, за зелёных, не определился) и по его будущему (аналогично). Проверяем, как каждый метод влияет на позицию людей. Не тех, с кем спорим, а тех, кто это читает.
Где это найти - сложно сказать, наверняка какие-то исследования проводились. По идее (Скотта Александра), если мы используем УЭ, у нас будет некоторое преимущество, если мы изначально выбрали идею, которая соответствует реальности. Но если мы используем вежливый подход, а собеседник ведёт себя конфликтно/нечестно, то... Тут, наверное, зависит от площадки, я видел и исход "он ведёт себя нечестно, а потому неубедителен", и исход "он сам в своих словах путается, а вот этот альфач куда убедительнее". Где чего больше - надо смотреть статистику.

Цитировать
Я эту статью читаю примерно наоборот. Грубую силу могут применять обе стороны. Сегодня ты применил грубую силу и победил, завтра твои оппоненты лучше оценят твои возможности, наберут ещё больше грубой силы и победят сами. То, что ты прав, практически никак не даст тебе возможности набрать больше грубой силы. И наоборот, если ты активно насаждаешь игру по правилам и поиск истины, у тебя есть шанс заставить противника играть на твоей стороне, потому что на самом деле твой противник почти наверняка тоже считает, что он за истину.
- звучит разумно. Ну и я видел немало случаев, когда подход "давайте вести себя правильно" не работал. Точнее, работал ограниченно... Вот, например: https://vk.com/videos-49014935?z=video-49014935_456239212%2Fclub49014935%2Fpl_-49014935_-2
Спор на ТВ, одна из спорящих сторон - человек из Общества Скептиков. Когда в аналогичной ситуации оказался Панчин, он, как мне видится, выглядел куда лучше, в основном из-за навыков полемики (говорил не всё, что думает по теме, а то, к чему сложнее прикопаться).

Цитировать
Всё то, что сейчас называют информационной войной, вовсе не нацелено на то, чтобы убеждать людей, всё это нацелено на то, чтобы создать такое количество информационного шума, чтобы люди не могли бы в нём сориентироваться и были бы вынуждены выбирать чью-то сторону, делегируя критический анализ информации кому-то там.
- почему вы так полагаете? В смысле, я ограниченно согласен: да, создание шума - это вполне себе приём. А ещё другой приём - изображать на листовках одну из сторон вурдалаками. Мне кажется, листовки с вурдалаками - это давление на эмоции, оно не направлено на создание шума и множества мнений, в которых легко запутаться.

Цитировать
А в каком ему хочется? Человек -- не рациональный агент. У него есть цели, есть "анти-цели" (то есть то, чего ему хочется избегать), у него есть своя система ценностей, и у разных людей разная. Может интеллекту вообще не хочется менять реальность? Может ему достаточно иметь хороший входящий поток информации, чтобы было чем заняться?
- в теории ИИ есть такая концепция - метрика качества. Это некая формула, которая позволяет любые два состояние мира сравнить на лучше-хуже (или поровну). Это немного шире, чем цели. Если подходить с такой позиции, то если у человека есть хоть какие-то предпочтения (макароны люблю больше, чем кашу!), то у него есть метрика качества. Да, человек не является рациональным агентом, но является целеустремлённым агентом. Зная его предпочтения, можно предсказывать будущее - мир будет необыкновенно часто меняться в ту сторону, куда "хочется" этому агенту. Например, если его особо не трогать, будущая траектория реальности будет проходить через аномально большое число поеданий макаронов этим агентом =)
"Менять мир" - это не что-то глобальное, это "влиять хоть на что-то".

Цитировать
По поводу "интеллект = состояние" мне очень нравится статья Фальковича: Is Rationalist Self-Improvement Real?
- мне очень понравилась эта статья. И если рациональность так плохо повышает эффективность в краткосрочной перспективе... Тогда да, не стоит ожидать, что реальные рационалисты будут похожи по эффективности на Квиррелла.
Хотя это выглядит местами довольно неожиданно. Допустим, я решил быть рационалистом, и стал тренировать ровно два навыка: во-первых, калибровку. В наиболее влияющих на жизнь областях: оценка вероятности успеха проекта, оценка длительности проекта, оценка рисков. Во-вторых, генерацию идей. Умение быстро сделать штук десять планов разной степени бредовости. А дальше всякий раз, когда в жизни наступает Судьбоносный Момент и Система-1 спрашивает: "что мне делать, начальник, я не могу выбрать!", можно будет применять эту классную сцепку из генерации идей и калибровки. Причём калибровку можно корректно тестить.
В общем, интересно, что даже в таком ключе рациональность не играет большой роли

10
Цитировать
Подключить троллей и показать всем, что наши тролли лучше других троллей?
- ну, как ведутся информационные войны? Во-первых, можно физически уничтожить того, кто высказывает вредные идеи (это не предложение, просто первая идея, которую высказал бы тот самый парень, который предложил заточить кости пуффендуйцев). Во-вторых, можно задавить чужую идею шумом. В-третьих, можно компрометировать чужую идею... Например, создав и распиарив её "соломенное чучело". В-четвёртых, можно высмеять чужую идею. Много вариантов сделать так, чтобы доминировали "наши" идеи, безотносительно их правильности. Многие игроки станут при распространении своих идей использовать такие приёмы - значит, отказываясь от них, мы отказываемся от преимущества. И в условиях, когда у "наших" и "враждебных" идей примерно поровну грубой силы, начнёт побеждать та идея, которая лучше именно с точки зрения истинности (прогнозирующей способности, логичности и так далее).
Александр Скотт написал классную статью об этом: https://lesswrong.ru/w/%D0%92%D0%B5%D0%B4%D0%BE%D0%BC%D1%8B%D0%B5_%D0%BA%D1%80%D0%B0%D1%81%D0%BE%D1%82%D0%BE%D0%B9_%D1%81%D0%B2%D0%BE%D0%B8%D1%85_%D0%BE%D1%80%D1%83%D0%B4%D0%B8%D0%B9
Я не со всем согласен, но основную идею полагаю верной: разумная дискуссия в среднем менее убедительна, чем аппеляция к эмоциям и грубой силе. Поэтому если нет паритета по грубой силе, то люди будут чаще переходить в "лагеря противников", чем в наш.
Это что касается борьбы к ощутимо вредными идеями, то есть ситуации "цель оправдывает средства". Учить людей рациональности так не получится.

Цитировать
Это американская фишка -- интеллект=состояние. Это часть американской культуры, просто культурный код, без каких-либо рациональных обоснований за ним.
- интеллект - это способность агента направлять реальность в том направлении, куда ему хочется. Меньше интеллекта? Будет могучий носорог, не умеющий в хитрые планы. Больше интеллекта? Будет целая промышленная цепочка, ведущая к появлению ружья, которое этих носорогов убивает, если что (или волчья яма, если надо сделать малыми силами).
На самом деле это немножко игра в определения. Но... Конкретно сообщество lesswrong, если я ничего не путаю, занимается рациональностью именно в этом смысле - как средством нагибания окружающего мира (инструментальная рациональность) и её основным инструментом - средством изучения мира (эпистемологическая рациональность).

Цитировать
в нашей культуре интеллект -- это скорее социально неадаптированный тип, который часто вопреки системе добивается каких-то своих целей, и часто эти цели не включают в себя личное благосостояние или власть
- я полагаю, это именно стереотип нашего культурного кода. Если человек может считать будущее на 10 ходов глубже окружающих, при прочих равных он всё равно всех сделает, даже если в культурном коде это не прописано. Ему же не обязательно быть социально неадаптированным. Если это будет важно для достижения целей - адаптируется, в чём принципиальная невозможность?

Может, вы имеете в виду, что в России люди, которые хорошо умеют в эпистемологическую рациональность, одновременно имеют склонность быть аномально слабыми в инструментальной рациональности? Из-за каких-то национальных стереотипов.
Я что-то подобное вижу и в Росии, и в статьях про зарубежье. Что есть люди, вроде бы умные, вроде бы социально небезразличные, но они не учатся тому, как стать лидерами и решить проблемы руками своих последователей. Почему так? На самом деле социальные задачи им не так важны? Или стереотип, что интеллектуалы не стоят по главе корпораций/армий/культов, настолько силён, что интеллектуалы даже не пробуют себя в областях, дающих увесистую силу?
В любом случае... Может, я ошибаюсь, но кажется, люди, которые прочитали значительную часть цепочек Юдковского, понимают связь между умением познавать мир и умением им управлять. Хотя бы примитивная идея из теории ИИ: создай максимум возможных планов, а затем оцени, какой ближе всего приведёт к цели. По идее, интеллектуалы уж оценивать эффективность планов должны уметь лучше не-интеллектуалов, иначе непонятно, что это за интеллект у них такой) И мне кажется вероятным, что люди из этого сообщества способны при большой мотивации собрать "армию ботов" и зашумить, а то и подавить те интернет-ресурсы, которые распространяют неугодные им идеи

11
Возникла мысль на мета-уровне. Если мы как сообщество рационалистов действительно настолько рациональнее большинства, что собираемся это большинство чему-то учить, то по идее, мы должны быть сильно лучше других в "искусстве выигрывания". Если так, то почему не решить вопрос грубой силой - не нанять сами толпу троллей для комментариев? Ну или не заказать кучу роликов, пропагандирующих нашу точку зрения по каким-то особо опасным заблуждениям.
В смысле, если мы настолько рациональнее большинства, почему мы не настолько богаче и влиятельнее?

А так - я на сайте Общества Скептиков видел статью, которую теперь не могу найти (вместе с самим сайтом). Статья о том, как аргументы меняют мнение людей. Я оттуда вынес мысль, что на людей таки можно повлиять аргументами, но в основном на тех, кого обсуждаемый вопрос затрагивает напрямую. Это результат не спекуляции, а эксперимента. Например, по вопросу "правильно ли поступил Лукашенко, когда разрешил парад во время эпидемии" вряд ли удастся многих переубедить. А по вопросу "правда ли мне не стоит ездить на автобусе и метро во время эпидемии" переубедить людей будет проще, потому что от ответа на этот вопрос здорово зависит распорядок дня, семейный бюджет и здоровье.

12
Опубликовал! И да, там есть продолжение
https://fanfics.me/fic147075

13
AI1, спасибо, что написали. Финал не открытый, есть продолжение. Просто я не могу публиковать здесь более 20к символов в одно лицо. Надо, чтобы кто-то "перебил" меня.
На фикбуке публиковаться не хочу - я с ним много работал, там аудитория своеобразная. На фанфиксе пока лень регистрироваться, но собираюсь добраться. Насколько я понимаю правила таких сервисов, если я здесь кину ссыль на фанфикс, то это не будет считаться плагиатом.

ПРОДОЛЖЕНИЕ

- Профессор, как именно вы собираетесь выходить из цикла?
- Конфундус, - задумчиво произнёс Снейп, - Я зачаровал себя, что если увижу Лили, здоровую и разумную, то поверну маховик, а иначе - нет. Я понял вашу схему.
- Я подозреваю, что на вас больше нет Конфундуса.
- Почему, Поттер? - голос зельевара стал резким, и казалось, он вот-вот скажет "минус десять баллов Когтеврану!"
- Потому что этот ритуал подавляет магию в округе. Разрушает действующие чары, отключает артефакты. Полагаю, вашему Конфундусу конец.
Снейп на мгновение замешкался, а затем произнёс какое-то следящее заклинание - из тех, что использовал профессор Защиты в ресторане "У Мэри".
- Конфундо! - произнёс Северус напряжённо, - Термос! Люмос!
Ничего.
Геометрический бардак над столиком разрастался. На него уже было больно смотреть - глаза промахивались с фокусировкой и перенапрягались.
- Я внимательно вас слушаю, мистер Поттер, - сквозь язвительность проступало беспокойство.
- Я использовал Непреложный Обет...
- Я знаю. Вы дали Обет, что будете исполнять особые обещания, данные на Парселтанге. Действуйте. Вот мой маховик.
- Сколько времени назад вы запустили ритуал?
- Пять с половиной часов назад.
- Надо спешить! Хорошо. Я обещаю, что ни я, ни профессор Снейп не перенесутся назад во времени, если не выполнятся условия. Условия такие: мы оба целы и невредимы, Лили Поттер жива и здорова, я её проверил на разумность, Северус Снейп её проверил на соответствие её прежнему характеру. Я гарантирую это. Стоп. Я гарантирую это!
Гарри пытался говорить на парселтанге, но получалось на обычном английском. Воздух медленно расходился фрактальными трещинами, а по спине бежали мурашки...
- Ритуал лишил вас парселтанга? - участливо поинтересовался Снейп.
- Да как бы вообще в маггла не превратил! Сейчас я придумаю выход...
Что-то ухватило Гарри за штанину. Мальчик опустил взгляд и увидел руку, сгнившую до костей...
Когтевранец отпрыгнул почти на метр и, поскользнувшись, рухнул в грязь. Раненую ногу пронзило болью. Лишь после до него дошло, что это рука его отца или матери.
Снейп ловко отскочил в сторону и достал нож. Сзади него земля зашевелилась...
- Инферналы! - выкрикнул зельевар, - Бездушная мертвечина!
Могильные камни один за другим опрокидывались, кресты рушились, а из земли лезли грязные трупы. Одни были полуразложившимися, другие - высохшими, третьи выглядели скелетами, набитыми землёй. Вся эта армия нежити двигалась, как марионетки - неестественно, гипертрофированно задирая ноги и безвольно болтая головами.
Гарри уже стоял и отстреливался от ближайшего мертвеца. Пуля в голову - да плевать, пошёл дальше. Попадание в колено - а зомби всё ещё марширует, хотя голень к бедру уже ничем не крепится.
- Если вы не возражаете, мистер Поттер, мы эвакуируемся, - едко произнёс голос Северуса за спиной, и Гарри на шею накинули цепочку.
Хлоп - все мертвецы пропали, а надгробья прыгнули на места.
***
К чести Дамблдора можно сказать, что он не стал тратить время на возмущения, хотя от него можно было ожидать. В его позе, интонациях, во всей его позе читалось: "Я же говорил! Не стоит воскрешать мёртвых!"
Но вслух он этого не сказал ни разу. Директор подробно расспросил Гарри и Северуса, что они видели и делали, а затем связался с Амелией Боунс и попросил возвести магический периметр вокруг аномалии, а население Годриковой Лощины - эвакуировать.
- Это не инферналы, - говорил Снейп, - Если инфернала порубить на куски, он развалится, а эти продолжают ходить.
После того, как Дамблдор закончил отдавать распоряжения через каминную сеть, он попросил Снейпа выйти и остался один на один с Гарри.
- Ты, - видно было, что слова даются древнему волшебнику с трудом, - Не плохой человек. Но невежественный. Я знаю, что ты хотел как лучше. И Северус хотел как лучше. Но ты обрёл могущество в необычнайно юном возрасте, и ты не осознаёшь последствий. Когда ты решился вернуть мисс Грейнджер... Это был поступок гриффиндорца. Ты знал, что рискуешь, и ты принял впечатляющие меры предосторожности. Ты переиграл саму магию, но недооценил людей. Мне пришлось поработать обливиатором для Лесата и Невилла - но кто знает, какие они успели дать намёки, и кто ещё сможет переизобрести твой ритуал. Ты юн, но твой разум способен разрушать миры. Тебе следует... Нет, я не должен давать тебе советы. Мистер Поттер, проведите анализ ошибок, как в случае гибели мисс Грейнджер.
Гарри выдохнул. Он не хотел использовать Тёмную сторону сейчас, а без неё разговор был довольно тяжёлым.
- Мне не следовало выпускать Гермиону после воскрешения. Я должен был отвести её к вам.
- Точное попадание, - подтвердил Дамблдор, - Гриффиндорцы знают, что есть вещи, которые наставник не одобрит, и делают эти вещи втайне. Но умный гриффиндорец понимает, что вечно хранить секреты нельзя, и знает, когда нужно раскрыться. Если бы вы раскрылись вначале мне, а затем всем остальным... Впрочем, продолжаем.
- Я должен был подумать, что мой опыт захотят повторить другие люди, - произнёс Гарри, - И это приведёт к катастрофе. Нужно было... Нет, это слишком локальная идея. Неверно. Я должен был понимать, что если я делаю что-то эдакое, то другие люди на это реагируют. Даже если действие их вроде бы не касается. Эту реакцию надо просчитывать заранее.
- Верно, - старый волшебник кивнул, - А что вы думаете о том, что дали людям сильнейшее искушение?
- Директор, я считаю, что люди должны относиться к смерти как к чему-то, с чем можно бороться. Я считаю, что дал им надежду. Но! - Гарри поднял палец, - Я нашёл крайне опасный способ бессмертия. Такие вещи надо держать в секрете. Смерть - всё ещё мой враг. Да, вы в этот раз оказались правы - я боролся со смертью и причинил кучу разрушений. Если бы мой способ был менее опасным, я бы его стал распространять.
- Хорошо, будем считать, что мы пришли к единому мнению.
- Не совсем. Директор, если бы мне не надо было действовать скрытно, и если бы Северусу не пришлось спешить, то никаких этих разрушений бы не было. Я с самого начала думал пойти к вам - меня останавливало лишь то, что... Вы бы меня даже слушать не стали.
- Цыплята отчитывают старую курицу? - директор неожиданно весело улыбнулся, - Мистер Поттер, мои убеждения имеют веские причины. Давайте так. У вас есть друзья. Когда вам понадобится спросить совета, но у меня спросить нельзя - идите к ним.

14
ГАРРИ ПОТТЕР И ШАРКАЮЩИЕ СКЕЛЕТЫ
***
Шаркающие Скелеты. Это название не шло у Гарри из головы. Профессор Квиррел сказал, что люди устраивают катастрофы не потому, что хотят навредить, а потому, что добиваются своих целей, и в какой-то момент допускают ошибку.
Но Шаркающие Скелеты... Это звучало бы смешно, если бы не было так жутко.
Вообще, профессор защиты невольно натолкнул Гарри на мысль - а что, если связь двухсторонняя? Не только могущественные ритуалы предвещают разрушения, но и грандиозные разрушения маркируют великую силу, которую можно подчинить.
"Что бы я делал, если бы хотел уничтожить Магическую Британию? Уничтожение Земли или Вселенной тоже сойдёт".
Тёмная Сторона испуганно сжалась.
"Да ладно, я просто хочу вернуть Гермиону к жизни. Но для этого надо мыслить нестандартно"
Ладно, давайте представим себя... Самим злом во плоти. Азатотом, уничтожающим миры. Наша цель - уничтожение и разрушение.
Трансфигурация атомных бомб? Создание нейтронного поражающего поля... Нет, лучше создать материю нейронной звезды. Или даже чёрную дыру. Создать артефакт, призывающий Адское Пламя, и зациклить его на постоянный запуск. Создать вирус... Вирус, который целенаправленно наводится на магический ген, и превращает магов в магглов! Найти способ перегрузить Источник Магии - пусть исчерпает силу. Запустить в Солнце порт-ключ - так, чтобы он активировался в фотосфере и перенёс на Землю тучу плазмы. Создать временной парадокс маховиком времени. Трансфигурировать антиматерию. Обвалить биржу, зная будущие цены на котировки.
Так, стоп, перемещение во времени.
Когда-то давно, в позапрошлой жизни Гарри уже пытался создать временную петлю, чтобы решить задачу полного перебора. Но "не шути со временем". А что, если бы он приложил такие же усилия, как к частичной трансфигурации?
Временная петля похожа на цикл случайного перебора. И можно сделать так, чтобы поворот маховика был возможен только в каком-то определённом случае - это и будет условием выхода.
Гарри спустился в недра сундука и написал случайное уравнение пятой степени. Насколько он знал, такое уравнение нельзя решить аналитически, но очень просто проверить решение.
Когтевранец сформулировал установку: "Я сейчас загляну в ящик. Там будет лист бумаги с решением уравнения. Если решение верное - я его переписываю на другой листочек, переношусь в прошлое и кладу решение в ящик, иначе ничего не делаю."
И...
Сердце забилось от предвкушения. Сейчас выйдет или всемогущество, или...
В ящике ничего не было. Гарри хлопнул себя по лбу. Если решения нет, то и временной петли нет. Логично же. Самая стабильная петля - это когда петли нет.
Гарри изменил правила. Теперь он перенесётся в прошлое, если решение будет верным, или если никакого решения не будет. Во втором случае он напишет случайный набор цифр.
И...
Нет, стоп, надо же отойти. Надо дать возможность себе-будущему пройти под мантией и подкинуть записку.
Гарри отошёл, отвернулся, закрыл уши. Вернулся и открыл ящик. Там лежал лист бумаги с пятью числами - тремя действительными, двумя комплексными. Правда, числа были написаны очень огрублённо - такое впечатление, что их округляли с точностью до одной третьей. Но корни нашлись верно.
"Итак, реальность будет пытаться схалявить. Сделать что-то более простое, более вероятное, и лишь в самом крайнем случае будет исполнять мои приказы".
Гарри даже не чувствовал триумфа. Казалось... Всё очевидно? Он уже много пользовался маховиком, и... Найти пять чисел с точностью до одной третьей - это не ощущалось достижением.
"Надо как-то сделать, чтобы Вселенная не могла меня убедить свернуть с пути, как бы глупо это ни было. Конфундус? Империо? Нет, лучше. Непреложный Обет. Я дам Обет, что не поверну маховик, пока не воскрешу Гермиону и не буду уверен, что это правда она, что она разумна и так далее. Нет, можно ещё лучше. Я дам Обет, что я буду следовать любому обещанию, которое заканчивалось ключевым словом. Ну пусть это будет "я гарантирую это" на Парселтанге. Чтобы уж точно случайно не сказать. Тогда я смогу сделать больше одно попытки. А кто у меня этот обет примет?"
***
- Может, расскажешь, зачем ты нас здесь собрал? - спросил Невилл. Он, Гарри и Лесат сидели в заброшенном кабинете Хогвартса.
- У меня есть идея, как... Получить некоторые новые данные об убийстве Гермионы, - формально Гарри говорил правду - Гермиона правда могла дать ответы на некоторые вопросы, - Это сложный план, но он стоит того. Чтобы его провернуть, мне понадобится Непреложный Обет. Я его буду давать, а вам предлагаю его принять.
- Гарри, что ты делаешь? - обеспокоенно спросил Невилл, - Ты сам, помнится, говорил, что друзья не помогают в самоубийстве.
- Если мой л... Кхм, мистер Поттер попросил, то я в деле, - Лесат встал навытяжку.
"Как тебе нравится беспрекословное подчинение?"
- Невилл, я... Не могу тебе рассказать все детали. Прости. Ты сам всё узнаешь позже. И ещё. Мне всё равно придётся признаться в этом. Только не паниковать! Я змееуст.
***
- Мой лорд! - Патронус передавал насмерть перепуганный и уставший голос пятикурсника, - У меня получилось! Мы справились! Мисс Грейнджер... Она жива! Она стоит передо мной!
Гарри услышал стук собственного сердца. Ужасно хотелось скинуть Мантию Невидимости, оставить укрытие и со всех ног броситься к Гермионе. Но Гарри знал: любое опрометчивое движение - и петля замкнётся неверно. Кроме того, Обет не позволит отступить от плана, пусть даже небо стало бы рушиться на землю.
- Опиши, как она выглядит, как себя ведёт, опиши всё, что выглядит необычно, - Гарри отправил Патронус Лесату.
- Она ужасно кричала! Кольцо на алтаре... Оно превратилось в тело мисс Грейнжер, оно было мёртвое, голое и безногое! А потом.., - Лесат сглотнул и стал говорить чуть менее сбивчиво, - У неё стали отрастать ноги. А потом она открыла глаза - всё такая же белая... Она не до конца отрегенерировала. Она выла, как банши, пока её тело не восстановилось до конца. Потом она очень неуклюже вскочила, бросилась в угол и потребовала мантию. Я... Мне было так страшно... И неловко... Я ей бросил свою и отвернулся. Потом она меня спросила, что здесь происходит. Она сейчас стоит возле алтаря и смотрит на меня как-то жутко.. А-ай! Что я не так сказал?! Она задаёт кучу вопросов, она требует сказать, где вы. Ах да, она выглядит полностью нормально, она вся перемазана в крови, но непохоже, чтобы её это беспокоило.
Когтевранец в нетерпении отправил Патронус Гермионе. Серебряный шар успешно улетел - это было ещё одной проверкой. Раз уж чары Патронуса считают Гермиону настоящей...
- Мистер Поттер, будьте так добры, объясните, что произошло? Как такое возможно? - голос девушки был взволнованным, но уже не похож на тот вой банши, что описывал Лесат.
- Гермиона, - у Гарри пересохло в горле, - Я не могу тебе сейчас объяснить, что именно произошло. Я... Щёлкнул пальцами. Сейчас нужно ответить на вопросы. Они странные, но это очень важно. Пожалуйста, поверь мне, и через час я тебе всё подробно расскажу.
И Гарри стал спрашивать. Да, Гермиона помнила тролля - вплоть до запаха из его пасти. Она помнила своих родителей и помнила, как они с Гарри познакомились. Гермиона всё ещё считала намного быстрее, чем Гарри и назвала число пи до чёрте-какого знака после запятой. Она точно не была проекцией из памяти. Кроме того, Гермиона могла колдовать - ради этого ей пришлось одолжить палочку у Лесата. Первым делом девушка применила на себя Скорджифай и Термос. Когда Гарри отправил Патронус Лесату и попросил применить Фините Инкантатем на когтевранку, та не развоплотилась.
Едва проверки закончились, Гарри, сорвав Дар Смерти, бросился в кабинет-лабораторию.
- Гермиона... - прошептал он.
- Гарри! - воскликнула когтевранка и бросилась к спасителю, придерживая полы мантии. Не дойдя пару метров, девушка увидела, что Гарри испуганно отшатывается. Она остановилась, - Полагаю, слов благодарности тут будет явно недостаточно. Но всё же... Спасибо. Это было очень... Это очень. Просто очень. Прости. И всё же, как, мистер Поттер, как?!
- Ещё не время. Лесат, пожалуйста, перепиши рецепт ритуала.
***
- Признаться, мистер Поттер, вы смогли впечатлить даже меня, - сухо произнёс профессор Квиррел. Запретный лес не был идеальным местом для переговоров, но всё же это лучше, чем ничего, - Когда девочка вошла в обеденный зал так, будто ничего не случилось, старик Дамблдор аж выронил пирог изо рта.
- Ага! - только и мог произнести довольный Гарри.
- Надеюсь, кроме вас никто не знает подробностей ритуала?
- Ну.., - чувство тревоги накатило с необычной силой.
- Вы всё рассказали мисс Грейнджер. Мистер Поттер, вам кто-нибудь говорил, что молчание - золото? Особенно когда речь идёт о могущественных тёмных ритуалах? Мисс Грейнджер не проходила уроки у мистера Бестера, как вы могли заметить, - язвительно заметил профессор Боевой Магии.
- Профессор, я, может, и безрассуден, но не настолько, - произнёс Гарри, - В ритуале участвовали другие люди, и мне пришлось кое-что им рассказать.
- Для чего вам нужны были другие люди? - профессор прищурился, - На Парселтанге.
Чувство тревоги притупилось, хотя змея на траве была явно чрезвычайно ядовитой.
- Я и-с-спольз-совал час-сы, ч-што поворачивают время, - прошипел Гарри, - Ч-штобы с-создать круг, из-с-с которого лиш-шь один выход.
- С-самый прос-стой круг - это тот, где ч-шеловек с-сам отказался от замыс-слов. По любой прич-шине. Как ты с-справилс-ся с этим?
- Я ис-спользовал.., - Гарри с удивлением понял, что знает, как этот оборот будет звучать на змеином языке, - Непрелож-шный Обет.
 Змея прерывисто зашипела, и мозг Гарри интерпретировал это как смех.
- Мальч-ш-шик, а в чём с-сос-стояла с-суть Непрелож-шного Обета?
- С-суть в том, ч-што я сам пиш-шу з-садание на пергаменте, произ-снош-шу с-специальное с-слово, и я больш-ше не могу отказ-саться его выполнять.
Змея снова изобразила хохот. Очень нервный хохот.
- Мальч-шик, атланты тож-ше с-стремилис-сь к с-своим целям, но они с-стерли Атлантиду из времени. Они ош-шиблис-сь. Дос-статочно ош-шибиться один раз-с.
- Учитель, я не с-с-собираюс-сь ис-спользовать круг времени вс-сякий раз-с, когда чего-то з-с-сахочу.
- З-с-сачем тебе вообщ-ще нужен теперь этот круг времени? Ты уж-ше победил.
Гарри непонимающе посмотрел на змею.
- Я ж-ше с-сказ-сал, я не с-собираюс-сь его ис-спольз-совать без-с нуж-шды.
- Ты можеш-шь уничтож-шить ритуал. Ты можеш-шь напис-сать на пергаменте, ч-што не с-станешь никогда больш-ше его применять и никому о нём не с-скажеш-шь.
У Гарри в голове пронеслись все аргументы против деонтологической этики. Как можно брать и запрещать действие, если оно может оказаться необходимым? Как потом спасти родителей? Конечно, Гарри мог взять уже готовый текст ритуала - тот, что Лесат переписывал во временной петле. Но... А что, если ему понадобится использовать более масштабную магию? Что, если обстоятельства сложатся так, что Ритуал Временной Петли окажется самым лучшим решением?
- Я подумаю над ваш-шим предлож-шением, Учитель.
- Понимаю твоё колебание, мальч-шик. Но ты можеш-шь запретить с-себе делать то, ч-што уничтож-шит мир. Ты можеш-шь поклясться, что пойдёш-шь на рис-ск лиш-шь ес-сли защищ-щаешь мир от ещ-щё больш-шего риска. Я предлагаю эту клятву, ч-штобы она хоть как-то с-сдерж-шивала твоё безрассудс-с-ство.
Это звучало разумно. Действительно, это же плохо - уничтожать мир. Почему бы не подстраховаться? Пусть в голове будет критик, который станет проверять все идеи на предмет апокалиптичности. Кажется, в этой идее нет минусов.
- Хорош-шо, уч-шитель. Мы мож-шем вмес-сте сос-ставишь текс-ст клятвы, и я её принес-су.
- Прекрасно, - Квиррел вернулся в человеческий облик, - Боюсь, у меня нет пера и пергамента...
- У меня есть, - Гарри открыл кошель.
***
На этот раз на Дамблдоре была мантия тёмно-пурпурного оттенка. Его лицо словно бы состарилось ещё больше.
Когтевранец никак не мог понять, в чём дело. Неужели он пропустил какие-то побочные эффекты?
- Гарри, ты не мог бы рассказать, как тебе удалось воскресить мисс Грейнджер? - голос древнего волшебника был напряжённым, - Что именно ты сделал?
- Я не уверен, что стоит об этом рассказывать, - ответил Гарри. Обет напоминал, что такая информация может уничтожить мир.
- Стены замка увидели мощный магический выброс. Трелони отправилась в Мунго с инсультом. Попадали все мётлы - хорошо, что не во время матча. Все трансфигурации отменились - и хорошо, что Хогвартс не рассыпался грудой камней. И вот, после этой череды несчастных случаев я вижу мисс Грейнджер - живую и здоровую. Я хочу понять - какие ещё разрушения я упустил?
- Вы так уверены, что это я...
- Больше некому, мальчик мой.
- Ну... Тогда я бы сказал, что нашёл способ... Манипулировать случайностью. Видимо, от этого разрушается некоторая магия.
- Хорошо, я буду более прямолинейным. Северус исчез. Ты знаешь, куда он делся?
Гарри будто со всего маху налетел на бетонную плиту.
- Есть соображения. Если Северус работал на вас только потому, что чувствовал вину за мою маму, то сейчас он... Старается её воскресить, как я воскресил Гермиону.
- А откуда он знает, как это сделать?
- Скорее всего, он отлегилиментил Лесата Лейстренджа - я его... Он мне помогал с ритуалом.
- Что это за ритуал? - сапфировые глаза будто впились в лицо мальчика.
"Минус десять баллов Когтеврану!" - вспомнил Гарри голос Снейпа.
Холод наполнил Гарри, и директор стал в его глазах простым смертным.
- У этого ритуала нет имени. Я его сам придумал. Лесат знает не всё - но Северус должен был догадаться до остальных деталей. Тем не менее, - Гарри поднял палец, - Ритуал опасен. Я не уверен, что Северус сможет провести его достаточно аккуратно.
- Гарри, если я пойму суть ритуала, я смогу лучше с ним справиться! Говори быстрее, Северус знает, что мы уже идём по следу. Фоукс, ко мне!
- Маховик времени! - выдохнул Гарри, - Вы говорили, что однажды пытались отменить смерть человека, но вместо этого случайно убили ещё одного. Я сделал временную петлю так, чтобы условием выхода была живая и здоровая Гермиона! А чтобы отсечь все другие варианты временной петли, я принёс Нерушимый Обет, что создам парадокс, если цель не будет достигнута!
Дамблдор неожиданно проворно схватил мальчика под локоть и выкрикнул:
- Фоукс, в Годрикову Лощину, на могилу Поттеров!

Добавлено 06 Февраля 2020, 15:00:
ГАРРИ ПОТТЕР И ШАРКАЮЩИЕ СКЕЛЕТЫ (продолжение)
***
Гарри со страшной силой ударило о землю и закрутило. Воздух выбило из лёгких, не хватало силы даже на стон.
"Это конец?" - промелькнула трусливая мысль.
Когда перед глазами перестало плыть, Гарри поднял голову с земли. Ни феникса, на Дамблдора рядом не было - лишь грязь, перемешанная со снегом, да редкие деревья.
- Директор? - слабо произнёс мальчик.
Никто не ответил. Гарри медленно поднялся.
Судя по грязевому следу, он материализовался уже летящим с большой скоростью.
Как же больно.
Почему телепорт сломался?
Если подумать пару секунд, становится очевидно. Вблизи Ритуала Временной Петли разрушается магия. В голове мелькнуло заумное доказательство того, что машина времени не смогла бы решить NP-полную задачу за конечное время, потому что это потребовало бы бесконечной энергии.
Итак, Гарри отстрелило от феникса и Дамблдора. И теперь у него за пазухой куча грязи вперемешку со снегом, и вообще-то это чревато воспалением лёгких. Ладно. Палочка цела? Цела.
- Термос!
На мгновение стало теплее, но лишь на мгновение.
Кошель-скрытень лежал в десяти метрах позади. Память что-то подсказывала про то, как атмосфера отделяет тяжёлые боеголовки от лёгких ложных целей.
- Химическая грелка! Зимняя одежда! - произнёс Гарри, и кошель неспешно откликнулся.
Дорогое устройство пришлось бросить - если магия и дальше будет убывать, скрытень мог взорваться прямо на поясе. Впрочем, перед этим Гарри вытащил все деньги, маховик и мантию. Затем, подумав, достал пистолет.
Затем Гарри побрёл вдоль следа. Всё равно он не знал, куда идти, а так есть хоть какие-то шансы.
Одна нога плохо гнулась, лицо было перепачкано в грязи, а руки дрожали - даже в новой одежде Гарри походил на зомби.
"Вообще-то он хочет воскресить маму", - напомнил внутренний слизеринец, когда Гарри увидел кладбище.
"Он не справится", - ответил когтевранец, - "У него не было времени подготовиться. Он обязательно ошибётся, и тогда сбудется кошмар Малфоев".
"И мы его собираемся застрелить?" - уточнил гриффиндорец, - "Не в бою, а вот так. В спину."
"А мы можем сделать, чтобы у Северуса всё получилось?" - спросил пуффендуец.
"Вообще-то мы не знаем даже суть этого ритуала! Мы прочли этот пергамент трижды, и ничего не поняли", - возмутился внутренний критик, - "А во временную петлю вмешаться мы не сможем. Кста-а-а-ти, а мы вообще помним, что вся это черномагическая ерунда будет проявляться если и только если петля замкнулась? То есть если антимагическая зона уже есть, значит, побочки от ритуала точно будут. А вот основной эффект - не факт."
"Вообще-то ты неправ", - вклинился слизеринец, - "Маховик может повернуть кто-то помимо Снейпа. И условие поворота тогда будет задавать уже он. А чтобы у петли не было вариантов, кому подчиняться, надо, чтобы поблизости был всего один человек."
"А мы точно уверены, что Северус вообще кого-то убьёт своей ошибкой?" - накидывал пуффендуец, - "И где сейчас Дамблдор? Может, ему требуется наша помощь?"
За такими размышлениями Гарри и дошёл до зельевара. Тот стоял у памятника чете Поттеров. Перед могилой стоял маленький столик с ингридиентами для зелий... И над этим столиком воздух будто ломался и выворачивался наизнанку. Перспектива искажалась, складывая реальность в невозможные фигуры.

15
Рецензия интересная, на мой взгляд. А особенно интересно было почитать другие статьи этого автора.
Ну и по критике стандартные претензии: Гарри не вполне рационален (да лаааадно? Это подсвечивается пол-книги), книга под видом рациональности пропагандирует гуманизм (Гарри сам явно подсвечивает, что неэтичный рационалист добьётся большего, чем гуманист).
Впрочем, по моим ощущениям, у Юдковского не совсем соблюдается принцип Юма (из того, что некто рационалист, не следует ничего о его этике) - и это в цепочках. Так что может, автор рецензии в чём-то и прав.
Остальные идеи понравились - и про "Тёмную сторону", и про то, что исследование генов было слабеньким, и про то, что Гарри недостаточно влетал в этические конфликты

Страницы: [1] 2 3 ... 6