Хай всем.
Вот типа учу эту вашу рациональность по Юдковскому, пытаюсь понять
Вопрос по теории принятия решений - нафига нужна вневременная теория Юдковского, чем она круче и как ей вообще пользоваться.
lesswrong.ru/w/Парадокс_Ньюкома_сожалея_о_своей_рациональностиТам про причинников
Я сейчас не буду глубоко погружаться в литературу, но замечу, что преобладающее мнение в современной теории принятия решений гласит, что следует выбрать оба ящика, а Омега просто вознаграждает агентов с нерациональными установками. Эта доминирующая точка зрения берет свое начало из причинной теории принятия решений
Я говорю это потому, что общепринятая позиция гласит: «Словесные аргументы в пользу того, чтобы брать один ящик, отыскать легко, но трудно разработать хорошую теорию, которая этого требует».
Про конкретного причинника Джеймса Джойса
- Если его прогон не стёб, то это сильное свидетельство в пользу того, что он долбоёб
Топовые методы рационального убеждения:
- капс, капс курсивом, жирный капс
- Верите ли вы или нет, но это так.
Толстый троллинг Юдковским причинников
и т.п.
Я не знаю, как там думают большинство причинников, но с моей т.з. то, что Омега предсказывает какого-то чела, не нарушает принципа причинности.
Если смотреть со стороны Омеги:
- Есть реальный мир, который Омега напрямую воспринимать не может. Омега строит модель, и выделяет предсказываемого чела. Потом он эмулирует этого чела у ся в сандбоксе и получает некоторый вывод (причём не обязательно просто "чел выберет Б" (это минимум), он может, по идее, предсказывать все возбуждения-торможения нейронов в коре головного мозга (или вообще во всей ЦНС) чела). Проэмулировал чела, положил (или не положил) лям и утёк.
Если смотреть со стороны того предсказываемого чела:
- Есть реальный мир, который предсказываемый чел напрямую воспринимать не может. Он строит модель, выделяет там себя. Детерминистически предсказать себя на детальном уровне он не может, поэтому у него возникает иллюзия свободы воли. Потом он думает, нейроны возбуждаются-тормозятся и т.п., и говорит некий ответ, в данном случае Б.
Так вот, у чела была иллюзия выбора и свободы воли, в то же время, так как он всё же представляет собой детерминистический конечный автомат (и он, и комната, где ящики выбирал, и всё остальное), то все его действия были заранее предопределены и выводимы, но неизвестны ему. Таким образом, если спросить, какова вероятность, что конкретно этот чел ответил бы "Б", то она будет зависеть от наших знаний: если знаний у нас 0, то байесианская 1:1, т.е. 50%. Если же мы смотрим с позиции Омеги, то вероятность 100%* или около 100% (указана в условии). Если же мы смотрим с позиции демона Лапласа, то у нас всегда будут твёрдые 100%*. Причём проблемы самореференции могут быть у демона Лапласа, расположенного
в той же вселенной, которую предсказывает и у предсказываемого чела, но не у Омеги, т.к. омежьи действия на чела (до его выбора) никак не влияют.
* ну понятно, что эпсилон и всё такое, вроде уверенности в своей системы, но эти практические замечания не важны вообще.
В результате, как буду мыслить я:
- Точность предсказания Омеги составляет 100% или около 100%, на него стоит положиться. Я ещё не знаю свой финальный выбор, но Омега уже знает. Значит, каким бы ни был мой выбор, модель меня в сандбоксе Омеги уже прошла все метания и как-то ответила, и правильность её ответа зависит только от похожести на меня, т.е. точности модели. Но т.к. у меня этой информации нет, у меня есть иллюзия свободы выбора (впрочем, если бы информация появилась до выбора, ситуация бы нарушилась из-за самореференции (т.к. модель предсказывала тот мир, где ей не говорят о предыдущем предсказании)). В то же время я могу просмотреть соответствие принципу причинности и проверить правильность своих рассуждений: нарушения принципа причинности нет (модель-то была до меня (возможно, это была даже копия, и возможно, он её уже ̶у̶б̶и̶л̶ отключил - подлец, подонок, садист... потом допла́чу)), значит ошибок такого рода тоже нет. Действуя в своих интересах и полагаясь на модель Омеги, я выбираю Б.
Причина, по которой запарывалось большинство причинников (в изложении Юдковского, а это не то же самое, что на самом деле), мне кажется простой: у этих ебанатов не укладывалось в голове, что кто-то может их взять ̶ж̶ё̶с̶т̶к̶о̶ ̶и̶ ̶б̶о̶л̶ь̶н̶о̶ и предсказать.
Но Юдковский пошёл дальше и запилил свою теорию, хотя мог примкнуть к меньшинству причинников (которые считают иначе).
Он, как я понимаю, топит за то, что надо проводить стрелку из будущего в прошлое и таким образом разрешать этот самый парадокс Ньюкома. Что, типа, чел
своим выбором решает, положит Омега лям или нет (но это ложь,̶ ̶п̶и̶з̶д̶ё̶ж̶,̶ ̶п̶р̶о̶в̶о̶к̶а̶ц̶и̶я̶ - на самом деле решает модель; вспоминается на эту тему рассказ Деннета, где чел был поселён в одно тело с собственной копией, причём он был только наблюдателем, но он не замечал этого, пока они не рассинхронизировались).
Но, в некотором смысле, стрелки назад и так проводят: по ТПР возможны стрелки вперёд, назад, хрен знает куда и т.п. (например, в попытках предсказания в шпионских играх: он знает, что мы знаем, что он знает, что мы украли секретную инфу. Но что мы это знаем, он не знает. Или успешно делает вид). А потом по принципу причинности проверяем.
Если это согласуется с причиннизмом, то большинство причинников неправо, меньшинство право, и непонятно, что же Юдковский открыл.
Если нет, тогда с причинной моделью всё плохо: парадокс Ньюкома - крайний случай саморефенции, но сама по себе самореференция встречается постоянно за счёт попытки предсказаний действий друг друга.
И непонятно, есть ли в модели Юдковского проверка потом на принцип причинности. Если нет - это огромная течь, и как юзать на практике непонятно.
Поможете-разъясните, кто там прав, кто виноват, как что юзать и какая я дрянь?