Элиезер и парадокс Ньюкома

Автор Тема: Элиезер и парадокс Ньюкома  (Прочитано 39271 раз)

Scondo

  • Ветеран
  • ****
  • Сообщений: 321
  • +35/-4
    • Просмотр профиля
Re: Элиезер и парадокс Ньюкома
« Ответ #45 : 04 Ноября 2015, 12:47 »
  • (+)0
  • (−)0
  • Если вы живёте во вселенной в которой "водители умеют предсказывать предательские действия", то разумный консеквенционалист никогда не станет действовать согласно стратегии неблагодарного эгоизма. Консеквенционалист станет вести себя как неблагодарный эгоист тогда и только тогда, когда водители в этой вселенной не умеют предсказывать поведение неблагодарных эгоистов.
    Здравствуй, родная дилемма бандита, давно не виделись. Для полного соответствия не хватает только чтобы у нас было две кредитные карточки: с деньгами и без и одну из них мы бы давали водителю.

    Поскольку водители не умеют предсказывать ничьё поведение, то "разумным" является дать ему карточку без денег; одновременно со стороны водителя "разумным" является не везти нас никуда, поскольку получив карточку ему не важно повезёт он нас или нет.
    Поэтому ситуация и считается парадоксальной: хотя каждый поступает вроде "разумно" в итоге оба остаются в проигрыше.

    В многократном повторении (повторяющаяся дилемма заключённого) альтруизм получает подтверждение в виде "репутации" и "сотрудничество" становится доказуемо эффективным поведением (аналогично "одностороннему" парадоксу Ньюкома, где у нас есть N свидетельств правоты Предсказателя).
    Эффективное решение однократного парадокса мне неизвестно, но он остаётся парадоксом: поступая "локально разумно" мы приходим к глобально неоптимальному решению.

    Панда

    • Гость
    Re: Элиезер и парадокс Ньюкома
    « Ответ #46 : 04 Ноября 2015, 13:17 »
  • (+)0
  • (−)0
  • одновременно со стороны водителя "разумным" является не везти нас никуда, поскольку получив карточку ему не важно повезёт он нас или нет.
    Если не важно, везти или нет, то почему разумным будет не везти?

    kuuff

    • Старожил
    • *****
    • Сообщений: 2 133
    • +220/-52
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #47 : 04 Ноября 2015, 13:52 »
  • (+)0
  • (−)0
  • Поскольку водители не умеют предсказывать ничьё поведение, то "разумным" является дать ему карточку без денег
    Фишка в том, что они умеют. Они не умеют предсказывать поведение окружающих со 100% достоверностью -- это да. Но при этом водители постоянно сталкиваются с просьбами подвезти, в том числе и под обещание заплатить на месте -- мол "дома деньги лежат, приедем когда, я сбегаю вынесу." И постоянная практика в этих вопросах приводит к тому, что водители могут предсказывать поведение пассажира лучше, чем не-водители.
    Несоглашусь. Если субъект знает что все его будущие планы автоматически раскрываются контрагенту и всё равно планирует предательство, то этот субъект не консеквенционалист, а дурак.
    Подумайте о том, как должен рассуждать консеквенциалист, когда его привезли к банку и ждут от него выполнения обещания. Вы увидите, что в пользу выполнить обещание у него будет в лучшем случае какая-то смутная и неопределённая капелька репутации консеквенциализма. А на другой чаше весов вполне реальная тысяча долларов. Почему вы вдруг решаете, что капелька репутации окажется весомее тысячи долларов? Мне это весьма неочевидно. Я допускаю, что это так, и я знаю, что в ряде реальных ситуаций это именно так. Но вот мне не кажется, что это может сработать в единичной ситуации спасения из пустыни. Да, если такое случается с нами раз в неделю, то конечно мы будем платить по счетам. Но если мы уверены в том, что это случилось первый и последний раз: почему мы должны платить тысячу долларов?
    То же в парадоксе Ньюкомба: если консеквенциалист уже знает, что деньги разложены по коробкам так, как они разложены, и что никакие его действия уже не смогут изменить расклада, то почему он должен отказываться от коробки с тысячей долларов?
    Консеквенциализм может сказать, что надо "платить по счетам" или "выполнять обещания" только тогда, когда есть серьёзная вероятность того, что отказ платить приведёт к негативным последствиям. Но в ситуации, когда таких последствий не вытекает, консеквенциализм говорит "не платить и не выполнять" -- на то он и консеквенциализм. И именно это приводит к тому, что консеквенциалист, столкнувшись с чисто эгоистичным спасателем, умрёт в этой пустыне. И не потому, что он не готов заплатить тысячу долларов за спасение, а потому, что он не будет готов платить эту тысячу долларов после того, как он будет спасён. Откуда собственно и претензии к консеквенциализму, как теории принятия решений, потому что такие нюансы поведения очевидно противоречивы.

    Поэтому в нашей вселенной, за всю историю времени, не было заключено ни единой полноценной корыстной сделки на вывоз человека из пустыни. Все имеющиеся прецеденты вывоза человека из пустныни всегда опирались на альтруизм водителя и на слабую надежду ответной благодарности.
    Конечно. И именно поэтому в данной задачке альтуизм водителя исключён как фактор. Чтобы он не мешал видеть основную проблему. Альтруизм -- это тоже способ принятия решений, и очень хочется включить его частью в теорию принятия решений.
    На самом деле это всё варианты дилеммы заключённого, когда кооперация будет полезной для обоих участников, но если один кооперируется, а другой -- нет, то этот другой выигрывает больше. Тут надо понять, что все эти задачки, на самом деле модели реальных ситуаций, и надо понять, какие именно свойства реальных ситуаций моделируются. Что в парадоксе Ньюкомба, что со спасением из пустыни, моделируется тот факт, что наше поведение предсказуемо для окружающих. Не со 100% достоверности, как в случае Предсказателя, но тем не менее с какой-то достоверностью, которая как правило выше чем при случайном выборе.
    Если мы попытаемся парадокс Ньюкомба реализовать в реальности, то мы можем разработать методику психологического тестирования, на основании которого мы будем пытаться предсказать поведение человека. Естественно при этом мы скроем методику, или запутаем её так, чтобы участники не могли бы предсказать, как их то или иное поведение в процессе тестирования повлияет на появление миллиона долларов в коробке. И вот, представьте себе теперь, что человек, пройдя тестирование, стоит перед коробками. Он знает что никакой мистики нет, доллары либо лежат, либо нет. Он знает, что играет в подобную игру в первый и последний раз. Должен ли он выбирать обе коробки или только одну?
    В реальности и со спасением из пустыни будет примерно то же. Наш потенциальный спасатель будет, говоря с нами, пытаться угадать насколько мы склонны держать слово, насколько нами может двигать благодарность за спасение -- он будет высматривать в нас какие-то наши свойства, которые явятся причиной того, что мы заплатим ему за спасение, когда в общем-то это уже будет необязательным. И в данном случае не важно каким образом он будет предсказывать наше поведение -- может быть он достанет детектор лжи и начнёт задавать вопросы, а может он заставит нас спустить штаны и посмотрит нет ли у нас на заднице татуировки "I'm in love with consequentialism". Важно то, что он будет пытаться предсказывать наше поведение, и его предсказания будут точнее, чем подкидывание монетки.

    Задачки доводятся до абсурда, до вероятности предсказания равной 100%, с единственной целью -- избавить задачку от всех вмешивающихся факторов, чтобы сразу было видно как теория принятия решений имеет дело с изучаемой проблемой. В данном случае с учётом того факта, что наше поведение с той или иной достоверностью предсказуемо для окружающих.

    Выводить задачки из зоны абсурда тоже имеет смысл, но мне кажется только тогда, когда у нас уже есть какая-то методика принятия решений, которая в абсурдной ситуации даёт правильный ответ. Вот тогда уже надо взять и посмотреть, что эта методика будет давать правильные ответы в окрестности абсурда и во вполне реальной ситуации. Потому что ведь в каком-то случае может будет выгодно обмануть своего спасителя? Такой случай надо обязательно найти, надо нащупать границу между ним и случаем когда не выгодно, и убедиться что теория принятия решений хорошо эту границу видит. Это уже будет переход от качественных рассуждений к количественным.

    Scondo

    • Ветеран
    • ****
    • Сообщений: 321
    • +35/-4
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #48 : 04 Ноября 2015, 14:24 »
  • (+)0
  • (−)0
  • Выводить задачки из зоны абсурда тоже имеет смысл, но мне кажется только тогда, когда у нас уже есть какая-то методика принятия решений, которая в абсурдной ситуации даёт правильный ответ. Вот тогда уже надо взять и посмотреть, что эта методика будет давать правильные ответы в окрестности абсурда и во вполне реальной ситуации.
    Традиционно считается наоборот: если теория работает в неабсурдных ситуациях - она уже работает достаточно хорошо, но мы проверяем наши теории на абсурдные ситуации чтобы убедится, что они не дадут сбой при выходе за границы "повседневной разумности".

    Так байесовский механизм принятия решений будет хорош практически для всех ситуаций, кроме той, где у нас не хватает свидетельств (однократная дилемма бандита/парадокс Ньюкома). Это не значит, что мы должны отказаться от байесовского основания этики, но значит, что, возможно, существует лучшее решение.

    kuuff

    • Старожил
    • *****
    • Сообщений: 2 133
    • +220/-52
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #49 : 04 Ноября 2015, 15:14 »
  • (+)0
  • (−)0
  • Традиционно считается наоборот: если теория работает в неабсурдных ситуациях - она уже работает достаточно хорошо, но мы проверяем наши теории на абсурдные ситуации чтобы убедится, что они не дадут сбой при выходе за границы "повседневной разумности".
    Ну, я не знаю, как там "традиционно" принято. Мой опыт показывает, что если "традиционно" действительно так принято, то от этих традиций следует отказаться. Когда мне приходится сочинять алгоритмы, я проверяю свои идеи в первую очередь на различных вырожденных случаях входных данных. На вырожденных проверять проще, как правило это делается влёгкую в уме, и в уме же можно отследить как, что и почему сделает алгоритм. В то время как более сложные случаи подчастую требуют уже запуска программы, реализующей алгоритм. Более сложные случаи требуют высокой степени детализации входных данных, иначе множество вопросов возникающих в процессе работы алгоритма остаётся без конкретных ответов, придётся рассматривать разные варианты возможных ответов, дерево вариантов ветвится, перестаёт помещаться в голове, мозги плавятся... И как обидно, если после всего этого выясняется, что неработоспособность алгоритма можно было показать проверив его на вырожденном и доведённом до абсурда случае.
    Нужны простые и понятные примеры. В идеале проверяющие какие-то отдельные выбранные свойства алгоритма. Или которые легко проверить. И случаи доведённые до абсурда как правило оказываются в списке этих самых простых и понятных примеров.

    Так байесовский механизм принятия решений будет хорош практически для всех ситуаций, кроме той, где у нас не хватает свидетельств (однократная дилемма бандита/парадокс Ньюкома). Это не значит, что мы должны отказаться от байесовского основания этики, но значит, что, возможно, существует лучшее решение.
    Может быть. Но если теория принятия решений фейлится, значит надо искать что-то лучшее. Отказываться до того как что-то лучшее найдено, конечно же, будет преждевременным. Но как только найдено, так сразу.

    nadeys

    • Старожил
    • *****
    • Сообщений: 1 028
    • +48/-52
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #50 : 04 Ноября 2015, 19:34 »
  • (+)0
  • (−)0
  • Поэтому ситуация и считается парадоксальной: хотя каждый поступает вроде "разумно" в итоге оба остаются в проигрыше.
    Эмм... невозможно быть в проигрыше, если ты изначально не имел никакого шанса получить корыстную оплату за спасение.

    Вы думаете что на момент посадки пассажира, выбор водителя:
    - потратить бензин и не получить ничего
    - заработать деньги

    Но это не так:
        В сферической в вакууме ситуации водитель априори полагает что встреченный мужик является консеквенционалистом, поэтому его поле выбора:
        - не тратить бензин и не получить ничего
        - потратить бензин и не получить ничего
        Т.е. у водителя нет шанса получить выигрыш и следовательно нет ни малейшего смысла рассматривать эту ситуацию как корыстный обмен.

        В несферической в вакууме ситуации водитель также априори полагает что встреченный мужик является консеквенционалистом, но также учитывает и фактор альтруизма, и следовательно поле выбора преображается:
        - не тратить бензин и не получить ничего
        - потратить бензин и не получить ничего кроме надежды на альтруистичное вознаграждение


    Т.е. нет никакого парадокса, есть просто фактор наличия/отсутствия Альтруизма у встреченного мужика.

    Добавлено [time]04 Ноябрь 2015, 19:53[/time]:
    Эффективное решение однократного парадокса мне неизвестно, но он остаётся парадоксом: поступая "локально разумно" мы приходим к глобально неоптимальному решению.
    Как-то это слишком просто.

    Вырубая деревья мы тоже поступаем "локально разумно" и в конечном итоге мы тоже приходим к глобально неоптимальному решению. Однако это никого не волнует потому что противоречие краткосрочных и долгосрочных стратегий это в общем обычное дело.
    « Последнее редактирование: 04 Ноября 2015, 20:10 от nadeys »

    Scondo

    • Ветеран
    • ****
    • Сообщений: 321
    • +35/-4
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #51 : 05 Ноября 2015, 00:14 »
  • (+)0
  • (−)0
  • Эмм... невозможно быть в проигрыше, если ты изначально не имел никакого шанса получить корыстную оплату за спасение.
    Нет-нет. Каждый человек остаётся в выигрыше (это я и назвал "локальной" оценкой), но вот двое в сумме - оказались в проигрыше (глобально)

    Я специально модифицировал задачу так, чтобы получение денег было не связано с поездкой. Тогда у водителя вообще нет никакого мотива нас везти: взял карточку и был таков. И у нас нет резона давать ему карточку с деньгами(или там сообщать правильный пин): повезёт он нас или нет не зависит от того дали бы карточку с деньгами или без.
    А в итоге сидим мы как два дурака посреди пустыни и без денег.

    Мой опыт показывает, что если "традиционно" действительно так принято, то от этих традиций следует отказаться. Когда мне приходится сочинять алгоритмы, я проверяю свои идеи в первую очередь на различных вырожденных случаях входных данных.
    Вы путаете алгоритмы и стратегии. Так для задачи двух армий алгоритмического решения нет и быть не может. В то же время мы можем выработать некоторые стратегии, которые обеспечат достаточное решение (например отправят этот комментарий на сервер).

    kuuff

    • Старожил
    • *****
    • Сообщений: 2 133
    • +220/-52
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #52 : 05 Ноября 2015, 01:06 »
  • (+)0
  • (−)0
  • Вы путаете алгоритмы и стратегии. Так для задачи двух армий алгоритмического решения нет и быть не может. В то же время мы можем выработать некоторые стратегии, которые обеспечат достаточное решение (например отправят этот комментарий на сервер).
    Я отмечу, сейчас нас понесло куда-то в сторону. Составление алгоритмов было приведено для примера. Я могу разобрать ещё один пример -- составление стратегий, -- и показать на нём важность исследования стратегий на вырожденных случаях. В случае двух армий я бы предложил а) нам катастрофически везёт и все посыльные достигают цели; б) нам феерически невезёт, и ни один посыльный не достигает цели. Кроме того, я могу найти пример откуда-нибудь со стороны, скажем, взять задачу экспериментальной проверки гипотезы, и показать важность первоначальной умозрительной проверки этой гипотезы на простых случаях, в том числе и вырожденных случаях, поддающихся умозрительному анализу. Или есть такая задача матанализа, которую изучают в школе -- исследование функции, так вот это исследование целиком и полностью крутится вокруг "вырожденных" случаев, вокруг тех иксов, которые при подстановке в функцию дают неопределённость. Но может мы опустим разбор всех этих случаев?

    Komandos

    • Ветеран
    • ****
    • Сообщений: 456
    • +14/-21
    • Осторожно! Сказанное может заставить вас думать.
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #53 : 23 Декабря 2015, 14:52 »
  • (+)0
  • (−)0
  • В своих статьях Элиезер пишет о парадоксе Ньюкома, противопоставляя рациональное решение традиционному. Я бы хотел поговорить об этом.

    Описание в википедии:
    ...
    ...
    ...
    А вы что думаете?
    Из парадокса следует, что: любая стратегия поведения, которую может предсказать ваш оппонент - перестает быть эффективной.
    И раз существует некое существо, способное с вероятностью около 100% предсказать ваше поведение, то вы превращаетесь в объкт манипуляции.
    Пример: Едут в одном вагоне четверо программистов и четверо пользователей. У пользователей четыре билета на четверых, а у программистов один. Приходит пора предъявлять билеты. Программисты запираются в туалете, приходит контролер. Стучится, из туалета высовывается рука и протягивает билет. Контролер уходит. Пользователи все видят и им завидно. Едут все те же пользователи и программисты обратно. Но на этот раз у пользователей один билет на четверых, а у программистов - ни одного. Приходит пора проверки билетов. Пользователи запираются в туалете. Приходит один из программистов и стучится в дверь. Ему высовывают билет. Он берет билет, программисты запираются в другом туалете. Приходит контролер...
    Мораль: любая стратегия поведения, которую может предсказать ваш оппонент - перестает быть эффективной.

    kuuff

    • Старожил
    • *****
    • Сообщений: 2 133
    • +220/-52
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #54 : 24 Декабря 2015, 16:30 »
  • (+)0
  • (−)0
  • Из парадокса следует, что: любая стратегия поведения, которую может предсказать ваш оппонент - перестает быть эффективной.
    И раз существует некое существо, способное с вероятностью около 100% предсказать ваше поведение, то вы превращаетесь в объкт манипуляции.
    Так уж и перестаёт быть эффективной? Если бы Предсказатель не мог бы предсказать, то не было бы парадокса, и он бы не начал троллить людей предлагая им сыграть в игру, и не было бы возможности выиграть миллион. Хорошо это или плохо? ;)

    Пример: Едут в одном вагоне четверо программистов и четверо пользователей. У пользователей четыре билета на четверых, а у программистов один. Приходит пора предъявлять билеты. Программисты запираются в туалете, приходит контролер. Стучится, из туалета высовывается рука и протягивает билет. Контролер уходит. Пользователи все видят и им завидно. Едут все те же пользователи и программисты обратно. Но на этот раз у пользователей один билет на четверых, а у программистов - ни одного. Приходит пора проверки билетов. Пользователи запираются в туалете. Приходит один из программистов и стучится в дверь. Ему высовывают билет. Он берет билет, программисты запираются в другом туалете. Приходит контролер...
    Мораль: любая стратегия поведения, которую может предсказать ваш оппонент - перестает быть эффективной.
    Вы однобоко смотрите на проблему. В случае беспринципной конкуренции -- да действительно, любая возможность предсказать моё поведение невыгодна мне. Но в случае кооперации всё с точностью до наоборот: чем лучше я предсказуем для окружающих, тем лучше: нам меньше приходится тратить времени и усилий на коммуникации, согласования, пересогласования, на установления порядка принятия решений и прочую лабуду. Если мы все мыслим одинаково и абсолютно предсказуемо друг для друга, то любой из нас может принять любое решение за всех, и в этом случае вообще не нужны никакие накладные расходы на поддержание иерархии, которая позволит выполнять управление нашим коллективом, и согласование наших действий.
    А чтобы жить мёдом не казалась, я отмечу что в очень многих реальных ситуациях одновременно есть как элементы кооперации, так и элементы конкуренции, поэтому ни стопроцентная предсказуемость, ни стопроцентная непредсказуемость не являются чем-то хорошим во всех этих ситуациях.

    И, между прочим, я вижу парадокс Ньюкомба как раз пример именно такой ситуации. С одной стороны кооперация: человек добровольно входит в игру, добровольно принимает правила игры, человек кооперируется с Предсказателем. С другой стороны конкуренция за лишнюю тысячу баксов. И если бы этот парадокс был бы не выдумкой, но фактом истории, то мы могли бы утверждать практически определённо, что в альтернативной вселенной где Предсказатель не мог бы предсказать поведение человека, не было бы такого факта истории, потому что скорее всего предсказуемость человека была одним из факторов сподвигнувших Предсказателя на организацию подобной игры.

    Я могу привести и иной пример. Жёсткая позиция Великобритании по отношению к террористам: никаких переговоров. Эта позиция предохраняет Великобританию от террористов, которые захватывают самолёт и начинают предъявлять какие-либо требования: террористы заранее знают, что их требования никто не услышит. Поэтому они не захватывают самолёт с британскими подданными. Кстати это неплохо было показано в ГПиМРМ: Дамблдор отказывался платить выкуп за заложника, причём он отказывался только для того, чтобы быть предсказуемым, чтобы любой, кому придёт в голову афёра с захватом заложника и требованием выкупа, мог бы заранее предсказать, как отреагирует на это Дамблдор. Я не уверен, что в этом примере можно найти элементы кооперации, которые и объясняют выгоду от предсказуемости, но даже если и нельзя, то это значит, что даже в случае чистой конкуренции при нулевой кооперации иногда бывает полезным быть предсказуемым.

    YbiVan

    • Пользователь
    • **
    • Сообщений: 65
    • +0/-0
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #55 : 25 Декабря 2015, 02:40 »
  • (+)0
  • (−)0
  • kuuff, В парадоксе Ньюкома я не вижу никакой выгоды для Пророка, однако вижу выгоду для Игрока. Говорить о кооперации/конкуренции не зная целей Пророка бессмысленно.
    Что касается второго примера это не чистая конкуренция. При чистой конкуренции переговоры между сторонами не имеют смысла, ибо любое соглашение дает преимущество одной из сторон. В жизни вообще крайне мало примеров чистой конкуренции. Зато практически любая игра 1 на 1 (команда на команду) где каждого интересует только победа, является отличным примером чистой конкуренции, и любая предсказуемость снижает шансы на победу.

    Tachkin

    • Постоялец
    • ***
    • Сообщений: 102
    • +2/-1
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #56 : 25 Декабря 2015, 08:05 »
  • (+)0
  • (−)0
  • Что касается второго примера это не чистая конкуренция
    Террористические действия имеют долю кооперации? При захвате заложников присутствуют частичное пересечение целей террористов и правительства? О_о

    Scondo

    • Ветеран
    • ****
    • Сообщений: 321
    • +35/-4
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #57 : 25 Декабря 2015, 08:38 »
  • (+)0
  • (−)0
  • При захвате заложников присутствуют частичное пересечение целей террористов и правительства? О_о
    А что вас удивляет?
    Да и террористы и правительство хотели бы иметь заложников на свободе. Только первые - при выполнении своих условий, а вторые - без. Заложники как самоцель нужны разве что политическим террористам, которые будут использовать убийство для собственно наведения страха, но это уже не сценарий "заложники" это сценарий "жертвы".

    kuuff

    • Старожил
    • *****
    • Сообщений: 2 133
    • +220/-52
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #58 : 25 Декабря 2015, 10:09 »
  • (+)0
  • (−)0
  • kuuff, В парадоксе Ньюкома я не вижу никакой выгоды для Пророка, однако вижу выгоду для Игрока. Говорить о кооперации/конкуренции не зная целей Пророка бессмысленно.
    Мы не видим выгоды для Пророка, но при этом следует отметить, что мы вообще не видим его целей. Мне кажется достаточно разумным предположение, что какие-то цели у Пророка всё же есть. И идя к этим неведомым целям, Пророк сотрудничает с людьми. Да, может быть он ими манипулирует, и им же от этого будет хуже потом. Но даже если так, на данном этапе мы наблюдаем кооперацию.

    Что касается второго примера это не чистая конкуренция. При чистой конкуренции переговоры между сторонами не имеют смысла, ибо любое соглашение дает преимущество одной из сторон. В жизни вообще крайне мало примеров чистой конкуренции. Зато практически любая игра 1 на 1 (команда на команду) где каждого интересует только победа, является отличным примером чистой конкуренции, и любая предсказуемость снижает шансы на победу.
    Да, я тоже так думаю. Но даже игра будет примером чистой конкуренции, только если мы эту игру рассматриваем в отрыве от реальности. Игра заточена на то, чтобы её рассматривали в отрыве от реальности, она создана как искусственная модель конкуренции, но она будет чистой конкуренцией если мы искусственно ограничим себя рамками этой искусственной модели.
    Но если мы рассмотрим игру внутри более сложных взаимоотношений в социуме, как часть этих более сложных взаимоотношений, то мы увидим, что игроки любой игры взаимно признаЮт и соблюдают правила игры. То есть игра в футбол невозможна без исходного всеобщего соглашения относительно правил. Бокс был бы боями без правил, если бы боксёры не шли бы на кооперацию и не отказывались бы взаимно от ударов ниже пояса. Да даже бои без правил, я полагаю, не обходятся без каких-нибудь правил, типа "не убий". Представьте себе футбол без правил. Что бы творилось на поле?

    Террористические действия имеют долю кооперации? При захвате заложников присутствуют частичное пересечение целей террористов и правительства? О_о
    Да, конечно. Террористы пытаются вынудить правительство кооперировать и заплатить выкуп за заложников. А если правительство пошло на переговоры, то переговорщики пытаются вынудить террористов кооперировать.
    Ну или если глянуть на захват заложников в ГПиМРМ, то кончилось это тем, что Дамблдор и Волдеморт пришли к негласному соглашению "заложников не брать", что для меня тоже выглядит как пример кооперации. Так же, как, допустим, конвенции о содержании военнопленных или неиспользовании каких-то видов вооружения -- это тоже кооперация, своего рода. Дамблдор открыто придерживается определённых правил, чтобы Волдеморт не брал заложников. Волдеморт понимает, что делает Дамблдор и добровольно не берёт заложников, как того хочет Дамблдор. Может быть ярлык "кооперация" на таких взаимоотношениях будет притянут за уши, но в этом есть что-то от кооперации.

    На деле, быть может, это деление всех отношений на кооперацию и конкуренцию слишком узкий подход. А может и нет. Во всяком случае я его только здесь придумал и не вижу нужды отстаивать как универсальную модель для человеческих отношений. Моя цель сводится к тому, чтобы показать что сведение всех взаимоотношений между людьми к конкуренции -- это ещё более узкий подход.

    Quilfe

    • Ветеран
    • ****
    • Сообщений: 282
    • +51/-7
      • Просмотр профиля
    Re: Элиезер и парадокс Ньюкома
    « Ответ #59 : 28 Декабря 2015, 03:25 »
  • (+)0
  • (−)0
  • Навеяно дискуссией про "вневременное принятие" решений в теме про эмиграцию, либерализм и уплату налогов.

    Придумал еще более ясный пример, чем парадокс Ньюкома, в котором твои решения влияют на то, на что "причинно" они влиять не могут, по сути концентрированный случай "общества рационалистов".

    Представьте, что вы только что были скопированы, и знаете, что в соседней комнате сидит точная ваша копия (или вы - точная копия, в общем, вы равнозначны). Вы еще ни о чём не успели поговорить, и вы не думали о возможных стратегиях поведения в случае, если такое случится, до того, как это произошло.

    Затем вам объясняют условия: вы (оба экземпляра) находитесь в тюрьме (полиция не поняла, что за ерунда - два идентичных человека с одним на двоих паспортом и имененм), и, чтобы выбраться, вам нужно отправить сообщение своему адвокату (который сможет объяснить, что за эксперимент произошел), заплатив 10 $ за звонок (с деньгами у вас небогато). Половина ваших денег лежит у другого вас, и он стоит ровно перед тем же выбором. Никак связаться с ним вы не можете, никакого входящего сообщения ни от него, ни от адвоката получить нельзя тоже; условия, в которых находится другой ваш экземпляр, идентичны. Но чтобы обе ваши копии освободили, достаточно сообщения от кого-то одного.

    Потратите ли вы деньги на сообщение?

    Независимо от того, какое решение вы примете, вы можете на 99,99% быть уверены, что ваша копия примет точно такое же решение. Это же ваша копия, которая почти не отличается от вас (она возникла буквально перед заключением), и вы не успели получить никакую разную информацию и опыт.

    (На самом деле, вместо этой ситуации можно взять классическую дилемму заключенного для ваших дублей, но тогда придется убрать из вашей функции полезности заботу о другой своей копии.)

    Вы можете думать: так, очевидно, надо, чтобы кто-то из нас написал адвокату, значит, стоит это сделать. Но другой я думает точно так же, значит, он напишет, и я могу не звонить; стоп, он подумает ровно это же, значит, надо написать... Вы не можете просто отнестись к этому другому как к внешней реальности и оценить вероятность того, как поступит он, чтобы принять решение, потому что эта цепочка мыслей будет буквально соответствовать его цепочке, и не получится ее аппроксимировать - ваша система мышления должна строго включать себя как подсистему, что просто невозможно. Но если думать о том, что ваше решение определяет решение другого, это будет работать, даже если звучит более дико, чем пре-оценка поведения другого. Тогда вы решите: так, мы либо оба напишем, либо оба нет, очевидно, первый вариант лучше, чем второй, хотя деньги и уйдут два раза, значит, мне нужно написать, и он решит так же. И тогда вы пишете адвокату: "Элиезер, извини, что отвлекаем, но, кажется, местным полицейским нужно объяснить, что такое копирование личности". (А потом находим номер "Кочерги" в телефонной книге и пишем: "Слава, положи в коробочку предсказание: каждая из наших копий отправит сообщение Элиезеру и это сообщение или близкое к нему по разу - 99 к 1. Как освободимся, постараемся прийти и продемонстрировать кое-что про Timeless decision theory, уверены, что это будет интересно".)

    Процесс принятия решений в такой ситуации выглядит как поиск решения, а не следование чему-то уже найденному, как возможность произвольно выбрать подходящий вариант. Но при этом причинность вполне реальна, просто она проходит через прошлое: мозг уже содержит в себе алгоритм, как он будет решать такую ситуацию. Выглядит ли это парадоксальным? Да. Противоречиво ли это на самом деле? Нет. Верно ли ощущение возможности выбрать произвольно? Можно ответить по-разному, но, я думаю, да; наличие вашей копии не перемещает вас в другую вселенную, где вместо принятия решений вы начинаете следовать детерминизму, и вам кажется, что вы принимаете решение, вместо настоящего решения; на самом деле, вы всегда жили в такой вселенной. Мне не кажется полезным думать о детерминированности изнутри в данном ключе (тогда вы можете вообще ничего не делать, потому что всё равно всё детерминировано; мне трудно объяснить правильное, как мне кажется, восприятие соотношения "свободы воли" и "предопределенности", но я как-то его чувствую), скорее о том, что вы действительно выбираете, и ваш выбор действительно определяет выбор, который делает ваша копия.

    У меня все еще есть чувство парадоксальности, когда я думаю об этом, но, я полагаю, это можно преодолеть.