Просмотр сообщений - Ved

Просмотр сообщений

В этом разделе можно просмотреть все сообщения, сделанные этим пользователем.


Сообщения - Ved

Страницы: [1] 2
1
Цитировать
Тут идет речь о том, что Гарри был абсолютно уверен, что Шляпа не отправит его в Слизерин.

Ну так? Потому что он считал, что Шляпа просто отражает его мышление и не может сделать что то совсем расходящееся с его желаниями.

2
Могу умозрительно доказать, что у вас есть страх смерти:

Вам предлагают коснуться волшебного аппарата, который с 99,9% вероятностью выдает вам миллион долларов, а с вероятностью 0,1% превращает вас в высокотемпературную плазму так, что вы ничего не успеете осознать. Другие испытуемые проходят и забирают свой миллион долларов, а вы нет. Почему?

3
Сходу найденный пример:
Какие недоказанные допущения? Что именно он понял?

Допущения - Шляпа использует интеллектуальные способности носителя, а не обладает собственным разумом или подобием онного.
Понял, что не проверил это допущение, и Шляпа может хранить собственные знания или бекап чужих.

Элементарно, Ватсон.

4
Общение / Re: Как выбраться из иллюзии?
« : 14 Ноября 2016, 00:20 »
Цитата: Skywrath
Здесь, я имею в виду любое воздействие на психику, которое глубже, чем просто контроль непосредственного восприятия. То есть, именно то, что и является иллюзией. Грубо говоря, иллюзия не позволяет вам доверять своим ощущениям, но ваша аутентичность мыслей и логики - полностью сохраняется. Когда есть воздействие на сознание, то даже им становится нельзя доверять.

Очень тонкая грань получается, любые психоактивные вещества это воздействие на психику, соответствующее вашему определению, но они присутствуют повсюду вокруг вас.

5
Общение / Re: Как выбраться из иллюзии?
« : 12 Ноября 2016, 12:45 »
Цитата: Skywrath
Когда происходит прямое воздействие на психику, то вы уже пытаетесь не выбраться из иллюзии, а пытаетесь преодолеть контроль сознания, что на порядок более сложная задача. То же самое касается и вашего примера, патология суждений - гораздо более серьёзная проблема, чем простой обман чувств. Из иллюзии можно выбраться, из прямого контроля психики - нельзя, иначе какой же это контроль? Максимум, нейтролизовать его на техническом уровне или же себя на физическом

Так это не контроль сознания, это его поломка, причем довольно тонкая, потому что другие интеллектуальные способности она не затрагивает. Виртуальная реальность может быть плохо проработанной, но заставляющей верить на уровне психики в то, что она является реальностью, как Диптаун у Лукьяненко, если кто читал Лабиринт Отражений.  (Что вообще такое "контроль сознания"? Внешние управление каждым нейроном?)

Если же попробовать исключить нахождение в виртуальной реальности, которая не имеет доступа к вашей психике не посредством органов чувств, то достаточно проверить нарушаются ли неравенства Белла. Если да, и квантовая механика работает именно так, как мы это знаем, то моделирование такой вселенной требует такой архитектуры компьютера, что разницы между моделированием и сотворением новой вселенной фактически не существует, поэтому для вас это уже вопрос теологии, а не практики.

6
Общение / Re: Как выбраться из иллюзии?
« : 11 Ноября 2016, 13:54 »
Спойлер: никак.

Аргумент Декарта, к слову, тоже не работает, в частности из-за достаточно очевидного для психиаторов и нейрофизиологов факта о том, что самосознание и личность - вещи довольно условные. К примеру, есть деменция при которой человек "знает", что уже умер и никакие рациональные доводы его не переубедят. А воздействие напрямую на психику, а не на органы чувств сильно сокращает затраты на поддержание иллюзии. (на астрономические порядки).

7
Цитировать
ну...примерно в точности ноль? наши представления разработаны интеллектом миллионов (ну ок, разработаны сотнями тысяч, и миллионами проверены), двойное усиление интеллекта отдельного человека их не перевернет.

Двойное, разумеется, нет, но здесь возникает проблема другого рода: двойного усиления достаточно, чтобы успешно скрывать свои настоящие цели и возможности. А дальше необходима только функция полезности, требующая дальнейшего усиления.

Upd: по сути у нас есть две непредсказуемости: непредсказумость границ возможностей сверхинтеллекта и непредсказуемость момента времени, когда сверхинтеллект достигнет порога первой непредсказуемости.

8
О, я бы на вашем месте задался другим вопросом: какова вероятность того, что Сильный Искусственный Интеллект, человек с Усилением Интеллекта, человек с нейроинтерфесом, несколько человек объединенных в коллективное сознание, сиамские близнецы с хирургически сшитым мозгом, ребенок со спиленной черепушкой, рожденный в лаборатории, которому с младенчества вкалывали регуляторы роста нервной ткани, чтобы сделать из него биокомпьютер или любое существо, превосходящее по уровню интеллекта любого живущего на Земле человека как минимум в два раза, сможет сделать что-то, что полностью нарушит все наши представления о законах физики? К примеру, что вы сможете противопоставить суперкомпьютеру, который сможет организовать свой мыслительный процесс в дополнительном пространственном или временном измерении? Я могу подсказать: ничего. Вспомните, опыт Гарри, когда он пытался использовать замкнутую временную петлю для мгновенного решения трудновычислимых задач. И представьте, что в отличии от вселенной книги, в нашей вселенной это является возможным.
Так что, я бы на вашем месте опасался не терактов на АЭС и стратегических объектах и не химикатов в воздухе — с этим справится любой спятивший миллиардер, вроде Усамы Бен Ладена — а того, что небо начнет рушиться на землю в буквальном или фигуральном смысле фразы.

И что самое главное, какой то вариант усиления интеллекта или сверхразумности в любом случае будет реализован, если цивилизация внезапно не захочет закончиться, потому что точка сингулярности — это в первую очередь планетарный кризис, вызванный невозможностью дальнейшего поддержания скорости прогресса за счет роста числа людей.

P.S: кроме того, мне лично импонирует пример с дополнительными измерениями, потому что в его пользу говорит одно дополнительное слабое свидетельство: он решает парадокс Ферми.

9
Предлагаю все же подсчитать в цифрах, иначе это скатывается в пустую риторику.

Цитировать
С технологической сингулярностью ровно то же самое. С момента когда цивилизация достигнет пред-сингулярного уровня ( не знаю выполнено ли это сейчас ) наиболее вероятный ответ на вопрос "когда ожидать сингулярность" - "сегодня". И это будет истинно, пока что-то принципиально не изменится - типа глобальной ядерной войны, нашествия инопланетян и т.п.

Гипотеза: ни Вторая Мировая, ни массовые вымирания видов не внесли ощутимый вклад в график роста вычислительных способностей биосферы, не говоря уже о более мелких кризисах.

Про ВМ я знаю точно, про вымирания надо копать.


10
Цитировать
Серьезно? Рассмотрим рассуждения, ну, скажем, безымянного китайца 12-го века или древнего карфагенянина 3000 лет назад. Если бы ему были доступны данные о демографии. Что изменится в его рассуждениях по сравнению с вашими? По-моему - ничего, такая же экспонента. Таким образом и китаец и карфагенянин, как и вы должен был заключить - "вероятно я живу очень близко к технологической сингулярности". Но про китайца с карфагенянином мы знаем что это не так.

Мы понимаем разные вещи под технологической сингулярностью, очевидно. В моем понимании это момент, когда изменения в окружающей среде начинают происходить быстрее, чем существа с нашим временным масштабом могут их воспринимать. Ни сейчас, ни тем более в 12 веке ничего подобного не было, но мы, в отличии от людей 12  или минус 12 века близки к точке, где ускорение должно достичь этих значений. Так что аргумент мимо.
Здесь слишком много очевидных свидетельств в пользу уникальности именно данного момента, но, повторяюсь, уникальным с точки зрения будущего оно будет только в случае, если график внезапно переломится. Если нет, то  разумеется, график не изменится и экспонента станет еще ближе к вертикали, и мы окажемся на месте китайца 12 века.

11
Цитировать
По-моему, пока парадокс для нас выглядит парадоксом и мы не пришли к пониманию его, делать из него какие-либо выводы бессмысленно. Вы же приводите два рассуждения, одно из которых говорит что мы с большой вероятностью близки к doomsday, с другой стороны с большой вероятностью далеки от doomsday. Это противоречие, которое требует объяснения. Причём в общем случае требует. Это противоречие на карте, и поэтому оно говорит о том, что я не умею пользоваться инструментами -- своей головой и байесианством. И поэтому очень важно найти тот правильный приём, который позволяет справляться с проблемами этого класса.

Для меня это не выглядит парадоксом, это дополнительное свидетельство в пользу того, что мы действительно находимся вблизи технологической сингулярности. Чем является сингулярность, мы не знаем по определению, отсюда вытекает спектр возможностей от краха цивилизации до перехода к постчеловечеству.
Однако, учитывая 4 миллиарда лет экспоненциального роста, внезапный обрыв экспоненты (крах цивилизации, гибель земной экосистемы), представляется крайне маловероятным событием именно по логике DA, поэтому, произойди это на самом деле (свидетельства в пользу чего мы получим в течение ближайшего полувека однозначно исходя из графика последних 300 лет), это будет сильным свидетельством в пользу неслучайного происхождения нашего самосознания.
И вот у нас уже есть две гипотезы, которые можно разделить наблюдением.

По хорошему гипотезы три, т.к. наш двухмерный график может иметь три возможных продолжения:
продолжение роста, падение или сглаживание в сторону логистической кривой, но последнее не удовлетворяет DA.

12
На самом деле, все еще интереснее: если рассматривать наблюдаемый нами момент времени не в численности населения, а в приведенной кривой технологической сингулярности, где за X мы берем рост вычислительной мощности всей экосистемы планеты от первых репликаторов до современных компьютеров, тогда мы получим экспоненту длиной по временной шкале в ~ 4 миллиарда лет, что делает наше нахождение вблизи точки перелома этого графика очень маловероятным. С моей точки зрения это хороший аргумент в пользу симуляции (Или в пользу того, что экспонента не нарушится (противоположная гипотеза), и было бы интересно услышать доводы против.

P.S: ну здесь очевидное возражение о невозможности подсчитать вычислительную мощность, но на таком масштабе ее достаточно грубо прикинуть.

13
Цитировать
Тогда мы все умрём. И что собственно обсуждать? Если парадокс -- не парадокс, то он не заслуживает обсуждения, по-моему.

Не обязательно. Если рассматривать это как свидетельство того, что мы застанем точку технологической сингулярности, то возможен ряд вариантов:

1. Последующие поколения не будут обладать сознанием.
1.1. Последующие поколения не будут обладать индивидуальным сознанием.
1.2. Последующие поколения не будут обладать сознанием вообще.
2. Последующих поколений не будет.
2.1. Все будут бессмертны и не станут размножаться.
2.2. Потомки не будут людьми.

Цитировать
Я вот несколько раз перечитал, и то ли лыжи не едут, то ли я чего-то не понимаю.
Вася из Мытищ выиграл в лотерею. Шанс 1:38000000. Почему же он не проиграл, если проиграть было в 38000000 раз вероятнее?
Какая вообще разница, что вероятнее, если что-то уже произошло? Родились мы где-то в начале (середине, конце) человеческой истории, а родиться где-то ещё было более вероятным. Ну значит нам повезло, дальше-то что?..

Если вы читаете книгу и в произвольный момент времени решаете посмотреть сколько вы прочитали, с вероятностью 90% вы обнаружите, что находитесь не в 5 первых и не в 5 последних % книги. Если же книга очень большая, то вы обнаружите себя в 90% того куска, который сможете осилить за одно прочтение с вероятностью 90%.

Здесь все тоже самое, просто вас инстинктивно напрягает предопределенность будущего. Хотя все это часть пространственно-временного континуума, существующего как данность, и все ваше будущее действительно уже произошло.

Теперь про лотерею. Здесь следует провести опыт и сравнить вероятность рождения накануне конца света, вычисленную по моей версии DA (Doomsday argument) и вероятности родиться тем, кем вы родились (в самых общих чертах: пол, раса, национальность, телосложение и т.д. ).

14
Общение / Re: Консеквенциализм
« : 06 Июня 2016, 15:53 »
Цитировать
В большом социуме и этика, основанная на эмоциях не работает. Убивать нехорошо, но многие скажут, что при самообороне можно, на войне можно. Кто-то даже добавит, что преступников можно. И дальше запросто можно конструировать этические дилеммы. По вопросу "можно ли воровать у богатых" человечество всю историю копья ломает. И так далее.

Дело не в том, "можно ли". Можно кому? Никто не может запретить сделать что-то человеку, если он хочет и может это сделать. Дело в том, что люди имеют абсолютно разные ценности и вопрос об общем благе всегда подразумевает чье-то конкретное благо. Самоубийца никогда не признает общим благом запрет на совершение самоубийства. И это хорошо, потому что увеличивает разнообразие способов мышления, что приводит к увеличению конкуренции и в итоге к более быстрому развитию общества. А вот подгонять всех под одну гребенку, даже утопичными научными методами, это идея продуманная недостаточно.
Но в целом, да, можно рационализировать и увеличения разнообразия и скорость развития общества, но "ради общего блага"? Это мышление религиозного человека (для него это оправдано мистическими ощущениями его мозга, что тоже является скрытой эгоистической потребностью). Любой человек с нерелигиозным мышлением будет действовать в своих личных целях, как бы они внешне не назывались. Эту проблему успешно решает теория игр и дилемма заключенного. Но это для общества. Т.е. если твои цели завязаны на благополучие общества (причем в длительной перспективе), тебе придется действовать исходя из этих теорий. Но как насчет того случая, как с самоубийцей, если общество для достижения твоих целей не нужно? Вот именно, как мне кажется, та темная сторона рациональности и проблема существования объективного зла, которая постоянно упускается из виду.

15
Общение / Re: Консеквенциализм
« : 06 Июня 2016, 15:07 »
Согласен почти со всем.

Не согласен с тем, что консеквенциализм может быть априорно хорошей стратегией. Хотя бы потому, что просчет общего блага для мало мальски большого социума не-клонов невозможен математически.

Хотя отказ от просчета общего блага тоже можно считать действием ради общего блага, конечно.

Страницы: [1] 2