Последние сообщения

Последние сообщения

Страницы: 1 [2] 3 4 ... 10
11
Цитировать
Я не очень верю таким теоремам. Эти теоремы созданы людьми, со всеми их интеллектуальными ограничениями. Чтобы доказать теорему о реальности, надо создать модель этой реальности, модель была создана человеком, и человек заложил туда кучу своих ограниченностей. Теорема была доказана о модели, а не о реальности, а соответствие модели и реальности всегда под вопросом.
- попробую тогда действовать несколько менее широко, чем эта теорема. Некий оптимизатор решает задачу "построить модель реальности так, чтобы эта модель уложилась в минимум кода и имела минимум погрешности". Модель реальности строится из базовых блоков, взятых из некоторого языка программирования. При построении модели у нас получится, что какие-то из блоков мы переиспользуем, и потому если оптимизатор достаточно быстро ведёт перебор, то он вынесет эти повторяющиеся блоки кода в функции. Это выглядит довольно разумным, потому что так бы действовал челвоек, так действует deep learning (более ранние слои порождают абстракции, которые используют более поздние слои). Хотел бы ещё сослаться на эволюцию, но тут не хватает знаний. Детали, которые используются часто, окажутся сжаты в функции, вызовы функций относительно компактны в коде, так что по умолчанию AIXI будет плохо замечать сложность, скрытую за функциями.
Если расчёт экспоненты - это расчёт суммы ряда, то в коде получается около 7 действий (зависит от того, как считать, но примерно так). Если же экспонента вынесена в функцию, то конкретно вызов функции - это 1 действие. Если у нас экспонента встречается в 1000 мест, и при этом она вынесена в функцию, то общая сложность все работы с экспонентой получится 7 + 1000. 7 операторов при написании функции, 1000 вызовов. Создание языка программирования я имел в виду именно в этом смысле.
Да, конечно, на практике идеального оптимизатора не существует, но это иногда не мешает рассуждать о том, что сделал бы AIXI, если бы этот оптимизатор был, и делать то же самое, называя это рациональностью =)
Или вы видите тут какую-то проблему в рассуждениях? Мне кажется, я выдал довольно короткую цепочку (она просто продублирована разными словами), там не должно быть сложностей проверки, как с доказательством теоремы Ферма.

Цитировать
Хех. Любой человек, в том числе и Гарри Поттер из ГПиМРМ верит в души. Душа -- это историческое название для психики. Спорить о существовании души -- глупо: она и существует и не существет. Она не существует в реальности, но существует в моделях, которые человек использует для мышления о реальности (точнее не так: в некоторых моделях реальности она существует, в некоторых моделях она не существует). И человек не может думать о некоторых аспектах реальности, не включая в свои модели категории "душа" (может быть стыдливо называя её "психикой" или словом "mind" или ещё как-то).
- это хорошее замечание.
Да, люди прогнозируют действия друг друга, не используя редукционизм, а используя полунатурное моделирование (эмпатию?), либо моделирование чёрным ящиком (как с любым незнакомым явлением), либо комбинируя подходы.
Но... Существуют люди, которые явно или неявно утверждают: "Разум - прост. Это онтологически базовая сущность. Поэтому будем считать, что мир создан Богом, это же намного проще по Оккаму, чем физическая модель Большого Взрыва, и живые существа порождены разумным замыслом, так как в нём меньше блоков, чем в модели эволюции".
То есть априорная вероятность любой физической модели в такой ситуации сильно ниже, чем априорная вероятность модели разумного замысла =) Конечно, факты будут двигать эти вероятности (если у нас агент похож на рационального).
Такая расстановка априорных вероятностей выглядит для меня довольно плохой практикой. Кажется, довольно неправильно в любой непонятной ситуации искать проявления разума, причём часто ещё и нечеловеческого. Но в то же время у меня создаётся впечатление, что такие априорные вероятности выставятся автоматом у рационального агента, который проводит достаточно много времени в обществе и мало времени изучает неразумную природу.
12
Цитировать
Я очень упрощённо пишу, скорее всего здесь будет попытка каким-то оптимизатором подобрать удачную модель мира, но теоремы говорят, что скорее всего в этой модели мира будет язык программирования, так как изначально заданный язык будет не очень хорошо описывать наш мир.
Я не очень верю таким теоремам. Эти теоремы созданы людьми, со всеми их интеллектуальными ограничениями. Чтобы доказать теорему о реальности, надо создать модель этой реальности, модель была создана человеком, и человек заложил туда кучу своих ограниченностей. Теорема была доказана о модели, а не о реальности, а соответствие модели и реальности всегда под вопросом.

Цитировать
То есть человеческий разум становится для ИИ онтологически базовой сущностью (или близко к этому), так как разум=моноблок. То есть ИИ становится идеалистом, в философском смысле. Начинает верить в души =)
Хех. Любой человек, в том числе и Гарри Поттер из ГПиМРМ верит в души. Душа -- это историческое название для психики. Спорить о существовании души -- глупо: она и существует и не существет. Она не существует в реальности, но существует в моделях, которые человек использует для мышления о реальности (точнее не так: в некоторых моделях реальности она существует, в некоторых моделях она не существует). И человек не может думать о некоторых аспектах реальности, не включая в свои модели категории "душа" (может быть стыдливо называя её "психикой" или словом "mind" или ещё как-то). Реально спор Поттера с Дамблдором был не о существовании души, а о том, может ли душа существовать в отрыве от тела. Получалось так, что они спорят в терминах, которые замутняют ситуацию, но так получалось потому, что Поттер слишком глуп ещё, а Дамблдор просто не приучен думать так, чтобы пересматривать свои категоризации реальности, в пользу данного конкретного спора.

Психология отказалась от использования слова "душа" для того, чтобы религия не очень возмущалась: религия хочет монополию на работу с душами.
13
Пришла в голову такая цепочка рассуждений. Вот, допустим, мы создали ИИ, примерно рационального агента. Примерно воплотили концепцию AIXI, то есть ИИ строит кучу моделей реальности и измеряет их сложность, а затем проставляет им штрафы в зависимости от погрешности на ретроданных и от сложности. Для прогноза будущего использует гистограмму от прогнозов каждой модели - например, если первая модель выдала 9 со штрафом 2, а вторая выдала 11 со штрафом 1, то будет гистрограммный прогноз: 1/3 за 9, 2/3 за 11. Ну, это грубое описание, реально моделей будет много, для штрафа есть формулы, одиночная модель будет выдавать гауссиану...

Мы тут же влетим в проблему построения опорной машины. Дело в том, что даже программу для распознавания объектов на картинке мы из сырого кода получать перебором будем долго. Нейросетка для видеоанализа - это мегабайты, а их надо будет подобрать как код (необязателен полный перебор, но это будет определённо не очень умный оптимизирующий процесс). Поэтому ИИ придётся создавать свою библиотеку функций, чтобы часто используемые концепции можно было повторно использовать. То есть ИИ будет описывать реальность на каком-то высокоуровневом языке, а ещё будет иметь транслятор на тот язык, который дал нашему ИИ программист.

Программист: все твои программы будут написаны на Брейнфаке, так как он легко генерится эволюцией и Тьюринг-полный.
AIXI: Ага. *пишет Питон на Брейнфаке, потому что это самый короткий способ получить нейросети, и пишет нейросети. Опорная машина построена, и это Питон*

Я очень упрощённо пишу, скорее всего здесь будет попытка каким-то оптимизатором подобрать удачную модель мира, но теоремы говорят, что скорее всего в этой модели мира будет язык программирования, так как изначально заданный язык будет не очень хорошо описывать наш мир.

Вот. У нас есть "правильная" опорная машина - в ней маловероятные гипотезы описываются сложными конструкциями, а высоковероятные - простыми. То есть априорная вероятность гипотезы обратно пропорциональна длине кода. Всё круто?

А теперь добавим ещё пару вводных.
1) Мы дали нашему ИИ способность моделировать других агентов, ставя себя на их место. Просто дали ему инструмент, которым он может запускать виртуальную копию себя, и этот инструмент оказался удобен для прогнозирования животных и людей.
2) Мы запустили наш ИИ достигать целей, находясь среди людей. То есть крайне важно предсказывать людей, которые целеустремлённые агенты, а значит, для них отлично работает наш подход с виртуальной копией. Ну, или не отлично, но лучше, чем иные варианты.

ИИ настраивает свою опорную машину так, что в ней задача "прогнозировать человека" - это что-то простое. В смысле, выражается очень короткой языковой конструкцией, потому что эту функцию часто приходится дёргать.

То есть человеческий разум становится для ИИ онтологически базовой сущностью (или близко к этому), так как разум=моноблок. То есть ИИ становится идеалистом, в философском смысле. Начинает верить в души =)

Заменяем в этом рассуждении "ИИ" на "человек", "опорную машину" на "картину мира" (не карту, а тот список блоков, из которых она строится), а человеческое общество оставляем.

Я правильно понимаю, что человек практически неизбежно должен был стать идеалистом? И любой интеллект, обитающий в коллективе и умеющий в эмпатию, по умолчанию идеалист? Если человек (или наш модельный ИИ) не увидит огромную вселенную, в которой люди занимают ничтожно малую часть, что может его сподвигнуть стать материалистом (ну или иным не-идеалистом?)

Ну или может, я где-то ошибся в рассуждениях, или недостаточно обосновал?
14
Обсуждение книги / Re: Эпилоги, сиквелы и вбоквелы
« Последний ответ от Nikolai 03 Августа 2020, 14:32 »
Спасибо.
15
Обсуждение книги / Re: Критика произведения
« Последний ответ от a_konst 13 Июля 2020, 13:11 »
Понравилось замечание в группе в ВК, создавать тут отдельную тему как-то слишком.


"Марина Соколова: В книге не хватает эпизода, когда, после побега Беллы из Азкабана, Невилл приходит к Квирреллу и настоятельно требует, чтобы профессор обучил его аваде."
16
Сообщество рационалистов / Re: Борьба с дезинформацией
« Последний ответ от kuuff 19 Июня 2020, 20:01 »
Рынок самобалансируется, но это не значит, что он всегда находится в этом самом балансе. В частности потому, что если проект обещает невысокие прибыли при больших рисках, то кто будет туда инвестировать деньги? Такой проект просто не взлетит. А если проект обещает сверхприбыли и практически наверняка, то ему денег инвесторы будут пихать насильно. Но дело ещё и в том, что оценки перспектив прибыли и вероятностей получить эти прибыли субъективны. И вот тут как раз, появляется поле деятельности для рационалиста (кстати, рациональность изобрели именно в экономике).

Я про какой-то венчурный фонд читал, там совет директоров, который принимает решение инвестировать в стартап или нет, имеет правило: если директора голосуют единогласно "за", то стартап в пролёте, он не получит инвестиций: потому что выгода слишком очевидна, и либо стартап завязнет в конкуренции, либо идея не работает (чего это она до сих пор на уровне стартапа, если она такая многообещающая?)
17
Сообщество рационалистов / Re: Борьба с дезинформацией
« Последний ответ от Gradient 19 Июня 2020, 10:01 »
Цитировать
если набирать людей склонных к риску, с не совсем тупыми идеями, и помогать им в обмен на обещание поделиться сверх-прибылями, и если из десятка случаев взлетит один, то можно неплохо навариться.
- я думал об этом. Такой подход даст примерно то же, что и диверсификация. Тут вижу две основные гипотезы Первая - матожидание прибыли не зависит от риска. То есть если у тебя есть 0%-й шанс проиграть, то  заработаешь 100$, если 50%, то в случае успеха 200$. Я частенько слышал от людей, разбирающихся в экономике, что рынок сбалансирован именно так... И в теории всё звучит логично, но на практике надо измерять. Вторая - матожидание прибыли может зависеть от риска. Если рискуешь 0%, то зарабатываешь 100$, а если 50%, то 210$, ну или 190$.
Вот если верна 2-я гипотеза, и рынок неидеально сбалансирован, то можно побыть венчурным фондом, как вы предложили, или самому заниматься чем-то рискованным, но с частью средств.
18
Сообщество рационалистов / Re: Борьба с дезинформацией
« Последний ответ от kuuff 18 Июня 2020, 23:28 »
Согласен, это серьёзная проблема. И кажется, довольно фундаментальная.
Фундаментальная, но не проблема. За счёт этого работает эволюция: она вообще рандомные изменения в ДНК вносит, и отбирает удачные, ей вообще мозгов не понадобилось, чтобы создать человека, то есть сделать то, что ни одному рационалисту пока не удалось. Это свойство, кстати, можно использовать для обогащения: если набирать людей склонных к риску, с не совсем тупыми идеями, и помогать им в обмен на обещание поделиться сверх-прибылями, и если из десятка случаев взлетит один, то можно неплохо навариться.
19
Сообщество рационалистов / Re: Борьба с дезинформацией
« Последний ответ от Alaric 18 Июня 2020, 15:41 »
Были исследования, я сейчас не упомню количественно, и ссылок не найду, но уровень дохода человека очень сильно коррелирует с уровнем дохода его предков.
На этом месте я вспомнил, что я видел упоминание таких исследований у Рея Далио в статье Why and How Capitalism Needs To Be Reformed. Он там ссылается на вот этот огромный доклад: https://www.oecd.org/social/soc/Social-mobility-2018-Overview-MainFindings.pdf

Если вкратце, всё сильно зависит от страны. Утверждается, что в Дании шансы ребёнка, чьи родители относятся к самому низкому квартилю, перейти как в самый верхний, так и остаться в самом нижнем, практически равны. А в США (почему собственно Далио и приводит эти данные), шансы перейти в самый верхний - 8%, остаться в самом нижнем - 40%. И это очень плохие показатели по сравнению со многими. (По России там данных нет.)
20
Сообщество рационалистов / Re: Борьба с дезинформацией
« Последний ответ от Gradient 18 Июня 2020, 08:38 »
Согласен, это серьёзная проблема. И кажется, довольно фундаментальная. То есть, видимо, чтобы быть радикально сильнее "одноклассников" без большого риска убиться по дороге, надо уметь прогнозировать будущее лучше, чем это позволяют данные.

*пошёл обдумывать этот грустный расклад и придумывать, можно ли как-то хитро выкрутиться*
Страницы: 1 [2] 3 4 ... 10