Главное > Рациональность

Реал-кейс на байесианский вывод

(1/2) > >>

kuuff:
Допустим у меня есть гипотеза, я хочу проверить её экспериментально. Для этого мне надо поставить эксперимент, намерить N точек данных, и сделать по ним вывод. У меня есть два способа поставить эксперимент, "надёжный" и "ненадёжный". Надёжный дорогой -- требуется много усилий на каждую точку данных. Ненадёжный дешёвый -- можно получить на порядок, а то и на два порядка больше точек данных теми же усилиями, но в данные потенциально будет примешиваться больше "шума".

Мне тут предложили сделать таким образом -- набрать пару десятков точек надёжным способом, и сотню-другую ненадёжным. И если результаты совпадут, то заявить, что достоверность результата зашкаливает. То есть логика какая: пара десятков точек -- это минимум требуемый правилами приличия, но если к ним приложить ещё пару сотен других точек, то будет очень круто.

Но меня гложут сомнения. Кажется подозрительным такой способ принятия решений. Ну, если наивно рассуждать, то если результаты совпадут, то мы можем сделать вывод, что ненадёжный способ не такой уж и ненадёжный, как казалось -- с этим я могу согласиться. Но когда мы делаем сразу два вывода -- из совпадения данных вывод о надёжности метода, а потом из надёжности метода, делаем вывод о том, что данные подтверждают гипотезу, мне начинает казаться, что тут где-то подвох и пахнет циклом в причинно-следственных связях в наших рассуждениях. А за такие штуки с экзаменов по матану выгоняют с двойкой, не глядя на всё остальное... Короче детские психологические травмы привили мне глубоко сидящий страх совершить подобную ошибку, который не позволяет мне просто согласиться с такими рассуждениями.

Так вот, я к чему это. Я не настолько вник во все эти байесианские методы рассуждений, чтобы формализовать проблему и тупо посчитать. Я, наверное, могу это сделать, не сваливая эту задачу на других, но это займёт у меня кучу времени, которого нет. Мне проще потрепать языком на форуме об этой проблеме, чем я и предлагаю заняться. Но если кто-то может формализовать проблему и дать полный расклад по мастям, то я буду премного благодарен.

nar:
"Шум" недостаточно определён. Как и задача в целом. Во-первых, надо отделить случайную погрешность от систематической. Во-вторых, вы измеряете одну величину, или график?
Случайный шум в любом случае определяется не сравнением с другими результатами, а полной статистикой серии измерений (по дисперсии).
Если одну величину, все результаты после этого можно будет сложить в единую статистику, понизив вес неточных, если у них больше дисперсия. Систематический - да, надо сравнивать, но если есть подозрение что он есть, с ним надо бороться перед сложением статистик индивидуально для каждого из двух способов. Как именно - зависит от конкретной задачи. Не уверен, что в итоге будет польза.

Если график - то предложенный метод, по-моему, вполне разумный. Можно его описать так: у вас есть график, но вы ему не доверяете (он получен ненадёжным методом). Для проверки вы выбираете случайным (это важно) образом список точек на нём и проверяете их тщательно. Каждая новая совпавшая точка - свидетельство в пользу правильности графика. С каждой новой точкой будет падать вероятность того, что вы просто случайно наткнулись на точку, где данные случайно совпали. Ну а если точки не совпадут, то вам скорее всего придётся выкинуть "неточные" измерения в помойку и вы зря потратили время (если только там не тривиальный случай вида "неточный результат всегда больше точного на одинаковую величину/в одинаковое число раз/итд").

Иными словами: от случайных погрешностей вы никуда не денетесь и вам всё равно придётся их учитывать в том количестве, в котором они есть. И даже оценить их количество этот метод никак не поможет (вы сможете оценить их количество и без него). А вот проверить наличие/отсутствие систематических это сравнение поможет и, в случае их отсутствия либо тривиальности, повысит вес данных, полученных априори сомнительным методом, убрав из него "дефект" систематической погрешности до уровня тех, которые получены хорошим.

Kroid:
В первую очередь - насколько большая погрешность разрешена, на отрезке между "абсолютно уверен" и "ну, примерно так"?

Во-вторых, какова природа шума? Случайный, нормальное распределение относительно правильных данных или же там идет систематический "перекос в одну сторону"?

Получить много зашумленных  точек. Сгладить их, получив прямую/кривую. Дальше проверка: получить несколько чистых точек, построить на них кривую и сравнить со сглаженной кривой. Те, кто занимаются машинным обучением, только так и проверяют свои алгоритмы. Хотя для финансовых целей, вроде биржевых игр, подобный метод не гарантирует аналогичные результаты в будущем - но в этой сфере за последние полвека так и не смогли придумать надежный способ доказательства корректности.

fil0sof:
Наверное, для более-менее предметного обсуждения желательно получить больше деталей о задаче

a_konst:
Сразу скажу, что я не специалист в мат-статистике (только, общий курс мат-меха на 4 курсе).

Про задачу - я понял так, что есть "входные параметры", и "выходные". В теории (ну, то есть, в Вашей Гипотезе) выходные параметры определяются по выходным однозначно. (если нет, если там есть неустранимая неизвестная случайность и если стоит задача поиска её распределения, а примешивается ещё и шум от измерений при ненадёжном методе - то труба, я не представляю, как такое решать).

Я бы делал так. Чтобы пользоваться "ненадёжным" методом, лучше бы понять что-то про его шум.
Фиксируем с десяток пар наборов "входных" параметров. Для каждого набора проведем одно надёжное измерение и несколько (раз уж они дешёвые) - ненадёжных. И будем сравнивать.

Для начала выдвинем технические стат.гипотезы:
1. шум независим в разных измерениях.
2. шум имеет нормальное распределение с неизвестными параметрами. (ну или какое-то другое стандартное, которое можно предположить а-приори из общего понимания природы происходящего, но проверка нормальности - самая простая и изученная, ЕМНИП)
И проверяем их на имеющихся данных.

Для этих задач есть специальные критерии и методы, чтобы их найти, мне придется с пол-дня штудировать старый конспект и книги.
Но надеюсь, что Вы и сами справитесь, если есть матем. образование и доступ к хорошим книгам по мат.статистике.

Если ОБЕ гипотезы подтвердились - то установить "истинную" картину зависимости на всей области "входных" параметров уже можно многими ненадёжными измерениями. Ну может добавить парочку надежных там, где дисперсия шума ненадёжных почему-то оказалась слишком большой.

Навигация

[0] Главная страница сообщений

[#] Следующая страница

Перейти к полной версии