Просмотр сообщений - Gradient

Просмотр сообщений

В этом разделе можно просмотреть все сообщения, сделанные этим пользователем.


Сообщения - Gradient

Страницы: 1 2 3 [4] 5 6
46
Ну, распознаванием образов мы все каждый день занимаемся :) На локаторе у Вас просто информации мало, чтобы можно было говорить о вероятностях, близких к 100%, как я понимаю. Собственно, тут дело в основном в качестве локатора, не так ли?
Мы занимаемся распознаванием образов, но обычно неосознанно. Мы смотрим на яблоко и видим яблоко. Мы обычно не видим массив пикселей и не размышляем: а это точно яблоко или муляж/галлюцинация/голограмма/замаскированный пришелец?
Локатор хорош тем, что глядя на него, мы замечаем несовершенство его восприятия. Несовершенство более очевидно, чем в случае с глазами.
А информации локатор даёт, наверное, сравнимо с глазами. У него нет "цветового" канала, зато он может измерять дальность до цели (глаз может её только вычислить по косвенным признакам, но измерить - только вблизи) и скорость сближения (опять же, он её не вычисляет по изменению расстояния, а именно измеряет). Ну и система распознавания там очень похожа на зрительную кору человека.

47
Думаю, тут надо рассазать про теорию принятия решений и то, как ей пользуются в армии.
У нас есть зенитный ракетный комплес. Этот ЗРК может обнаружить и сбить цель. Вот только... Он постоянно много чего видит. Вспышка на радаре - это цель? А если вспышка одну секунду двигалась со скоростью самолёта - это цель?
У ЗРК есть система распознавания, которая определяет, насколько, по совокупности признаков, похоже, что нас атакуют. У этой системы есть очень важная величина - порог срабатывания. Если сделать порог повыше, то увеличивается шанс пропустить самолёт, и уменьшается шанс выстрелить в пустоту. Если сделать порог пониже, то наоборот.
Так вот. У нас на ЗРК... Ну пусть 50 ракет. Пусть ракета сбивает самолёт почти гарантированно. А сзади вас стоит атомная электростанция, уничтожение которой - это гарантированный Чернобыль.
Если вы хотите максимально защитить АЭС, как надо настраивать порог срабатывания? Так как сенсоры неидеальны, есть лишь один способ гарантированно распознать любого врага - занизить порог срабатывания до нуля. Но тогда мы сразу же расстреляем все ракеты на голубей.
Видимо, надо всё-таки выбрать какой-то ненулевой порог, который гарантирует, что ракеты доживут до реального авиаудара.
Приведу даже график:
https://ru.wikipedia.org/wiki/ROC-%D0%BA%D1%80%D0%B8%D0%B2%D0%B0%D1%8F#/media/File:Roccurves.png
Эта штука называется "ROC-кривая". Каждая точка этой кривой - это конкретное значение порога срабатывания нашего ЗРК. Горизонтальная координата этой точки - вероятность пальнуть ракету в пустоту (false positive). Вертикальная - вероятность выстрелить, когда враг уже здесь (true positive). Верхняя правая точка - это максимально низкий порог срабатывания, то есть ситуация, когда мы стараемся свести шансы успешного авиаудара к нулю и стреляем во всё подряд.
По факту в ЗРК порог подбирают таким образом, чтобы примерно выполнянлось соотношение:
вероятность_авиаудара*вероятность_ложного_необнаружения*ущерб_от_успешного_авиаудара=(1-вероятность_авиаудара)*вероятность_ложного_обнаружения*цена_одного_выстрела

Вам понятно, как мой пространный рассказ относится к делу? =)
Разумеется, приведённая формула не работает для бесконечных величин ценностей - но можно условно принять ценность своей жизни за единицу, а ценность различных мер безопасности выражать в долях от своей жизни, то есть подсчитать, сколько раз надо применить данную меру безопасности, чтобы она вас угробила/истратила всё время жизни/истратила все деньги, которые вы хотели потратить на бессмертие.
А вообще, я восхищаюсь людьми, которые в состоянии быть достаточно параноидальными, чтобы защититься от всех угроз, пропорционально их реальной опасности.

Я полагаю, люди так легко говорят о 100%-ых и 0%-ых вероятностях, потому что им не доводилось сознательно заниматься распознаванием образов.
Просто представьте - сидите вы за экраном локатора и видите всполох. "Это стая гусей или новейший бомбардировщик-невидимка?"
Или видите что-то скоростное в верхних слоях атмосферы. "Это метеорный поток или боеголовки баллистических ракет? А если враг провёл ракетную атаку как раз во время Персеид, чтобы замаскироваться? А один мой выстрел стоит больше, чем моя квартира..."
Если думать о своём зрении/слухе как о чём-то сродни этому локатору, по-моему, становится проще мыслить в терминах минимизации угроз, а не сведения их к недостижимому нулю.

48
Общение / Re: Юдковский и ИИ
« : 16 Январь 2018, 11:08 »
Благодарю!

49
Общение / Юдковский и ИИ
« : 15 Январь 2018, 18:00 »
Доброго времени суток!
Кто-нибудь знает, чем конкретно занимается/занимался Юдковский в области искусственного интеллекта - кроме вопросов его безопасности? А то он неоднократно упоминал, что хочет и пытается сделать ИИ не на базе Machine Learning, что в наше время звучит... Не мейнстримно.
Если видели его статьи по сабжу, поделитесь, пожалуйста.

50
Вспоминаю своё детство... Я считал, что Деды Морозы (их, очевидно, было много - на улицах явно не один стоял) - это особый биологический вид людей, живущий на крайнем севере, и обладающий магическими способностями (узнавать, чего я хочу, следить за моим поведением, изготавливать и незаметно доставлять подарки). Обучиться этим способностям, думал я, нереально - да и вряд ли кто-то захотел бы пойти учиться магии, если в обмен ему придётся до конца жизни работать Дедом Морозом. Так что однозначно наследственность. Я много думал о том, как выглядят женщины и дети вида Дедов Морозов, рождаются ли они с бородами, отчего такие румяные и в шубах, если мороз - это для них комфортная температура.

Когда я понял, что это лишь игра и маскарад, я вздохнул с облегчением.

Но игра продолжилась. Мы всё ещё в семье говорим, что подарки принёс Дед Мороз. Хотя детей младше 17-ти у нас нет =) Возможно, этичнее всего было бы говорить о Деде Морозе, но в таком же тоне, как люди говорят о том, что кукла покушала, а плюшевый мишка дружит с плюшевым котёнком. Тогда и сказка останется, и ребёнок будет понимать, что это игра.

51
Обсуждение книги / Re: Ошибки Гарри
« : 06 Октябрь 2017, 12:08 »
Я пропустил эту ошибку =) Видимо, вы оказались внимательнее меня.

Я заметил ещё следующий момент (ошибку?). Гарри знает, что невозможно трансфигурировать что-либо навсегда. Но он же знает, что пока трансфигурация держится, можно трансфигурированным предметом делать всё, что хочешь... Например, можно делать другие предметы.
Идея трансфигурировать себе небольшой цех и собрать там "Узи" из не-трансфигурированной стали... Может, и не очень умна, но это лишь первое, что пришло мне в голову на вопрос "как убить врага, который кастует Аваду, телепортируется и носит щиты".
Интереснее была другая мысль: нельзя трансфигурировать человека. Но человек - это структура из атомов. Если некий человек получил тяжёлое ранение, можно при помощи частичной трансфигурации создать ему недостающие кожу/мышцы/кровь/органы, а затем понемногу "вымывать" трансфигурированные атомы и дожидаться, пока они заменятся обычными атомами, пришедшими из еды. В таком человеке надо будет долго поддерживать трансфигурацию. Годы, может быть. Но это спасение жизни, может, даже воскрешение. Можно было попробовать на насекомых.

А ведь Гарри близко подошёл к идее трансфигурации средств производства. Он пытался сделать наноассемблер.

52
На ИИ более-менее похожи системы класса SIEM - QRadar, Positive Technologies SIEM, Arcsight.
Это системы читают логи на компах и обнаруживают, когда что-то пошло не так. Основаны эти системы в основном на наборах явных правил. Типа "если на узле стоит гипервизор, повысить его значимость на 1", "если на узле неправильно настроен фаервол, повысить его уязвимость на 1", "если уязвимость узла выше 3 и значимость выше 2, то выкинуть на экран сообщение об опасности". Теоретически можно было бы сделать, чтобы система каким-то образом сама составляла наборы правил - например, получала информацию о новых способах атак и постоянно пыталась их проводить, и записывала, в каком месте атака прошла успешно.
На мой взгляд, подобное реализовать сложно. Сложно получить достаточное количество обратной связи, и не навредить себе.

Ещё есть Web Application Firewall-ы и Intrusion Detection System-ы. У этих из ИИ-элементов есть составление сигнатуры "правильной" активности юзера. Вася Пупкин каждый день работает с 9 до 18, и пользуется Гуглом? Значит, если он зайдёт в 4 утра, система сообщит об угрозе. Или если будет искать инфу в Яндексе.

По-моему, ИИ хорош тогда, когда у системы есть либо куча возможностей проводить эксперименты и получать обратную связь, либо куча статистики и отсутствие чётких правил, в какие модели эту статистику пихать.

53
Общение / Re: Интерес
« : 19 Сентябрь 2017, 17:15 »
Я в нескольких местах встретил упоминание фанфика МРМ. Подумал, что надо бы прочитать - многие фанфики по ГП весьма хороши. А там автор крупным планом показал мне самое интересное.
Во многих книгах не детализируется, как главный герой применяет магию - но в МРМ это прописано очень глубоко. Я подобное ещё видел в аниме "Код Гиас" и "Тетрадь Смерти" - и всё. Меня раньше удивляло, зачем маги в ГП заморачиваются кучей разных боевых заклинаний, когда есть быстропроизносимое "Экспульсио" (которое можно кастовать в твёрдые предметы, чтобы создавать осколочное поле), и ещё более быстрый огнестрел. Или как устроена экономика Магбритании, если трансфигурация позволяет создавать предметы почти из ничего. Или почему маги не захватили хотя бы Землю. Или почему только Гермиона применяет машину времени хоть сколько-нибудь интересным способом.
И вот Юдковский показывает ситуацию на понятном мне языке. А попутно обстёбывает любителей "глубокой мудрости", с которыми я часто бывал не согласен, но не знал, как бы это получше выразить.

Я увлёкся размышлениями Юдковского. В статьях он указывал на вещи, которые меня прежде смутно беспокоили - и раскладывал их по полочкам, пользуясь техническим языком и избегая двусмысленностей. Мне очень понравилась конкретика, с которой он подошёл к вопросам, которые прежде считались философскими.

Наверное, стоит упомянуть, что до этого один из моих друзей много мне рассказывал про философию, мне понравились его рассказы, я вник в некоторые концепции из философии... Я теперь смотрю на эту философию в ретроспективе и вижу, что мне не нравилась её недостаточная чёткость. Взять хотя бы определение слова "истина". "Мысль называется истинной (или истиной), если она соответствует предмету" - так пишет Вики.
А после Юдковского (и параллельно пройденной большой практики по машинному обучению) я бы сказал так: "У нас есть модели, а есть реальность. Если первая модель точнее второй в прогнозировании наблюдений, то она в большей степени истинна. Под точностью подразумевается среднеквадратическое оклонение или f1-мера". В общем, мне удалось собрать в уме философскую концепцию, из которой логичным образом вытекали бы научный метод, бритва Оккама, принцип Юма, а так же существенная часть теории машинного обучения.

Кроме того, я давно интересуюсь трансгуманизмом. В рамках этого увлечения я давно пытался создать "скрипты" для мозга - например, хотелось сделать, чтобы у любого желающего в уме были калькулятор разрядов на десять, блокнот на пару гигов и рубильник "на 5 минут удвоить силу воли" - и всё это без сознательных усилий и без тренировок. Мне удалось достичь определённых успехов в этом деле, но я упёрся проблему: я не нашёл чёткой границы между "мной", то есть юзером скриптов, и "мозгом", то есть исполнительным устройством. Сейчас сама идея о существовании такой границы кажется глупой, но раньше я её пытался нащупать... Так что у меня было очень прагматичное желание понять, как работает сознание - у меня была куча идей, как превратить это знание в скрипты, которые сделают меня и других людей сильнее.

Когда другим на подобное плевать, я понимаю, что они не займут мою экологическую нишу =) Ну, это светлая сторона дела. Тёмная сторона в том, что эти люди принимают решения, которые касаются меня в том числе, и это опасно.  Поспорить с иррациональными людьми люблю, если они достаточно умны и не давят силой. Их вряд ли получится переубедить, но эти споры заставляют меня вглядываться в свои мыслительные алгоритмы - и это позволяет немножко побыть "Self-improving AI", то есть заменить старые алгоритмы рассуждения на новые - более точные, надёжные, эффективные.

54
Хорошей программы обучения не видел. Иногда сталкивался с неплохими задачками. Например, вот:
http://umneem.org/%D0%BA%D0%B0%D0%BB%D0%B8%D0%B1%D1%80%D0%BE%D0%B2%D0%BA%D0%B0-%D0%BD%D0%B0-%D0%BF%D1%80%D0%B0%D0%BA%D1%82%D0%B8%D0%BA%D0%B5
По-моему, наличие задачника по рациональности - это уже офигеть как круто, и мы (рационалисты) станем ощутимо сильнее, если у нас будет хотя бы больше задач на рациональные навыки.
Это не замена учебной программе, это маленький шаг в верном направлении.

55
Общение / Re: Как соблюсти баланс сил?
« : 19 Сентябрь 2017, 12:59 »
Gradient, После ваших двух ответов с высоким коэфициентом полезности у меня появился несколько отвлеченный от темы вопрос. Вы от природы стратег, или это приобретенный навык ;) ? Спасибо!
Спасибо за лестный отзыв =)
Насчёт стратегии затрудняюсь сказать что-то конкретное... Может, много в "Героев Меча и Магии играл" xD

56
Общение / Re: Как соблюсти баланс сил?
« : 19 Сентябрь 2017, 10:51 »
Не совсем поняла про личные неэффективные действия
У многих людей есть набор замечательных социальных реакций, например:
- Когда кто-то неправ по принципиально важной теме, они пытаются его переубедить, даже если это сложно, а человек мало влияет на нашу жизнь.
- Когда кто-то наступил на ногу, на него орут, хотя это почти никак не влияет на вероятность того, что в следующий раз кто-то наступит на ногу
- Когда работник не справляется с задачей, на него орут, хотя вовсе не факт, что он от этого станет работать лучше - возможно, даже хуже
- Когда вышестоящий человек с садистскими наклонностями применяет эти наклонности, ему говорят о несправедливости, хотя это не работает, а вот шантаж или коллективная жалоба его начальнику могли бы сработать

Я говорил именно об этом. У многих людей есть социальные стереотипы, заставляющие действовать "потому что", а не "для того, чтобы", то есть как бы реагировать, а не достигать цели. Если у вас ничего этого нет, если вы никогда не жалели, что наговорили человеку глупостей в порыве гнева - тогда вы счастливый человек, и этот мой совет вам бесполезен =)

Например, спор внутри семьи, и тут как аргумент: "а вот тот специалист, имеет другое мнение", хотя именно к области спора специалист особого отношения не имеет.
Над своей семьёй я бы работал серьёзно. Просвещал бы, насколько возможно. Потому что они довольно сильно влияют на мои цели. Впрочем, допускаю вариант, что у кого-то отдельные члены семьи безумны, и вразумить их не получается - тогда я бы постарался по максимуму отгородить их от того, что мне дорого. Но я бы всё-таки попробовал вначале вразумить. Поспорить немного. Если возможно, добиться, чтобы оппонент предугадывал мой следующий аргумент в споре - это будет означать, что у оппонента в голове теперь сидит мой голос и спорит, даже когда меня нет рядом =)

Если неадекватов (что бы мы под ними не подразумевали) меньшинство, и они не занимают бОльшую часть начальственных позиций, я бы попробовал кооперироваться с адекватами, чтобы они препятствовали неадекватам. Как именно, зависит от обстоятельств - тут можно и каждый раз спорить, когда неадекват требует/делает что-то неправильное - каждый из 20 "адекватных" тратит 1 минуту на спор, а у неадеквата 20 минут из жизни вон. Можно показательно насмехаться над неадекватными убеждениями, ну или хотя бы говорить о его наивности - тогда неадекват хотя бы будет не так решительно вредить.
Это не просвещение, это социальная борьба с особо твердолобыми.

Ещё мысль. Если мы находимся внутри связного коллектива, и опасаемся, что в коллективе есть носители опасных иррациональных убеждений, можно попробовать заняться просвещением тех, кого в коллективе более-менее слушают. Для этого надо с этими влиятельными людьми во-первых, часто неформально общаться (за обедом на работе, например), а во-вторых, надо уметь рассказывать вирусные истории - которые людям так понравятся, что они захотят их передавать дальше. Это не указание на границу, это предложение, как можно потратить меньше времени, но больше умственных усилий, и устроить в коллективе "эпидемию рациональности".

почему? Сколько не бегу за этим поездом, до меня не доходит почему я раз от разу встречаю это утверждение здесь на форуме. Один чувак озадачился, тем что просветить слободку, написал уйму текста, чего-то модерирует, и просвещает далее по возможности/желанию. Тут же, вижу, проще свалить. Причем "проще" от тех, с кем непосредственно контактируешь. Ок, сами из школы не ушли, вытурили учителя. Тот куда пойдет работать? И если не монтировщиком, а решит, что его диплом чего-то стоит, станет преподавать "новым жертвам". Мне их банально жаль. Ясно, что перспектива просвещения недалекого учителя весьма сомнительна, но если даже не пробовать, то зачем все это "рациональное" знать, неужто ли только ради собственной выгоды?
как минимум иногда надо "просто свалить", потому что ресурсы на споры ограничены, а человеческая глупость - нет =) Иногда это не вариант.
Я бы семью просвещал, друзей. В рабочем коллективе просвещение устраивал бы только если кто-то мне конкретно мешает своими иррациональными убеждениями - и то, я бы постарался эти убеждения увидеть до того, как они мне помешают, и просто с ними не сталкиваться, если возможно.
Моя позиция довольно эгоистична, наверное. Но по моим наблюдениям, людей долго и трудно переубеждать. Поэтому я бы занимался этим пореже. Друзей убедить в чём-либо легче, и они мне дороги, так что их бы я просвещал.
В таком случае локальная глупость всё ещё будет угрожать, но в меньшей степени, чем если бы мы вообще никого не просвещали.

Кстати, я вспомнил неплохую идею из теории безопасности - принцип равнопрочности. Суть принципа в том, что наши активы можно уничтожить кучей разных способов. Мы можем выстроить защиту от каждого вида атаки, и защита снизит шансы пать жертвой именно этой атаки. Мы можем вложить в любую защиту любое число ресурсов, что у нас на руках, но обычно малое приращение цены даёт высокое приращение защищённости, когда защита дешёвая, и низкое - когда дорогая. Грубо говоря, 1 танк защищает нас намного лучше, чем 0 танков, но 1001 защищает чуть-чуть лучше, чем 1000, а стоит всё так же на 1 танк дороже. Поэтому оптимальная защита - это защита равнопрочная.
Если цель - провести границу, то я бы проводил границу так: оценил бы текущую вероятность самой существенной угрозы (вылет с работы, болезнь сердца, автокатастрофа)  P1, количественно оценил бы ущерб от неё L1 (в условных единицах, можно просто взять этот ущерб за единицу). Затем оценил бы вероятность того, что мне навредит чья-то глупость P2 и уровень ущерба L2 (если мы прошлый ущерб взяли за единицу, то L2 - это сколько штук L1 мы готовы обменять на L2). Затем повлиял бы на P2 и L2 так, чтобы P2*L2 было меньше или равно P1*L1. Посмотрел бы, сколько такая защита будет стоить, готов ли я на это. Если не готов, то объявил бы человеческую глупость своим главным врагом, и жил бы с этим.

57
Общение / Re: Как соблюсти баланс сил?
« : 18 Сентябрь 2017, 10:33 »
Для начала по теории принятия решений) Описанные люди влияют на функцию полезности рассматриваемой особы. Значит, они - такая же часть мира и препятствий на пути к цели, как, например, речка на пути. Проговариваю эту банальщину, потому что многие люди (в первую очередь я сам) иногда обижаются на тех, кто ведёт себя аморально, и в результате сами действуют неэффективно. А если относиться к этой помехе как к речке, оказавшейся на пути, то социальные шаблоны отключаются, и начинается поиск творческих решений.

Теперь по самой задаче. Я бы представил людей, которые могут повлиять на функцию полезности, как социальный граф. Кто-то влияет напрямую, кто-то - через других, кто-то сильно, кто-то слабо. Пользуясь этой моделью, я бы прикинул "зоны риска" - то есть тех людей, которые могут сильно повлиять, и которые чем-то вредны. А дальше постарался бы избежать этих людей. Психолог спрашивает про венчание? Ну так вы можете выбрать другого психолога. Учитель литературы обвешивает ярлыками? Репутации школ довольно-таки известны, и подобные проблемы можно решать на этапе выбора школы (хотя это сложно).
Если избежать опасного человека нельзя - можно постараться выявить его заранее и обезвредить. Я не очень умён в этих вопросах, но в случае с учителем литературы мне кажется, помог бы либо серьёзный разговор до прецедента (ярко выраженного гомофоба часто можно обнаружить заранее), либо угроза и требование публично раскаяться после прецедента (но надо обладать достаточным могуществом, чтобы эффективно угрожать людям). Оба варианта довольно сложные.
Можно тренировать ребёнка спокойно относиться к подобным выходкам со стороны людей - объяснить ему, что некоторые люди боятся и ненавидят тех, кто отличается от них, что это распространённый человеческий недостаток. Можно фильм показать про нацистов и сказать, что иногда люди слишком хорошо разделяют своих и чужих, и выглядит это вот так. Тогда хотя бы психику ребёнка получится немного защитить.

Полезно, думаю, находиться среди "просвещённых" людей, и поаккуратнее контактировать с остальными.

На социальном уровне полезно было бы усилить влияние таких сообществ, как LW, Скептики и группировку Панчина с Соколовым. Теоретически, эти люди представляют интересы вышеописанной особы. Везде эти группы победить не смогут, но можно победить локально и жить на той территории, где они влиятельны =) По крайней мере, носители антинаучных взглядов постесняются высказывать эти взгляды открыто.

В общем, я бы больше вкладывался в защиту и разведку, вместо того, чтобы сражаться с полчищами идиотов. А сражения оставил бы для Сообщества Скептиков.

Да, и встречный вопрос. А вы хотели бы жить в мире более рациональных людей? Рациональность - это, на данный момент, ваше конкурентное преимущество.

58
Alaric, это самое многообещающее, что я слышал за последнее время. Спасибо.

59
Всем доброго времени суток!
У меня возникли определённые мысли по статье "Мне сегодня рационально" https://lesswrong.ru/w/%D0%9C%D0%BD%D0%B5_%D1%81%D0%B5%D0%B3%D0%BE%D0%B4%D0%BD%D1%8F_%D1%80%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE.
Автор статьи рассматривает эмоции как кусочки модели мира, которые могут быть истинны в разной степени, но в принципе их можно по максимуму подогнать под реальность так, чтобы они всегда были максимально истинны. С точки зрения эпистемологической рациональности всё верно и разумно.
А с точки зрения инструментальной - не всегда. Дело в том, что иногда эмоции влияют на реальность в обход наших решений, что ограничивает применимость теорем теории принятия решений.

Пример ситуации:
Я иду по узкой доске через пропасть (или делаю ещё что угодно рискованное и требующее концентрации). Я оцениваю свои шансы упасть в 1% - довольно плохо, но терпимо. Эмоциональная система получает эту оценку и чуть-чуть подливает в кровь адреналина и кортизола (так, чтобы волнение соответствовало 1%-ой вероятности смерти). Мои ноги начинают дрожать чуть-чуть сильнее - это чистая физиология. Из-за этого шансы смещаются к 5%. Эмоциональная система подливает ещё адреналина и кортизола. Я дрожу ещё сильнее... И так, пока я не упаду и не убьюсь.

Видим систему с положительной обратной связью. С точки зрения инструментальной рациональности это очень плохая система. В то же время очевидно, что система могла бы свалиться и в другую крайность - безразличие. Системы с положительными обратными связями именно так себя и ведут - сваливаются в одно из нескольких равновесий.

Гарри попал в сходную ситуацию в Азкабане. Ему надо было ожидать от дементоров, что они подчинятся. И тогда он создал вилку (как в шахматах) - либо дементоры подчинятся, либо он их уничтожит. Эта вилка сделала ситуацию безопасной, и поэтому Гарри перестал бояться. Но я не вижу способа делать такие вилки всякий раз, когда намечается опасная ситуация, где принципиально нужно не бояться.

Что предлагают на эту тему рационалисты?

60
Я бы не искал в этой истории скрытый смысл, а вложил его. Такой классный фанфик можно сделать!
Автор, у вас отличная фантазия - возможно, в вас пропадает успешный писатель?

Страницы: 1 2 3 [4] 5 6