Прочие материалы с lesswrong.com

Сюда попадают все материалы, которые не входят в книгу «Рациональность: от ИИ до Зомби». Также здесь могут встречаться материалы, которые в упомянутую книгу входят, но как часть «Цепочек», которые почти не переведены на русский.

Особо продвинутая эпистемология для начинающих

Подробное руководство по эпистемологии от Элиезера Юдковского. Включает практические приложения и задачи для читателя.

Автор: 
Элиезер Юдковский

Полезная идея истины

Элиезер Юдковский

Помню, как я однажды сдавала письменную работу по экзистенциализму. Преподаватель вернула мне её с оценкой «плохо». Она подчеркнула слова «истина» и «истинный» везде, где они встречались в эссе, примерно двадцать раз, и рядом с каждым поставила вопросительный знак. Она хотела узнать, что я понимаю под истиной.

— Даниэлла Эган

Я понимаю, что значит называть гипотезу элегантной, или фальсифицируемой, или соответствующей экспериментальным данным. Мне кажется, что называть убеждение «истинным», или «настоящим», или «действительным» — это всего лишь делать различие между утверждением, что вы во что-то верите, и утверждением, что вы во что-то очень-очень сильно верите.

— Дейл Каррико

Итак, что такое истина? Движущаяся толпа метафор, метонимий, антропоморфизмов, — короче, сумма человеческих отношений, которые были возвышены, перенесены и украшены поэзией и риторикой и после долгого употребления кажутся людям каноническими и обязательными.

— Фридрих Ницше

Задача на ложные убеждения «Салли–Анна» — это эксперимент, который используется, чтобы установить, понимает ли ребёнок разницу между убеждением и реальностью. Проводится он так:

  1. Ребёнок видит, как Салли прячет шарик в закрытую корзину, а Анна за этим наблюдает.
  2. Салли выходит из комнаты, а Анна вынимает шарик из корзины и прячет его в закрытую коробку.
  3. Анна выходит из комнаты, и Салли возвращается.
  4. Экспериментатор спрашивает ребёнка, где Салли будет искать шарик.

Дети до четырёх лет говорят, что Салли будет искать шарик в коробке, а более старшие дети — что в корзине.

Человеческие дети, начиная с возраста (обычно) в четыре года, впервые начинают понимать, что это значит, когда убеждения утрачивают связь с реальностью. Трёхлетний ребёнок моделирует только то, где находится шарик. Четырёхлетний ребёнок, начиная вырабатывать теорию сознания, отдельно моделирует, где находится шарик, и отдельно — где находится шарик по убеждению Салли, и может заметить, когда эти понятия конфликтуют — когда у Салли есть ложное убеждение.

Любое осмысленное убеждение имеет условие истинности, то есть реальность может каким-то образом быть такой, чтобы это убеждение было истинным или наоборот, ложным. Если мозг Салли содержит мысленный образ шарика в корзине, то в реальности шарик действительно может лежать в корзине — и в этом случае убеждение Салли называется «истинным», поскольку реальность удовлетворяет его условию истинности. Либо же возможно, что Анна вынула шарик и спрятала его в коробке, и в этом случае убеждение Салли называется «ложным», поскольку реальность не удовлетворяет его условию истинности.

Математик Альфред Тарский однажды описал понятие «истины» как бесконечную серию условий истинности:

  • Предложение «снег белый» истинно тогда и только тогда, когда снег белый.
  • Предложение «небо голубое» истинно тогда и только тогда, когда небо голубое.

Теперь кажется, что различие тут тривиально: зачем вообще говорить о предложениях, если предложение выглядит настолько похожим на реальность, когда и предложение, и реальность описаны на одном и том же языке?

Но когда мы оглядываемся на задачу «Салли–Анна», это различие становится куда яснее: убеждение Салли закодировано конфигурацией нейронов и нейронных путей в мозгу Салли, во влажной и чрезвычайно сложной органической ткани массой в килограмм с третью, находящейся внутри черепа Салли. Сам же шарик — это маленькая пластиковая сфера, которая перемещается между корзиной и коробкой. Сравнивать убеждение Салли с шариком — значит сравнивать совершенно разные вещи.

Тогда зачем вообще говорить об абстрактных «предложениях», а не об убеждениях, закодированных нейронами? Может быть так, что Салли и Фред верят «в одно и то же», то есть их мозги содержат внутренние модели шарика в корзине — то есть оба утверждения, каждое в своём мозге, имеют одинаковое условие истинности. В этом случае можно абстрагировать то, что эти убеждения имеют между собой общего, то есть общее условие истинности, в виде предложения или утверждения, которое мы считаем истинным или ложным отдельно от каких-либо верящих в него мозгов.

Некоторые мыслители выражают панику по поводу того, что любое суждение об истине — любое сравнение убеждения с реальностью — является частью чьего-то мышления, и, казалось бы, всего лишь сравнивает чужое убеждение со своим собственным:

То есть получается, что все эти разговоры об истине — это всего лишь сравнение чужих убеждений со своими и попытка установить свой авторитет? Получается, что слово «истина» — всего лишь оружие в борьбе за власть?

Мало того, мы даже не можем напрямую сравнить чужие убеждения с своими собственными. Мы можем только сравнить, внутри себя, наше убеждение о чьём-то чужом убеждении с нашим собственным убеждением — сравнить нашу карту их карты с нашей картой территории.

Аналогично получается, что когда мы говорим о наших собственных убеждениях, что они «истинны», это означает, что мы сравниваем свою карту своей карты со своей картой территории. Обычно люди не ошибаются в своём представлении о том, во что они верят. Хотя из этого правила есть определённые исключения, обычно карта карты верна, то есть люди обычно имеют верные убеждения о том, какие убеждения они имеют:

Следовательно, сказать «Я считаю, что небо голубое, и это верно!» — обычно значит выразить ту же информацию, которую выражают предложения «Я считаю, что небо голубое» или просто «Небо голубое», то есть информацию о том, что ваша мысленная модель мира содержит голубое небо.

Подумайте над вопросом:

Если это так, то получается, что постмодернисты правы? Получается, что все эти рассуждения об «истине» — это всего лишь попытка установить приоритет ваших собственных убеждений над чужими, и нет способа сравнить убеждение с самой реальностью, а не с содержимым чьей-то головы?

Здесь и далее я буду вставлять вопросы, над которыми читателям предлагается найти ответ самостоятельно, прежде чем двигаться дальше. Это моя несколько неуклюжая попытка отразить результаты исследований, показавших, что читатели значительно чаще запоминают какой-то факт или решение проблемы, если сначала пытаются решить проблему сами, прежде чем прочитать решение. Удастся вам решить проблему или нет, главное — попытаться и только затем читать дальше. Здесь отражена также проблема, существующая по мнению Майкла Вассара: поскольку статьи такого рода часто кажутся очевидными после прочтения, читателям зачастую сложно визуализировать разницу между «до» и «после», и для целей обучения эту разницу полезно себе представлять. Поэтому, пожалуйста, попытайтесь сначала высказать свой собственный ответ на вопрос — в идеале прошепчите его себе, либо двигайте губами, представляя, как вы его проговариваете, чтобы сделать его явным и доступным для вашей памяти — прежде чем продолжать. Попытайтесь также осознанно заметить разницу между вашим ответом и ответом, приведённым в статье, включая любые дополнительные или отсутствующие детали, и не пытайтесь увеличить или уменьшить это различие.

Ответ:

Ответ, который я дал Дейлу Каррико — который заявил мне, что знает, что означает фальсифицируемость убеждения, но не знает, что означает его истинность, — состоял в том, что мои убеждения определяют мои экспериментальные предсказания, но только реальность может определять мои экспериментальные результаты. Если я очень сильно верю в то, что я умею летать, то это убеждение может сподвигнуть меня сделать шаг с обрыва, ожидая, что он безопасен; но только истинность этого убеждения может спасти меня от смертельного падения.

Поскольку мои ожидания иногда конфликтуют с тем, что я затем вижу и ощущаю происходящим вокруг меня, мне нужны разные названия для того, что определяет мои экспериментальные предсказания, и для того, что определяет мои экспериментальные результаты. Первое я называю «убеждениями», а второе — «реальностью».

Вы не получите прямого столкновения между убеждениями и реальностью — или между чужими убеждениями и реальностью — если будете сидеть в комнате с закрытыми глазами. Но если вы откроете глаза, ситуация изменится!

Давайте проследим за тем, как ваш мозг получает информацию о том, что ваши шнурки развязаны:

  • Фотон покидает Солнце и летит к Земле через её атмосферу.
  • Ваш шнурок поглощает и снова испускает этот фотон.
  • Отражённый фотон проходит через зрачок вашего глаза и направляется на сетчатку.
  • Фотон падает на клетку-палочку или клетку-колбочку, или, ещё точнее, он падает на фоторецептор, форму витамина А, известную как ретиналь. Эта молекула затем изменяет свою форму, вращаясь вокруг двойной связи, благодаря поглощению энергии фотона. Связанный белок под названием опсин в ответ претерпевает смену конформации, и это возмущение далее распространяется на тело нервной клетки, которая наполняет энергией протон и увеличивает его поляризацию.
  • Постепенное изменение поляризации распространяется на биполярную клетку и затем клетку ганглия. Если поляризация клетки ганглия превышает определённую границу, клетка испускает нервный импульс — распространяющееся электрохимическое явление поляризации-деполяризации, которое проходит по мозгу со скоростью от 1 до 100 метров в секунду. Таким образом, свет из внешнего мира преобразуется в информацию внутри нервной системы, совместимую с субстратом остальных мыслей.
  • Нервный сигнал подвергается предварительной обработке другими нейронами в сетчатке, затем в латеральном коленчатом теле в середине мозга, после чего в зрительной коре, находящейся в задней части головы, восстанавливается уменьшенное изображение окружающего мира — изображение, закодированное в частотах испускания сигналов нейронами, составляющими зрительную кору. (Это изображение искажено, поскольку центр поля зрения обрабатывается со значительно большей степенью детализации, чем его края, — то есть распределяется между большим числом нейронов и большей площадью коры.)
  • Информация из зрительной коры затем направляется в височные доли, которые отвечают за распознавание объектов.
  • Ваш мозг распознаёт форму развязанного шнурка.

Так ваш мозг обновляет свою картину мира, включая в неё тот факт, что ваши шнурки развязаны. Даже если до этого он ожидал увидеть их связанными! У вашего мозга нет никакой причины не обновлять свою картину мира, если только в этом не замешана политика. Когда фотоны, направляющиеся в сторону глаза, преобразуются в нервные сигналы, они принимают форму, совместимую с другой содержащейся в мозгу информацией, и могут сравниваться с предыдущими убеждениями.

Убеждения и реальность взаимодействуют постоянно. Если бы мозг и его окружение никогда не соприкасались, нам не нужны были бы ни глаза, ни руки, и мозг мог бы иметь намного более простое строение. Организмам вообще не нужны были бы мозги.

Хорошо, убеждения и реальность — это разные сущности, которые пересекаются и взаимодействуют. Но из того, что нам нужны отдельные понятия для «убеждений» и «реальности», ещё не следует потребность в понятии «истины», то есть сравнения между ними. Возможно, мы могли бы говорить отдельно (а) о представлениях некоего разумного существа о том, что небо голубое, и (б) о самом небе. Вместо того, чтобы говорить «Джейн считает, что небо голубое, и она права», мы могли бы сказать «Джейн считает, что небо голубое; кроме того, небо голубое» и тем самым выразить ту же информацию (а) о наших убеждениях относительно неба и (б) о наших убеждениях относительно убеждений Джейн. Мы всегда могли бы, применяя схему Тарского «Предложение “X“ истинно тогда и только тогда, когда X», заменить любое утверждение об истинном предложении утверждением о его условии истинности, о соответствующем состоянии реальности (неба или чего-нибудь ещё). Так мы могли бы вообще избежать этого надоедливого слова «истина», о котором философы ведут бесконечные споры и которым злоупотребляют разные раздражающие личности.

Пусть есть некое разумное существо — для определённости пусть это будет искусственный интеллект, который занимается своей работой в одиночку и которому никогда не требовалось ни с кем спорить о политике. ИИ знает, что «Моя модель полагает с вероятностью 90%, что небо голубое»; он уверен в том, что эта вероятность — это именно то предложение, которое сохранено в его оперативной памяти. Отдельно ИИ моделирует, что «Вероятность того, что мои оптические датчики обнаружат за окном голубой цвет, равна 99% при условии, что небо голубое», и не путает это утверждение с утверждением о том, что его оптические датчики обнаружат голубой цвет, когда он полагает, что небо голубое. Значит, этот ИИ определённо может отличать карту от территории; он знает, что разные состояния его оперативной памяти имеют последствия и причинно-следственные связи, отличные от тех, какими обладают разные состояния неба.

Но может ли этому ИИ понадобиться общее понятие истины — может ли ему понадобиться придумать слово «истина»? Почему, если бы у него было это понятие, он мог бы работать лучше?

Подумайте над вопросом: Если мы имеем дело с искусственным интеллектом, которому не нужно ни с кем спорить о политике, может ли ему когда-нибудь понадобиться слово или понятие «истина»?

Ответ: Абстрактное понятие «истины» — общая идея о соответствии карты и территории — нужно, чтобы выразить такие идеи, как:

  • Обобщение по всем возможным картам и городам: если ваша карта города точна, то более вероятно, что навигация по этой карте вовремя доставит вас в аэропорт.
  • Чтобы начертить верную карту города, кто-то должен выйти на улицу и посмотреть на здания. Вы не сможете составить точную карту, сидя в комнате с закрытыми глазами и пытаясь представить, каким бы вы хотели видеть город.
  • Истинные убеждения с большей вероятностью делают правильные экспериментальные предсказания, чем ложные убеждения; поэтому, если мы будем больше доверять гипотезам, делающим правильные экспериментальные предсказания, наша модель реальности со временем будет становиться всё более верной.

В этом и состоит главное преимущество рассуждений и размышлений об «истине»: мы можем обобщать правила составления карт, соответствующих территориям, и извлекать уроки, которые можно распространять на другие области, а не только на цвет того или иного неба.

Как и всегда, тотальная философская паника оказалась в данном случае необоснованной. Но наша внутренняя оценка «истины» как сравнения между картой карты и картой реальности есть ключевая практическая проблема: в этой схеме мозгу очень просто принять за истину абсолютно бессмысленное предложение.

Пусть некий профессор литературы рассказывает на лекции, что знаменитые писатели Кэрол, Дэнни и Элейн являются «пост-утопистами», что следует из того, что их произведения имеют признаки «колониального отчуждения». Для большинства студентов типичным результатом будет то, что в аналоги ассоциативных массивов в их мозгах к объектам «Кэрол», «Дэнни» и «Элейн» будет добавлено свойство «пост-утопист». Когда в последующей контрольной работе встретится вопрос «Приведите пример писателя — пост-утописта», студент напишет «Элейн». Что, если студент напишет «Я думаю, что Элейн — не пост-утопист»? Тогда профессор смоделирует…

…и пометит ответ как неправильный.

В конце концов…

  • Предложение «Элейн — пост-утопист» истинно тогда и только тогда, когда Элейн — пост-утопист.

…правильно?

Может, конечно, быть и так, что этот термин действительно что-то означает (хотя я сам его выдумал). Может даже быть и так, что, хотя профессор не может дать хорошего и явного ответа на вопрос «А что вообще такое пост-утопизм?», тем не менее можно показать многим разным профессорам литературы новые произведения неизвестных им авторов, и все они независимо придут к одному и тому же ответу, из чего последует, что какое-то доступное чувствам свойство текста они явно обнаруживают. Мы не всегда знаем, как работают наши мозги, и мы не всегда знаем, что мы видим, и небо было голубым задолго до того, как появилось слово «голубой»; чтобы часть картины мира в вашем мозгу имела смысл, не требуется, чтобы вы могли объяснить её словами.

С другой стороны, может быть и так, что профессор узнал о «колониальном отчуждении», зазубрив то, что ему в своё время говорил его профессор. Может быть так, что единственный человек, чей мозг когда-то вкладывал в эту фразу реальный смысл, уже умер. Так что к тому времени, как студенты узнают, что слово «пост-утопист» — это пароль, который требуется называть в ответ на запрос «колониальное отчуждение», обе фразы стали не более чем словесными ответами. которые требуется заучивать, не более чем набором ответов для теста.

Эти две фразы не выглядят «оторванными» от реальности сами по себе, потому что они не оторваны друг от друга: пост-утопизм как будто имеет последствие в виде колониального отчуждения, а если вы спросите, что следует из колониального отчуждения, то это означает, что автор, скорее всего, пост-утопист. Но если вы очертите кругом эти два понятия, то обнаружите, что ни с чем больше они не связаны. Это плавающие убеждения, никак не связанные со всей остальной моделью. И тем не менее нет никакого внутреннего тревожного сигнала, который бы звучал, когда такое происходит. Точно так же, как «неправота ощущается как правота» — так же, как обладание ложным убеждением ощущается как обладание истинным убеждением, по крайней мере до проведения эксперимента, — так и бессмысленное убеждение может ощущаться как осмысленное.

Группы, обладающие совершенно бессмысленными убеждениями, могут даже враждовать. Если кто-то спросит «Является ли Элейн пост-утопистом?» и одна группа закричит «Да!», а вторая — «Нет!», они могут подраться просто из-за разных кричалок: для начала вражды необязательно, чтобы слова что-то значили. С тем же успехом может начаться драка между группой, кричащей «Ку!», и группой, кричащей «Кю!» Говоря более общо, важно различать видимые последствия высказанного убеждения, содержащегося в мозгу профессора (студенты должны написать на контрольной то, что нужно, иначе профессор посчитает их ответ неверным) и видимые последствия состояния реальности, не оформленного словесно (то есть состояния территории, при котором Элейн действительно является пост-утопистом).

Одним классическим ответом на эту проблему был верификационизм, который считал, что предложение «Элейн — пост-утопист» является бессмысленным, если оно не говорит нам, какие сенсорные ощущения мы ожидаем испытать, если это предложение истинно, и как эти ощущения будут отличаться в случае, когда предложение ложно.

Но теперь представьте, что я направляю фотон в пустоту между галактиками, и он улетает далеко в глубины космоса. В расширяющейся Вселенной этот фотон в конце концов пересечёт космологический горизонт, за которым, даже если фотон упадёт на зеркало, которое отразит его обратно в направлении Земли, он никогда не вернётся сюда, потому что за это время Вселенная расширится слишком быстро. Следовательно, после того, как фотон пересечёт определённую черту, у утверждения «Фотон продолжает существовать вместо того, чтобы исчезнуть» не будет совершенно никаких экспериментальных последствий.

И тем не менее мне кажется — и, надеюсь, вам тоже, — что утверждение «Фотон внезапно исчезает из мироздания сразу же, как только у нас пропадает возможность его когда-либо увидеть, и тем самым нарушает закон сохранения энергии и ведёт себя не так, как все видимые нам фотоны» ложно, а утверждение «Фотон продолжает существовать, улетая в никуда» истинно. И подобные вопросы могут иметь важные последствия в контексте принятия решений: представьте, что мы думаем о снаряжении околосветового корабля, летящего как можно дальше, так что он пересечёт космологический горизонт до того, как он замедлится, чтобы колонизировать какое-нибудь далёкое сверхскопление галактик. Если бы мы думали, что корабль исчезнет из Вселенной, как только пересечёт космологический горизонт, мы бы не стали и рассматривать возможность отправить его в полёт.

Спрашивать себя об ощутимых последствиях наших убеждений полезно и мудро, но они не подходят на роль фундаментального определения осмысленных утверждений. Это отличная подсказка, сигнализирующая о том, что что-то может быть оторванным от реальности «плавающим убеждением», но не абсолютное правило.

Можно попробовать ответить, что для того, чтобы утверждение было осмысленным, реальность должна иметь возможность быть такой, чтобы это утверждение могло быть истинным или ложным; а поскольку Вселенная состоит из атомов, должна существовать такая конфигурация атомов Вселенной, чтобы это утверждение было истинным или ложным. Например, чтобы утверждение «Я в Париже» было истинным, нужно переместить в Париж составляющие меня атомы. Литературный критик может заявлять, что Элейн имеет свойство, называемое пост-утопизмом, но нет никакого способа перевести это заявление в способ перераспределить атомы Вселенной так, чтобы сделать его истинным или же ложным; следовательно, у него нет условия истинности, то есть оно бессмысленно.

И действительно, существуют такие заявления, при которых, если вы остановитесь и подумаете: «Как можно перестроить Вселенную так, чтобы это было истинным или ложным?», то вы внезапно осознаете, что вы не так хорошо понимаете условие истинности этого заявления, как вы думали. Например, «Страдание закаляет дух» или «Все экономические кризисы — результат плохой денежной политики». Эти утверждения необязательно бессмысленны, но их гораздо проще высказать, чем представить себе мир, в котором они истинны или ложны. Точно так же, как и вопрос об ощутимых последствиях, вопрос о способе конфигурации Вселенной является важным индикатором осмысленности или бессмысленности.

Но если бы вы сказали, что для осмысленности утверждения должна существовать конфигурация атомов, делающая его истинным или ложным…

Тогда такая теория, как квантовая механика, изначально была бы бессмысленной, поскольку нет никакого способа распределить атомы так, чтобы сделать её истинной.

И наше открытие, что Вселенная состоит не из атомов, а из квантовых полей, обратило бы все осмысленные утверждения во всём мире в бессмысленные — потому что оказалось бы, что нет никаких атомов, которые можно было бы перераспределить, чтобы выполнить их условия истинности.

Подумайте над вопросом: Какое правило могло бы ограничить наши убеждения только теми, которые могут иметь смысл, не отсекая при этом раньше времени ничего, что в принципе может быть истинным?

Перевод: 
Майя Эверетт
Оцените качество перевода: 
Средняя оценка: 3.4 (235 votes)

Рациональность как привязанность к алгоритмам познания

Элиезер Юдковский

Существует распространённая ошибка (которая меня довольно сильно раздражает), когда человек начинает вещать о важности «Истины». Обычно при этом подразумевается, что Истина — это нечто возвышенное, а не какие-нибудь скучные мирские истины о гравитации, радугах или о том, что ваш коллега сказал о вашем начальнике.

Поэтому довольно полезно упражняться в том, чтобы убирать слово «истина» из всех предложений, где оно появляется. (Замечу, что это один из видов рационалистского табуирования.) Например, вместо утверждения «Я считаю, что небо синее, и это истина!» можно просто сказать «Небо синее». Собеседник при этом получит совершенно одинаковую информацию о том, какой цвет неба с вашей точки зрения. А если утверждения «Я считаю, что демократы выиграют выборы» и «Демократы выиграют выборы» ощущаются для вас по-разному, то это важный сигнал о расхождении ваших сознательных и интуитивных убеждений.

Попробуйте попрактиковаться на следующих утверждениях:

  • Я считаю, что Джесс пытается лишь выиграть спор.
  • Истина в том, что ты невнимателен.
  • Я считаю, что у меня всё наладится.
  • На самом деле учителя очень заботятся об учениках.

Если «истина» определяется как бесконечное семейство предложений вида «Предложение „небо синее“ истинно тогда и только тогда, когда небо синее», то зачем нам вообще рассуждать об «истине»?

Мы не сможем убрать «истину» из предложения «Истинные убеждения с большей вероятностью позволяют делать предсказания, подтверждаемые экспериментом». Это предложение говорит о свойствах связи между картой и территорией. Словосочетание «истинные убеждения» можно заменить на «точная карта», однако это будет отсылкой к тому же понятию.

Слово «истина» можно удалить из большинства предложений лишь потому, что эти предложения не говорят ничего о связи между картой и территорией.

Теперь зададимся вопросом: когда необходимо использовать слово «рациональный»?

Как и в случае слова «истина», существует очень мало предложений, в которых действительно необходимо слово «рациональный». Рассмотрим следующие упрощения. Ни при каком из них практически не происходит потери информации.

  • «Рационально считать, что небо синее».
    -> «Я думаю, что небо синее».
    -> «Небо синее».

  • «Рациональное питание: почему стоит придерживаться палеодиеты»
    -> «Почему вы должны считать, что палеодиета приведёт к самым лучшим последствиям для здоровья».
    -> «Мне нравится палеодиета».

Практически всегда, когда люди объявляют что-то рациональным, можно без потери смысла заменить это слово словом «оптимальный». В тех случаях, когда речь идёт об убеждениях, а не стратегиях, — словами «истинный» или чем-то вроде «я считаю, что это так».

Попробуйте попрактиковаться на следующих утверждениях:

  • «Рационально учить детей дифференцировать и интегрировать».
  • «По-моему, это самая рациональная книга на свете».
  • «Рационально верить в гравитацию».

Подумайте над вопросом: В каких редких случаях из предложения нельзя убрать слово «рациональный»?

Ответ: Слово «рациональный» нам нужно, чтобы разговаривать о когнитивных алгоритмах или мыслительных процессах, обладающих свойствами «систематически улучшают связь между картой и территорией» (эпистемическая рациональность) или «систематически обеспечивают лучшие пути к цели» (инструментальная рациональность).

Например:

»(Эпистемически) рационально придерживаться гипотез, которые позволяют делать предсказания лучше».

или

«Цепляться за невозвратные затраты (инструментально) иррационально».

Из этих предложений нельзя убрать понятие рациональности без потери смысла. Можно найти способ перефразировать их без использования слова «рационально», однако придётся передавать то же самое понятие другими словами. Например:

«Если вы больше придерживаетесь гипотез, которые позволяют делать предсказания лучше, то ваша карта со временем лучше соответствует реальности».

или

«Если вы цепляетесь за невозвратные потери, вам это будет мешать достигать своих целей».

Слово «рационально» подходит для разговора о когнитивных алгоритмах, которые систематически улучшают связь карты и территории или помогают достижению целей.

Аналогично, рационалист — это не просто человек, который уважает Истину.

Слишком многие уважают Истину.

Некоторые уважают Истину о том, что правительство США заложило взрывчатку во Всемирный торговый центр, Истину о том, что судьбу человека решают звёзды (забавно, но если всё пойдёт как надо, правдой окажется противоположное утверждение), Истину о том, что глобальное потепление — это ложь, и так далее.

Рационалист — это человек, который уважает процессы поиска истины. Рационалисты — это люди, которые демонстрируют настоящее любопытство, даже если это любопытство касается давно всем понятных вопросов, вроде взрывчатки во Всемирном торговом центре. Ведь истинное любопытство — это часть излюбленного алгоритма и уважаемого процесса. Рационалисты уважают Стюарта Хамероффа за попытки проверить, действительно ли в нейронах могут происходить квантовые вычисления, пусть даже эта идея априори кажется крайне маловероятной и появилась как следствие ужасного гёделевского аргумента о том, что мозг не может быть механизмом. Однако Хамерофф попытался проверить свои странные убеждения экспериментально. И если бы «странные» убеждения никогда не проверялись экспериментально, человечество до сих пор обитало бы в саванне.

Или вспомним полемику о том, как CSICOP (Комитет по научному расследованию заявлений о паранормальных явлениях) разбирался с так называемым эффектом Марса. Эта полемика привела к тому, что CSICOP покинул его основатель, Деннис Роулинз. Действительно ли положение планеты Марс в небе во время часа рождения человека влияет на то, станет ли он знаменитым атлетом? Я скажу «нет», пусть даже кто-нибудь со мной не согласится. И если вы уважаете лишь Истину, то совершенно не важно, что CSICOP в процессе повысил требования к астрологу Гоклену — в смысле, объявил об эксперименте, а затем придумал новые причины отвергнуть результаты Гоклена, после того, как они оказались положительными. Выводы астролога почти наверняка неверны, конечно же, эти выводы отвергли, Истина восторжествовала.

Однако рационалиста волнуют утверждения, которые нарушают процессы рациональности. Байесианец в ситуации, похожей на описанную чуть-чуть сместил бы свои убеждения в сторону астрологии, однако априорные шансы против астрологии слишком велики. В большей степени байесианец сместил бы свои убеждения в сторону того, что Гоклен случайно наткнулся на какое-то явление, которое стоит исследовать подробнее. И уж точно он не стал бы требовать эксперимента, а затем игнорировать результаты или, когда результаты оказались не такими, как он ожидал, придумывать оправдания, почему эксперимент был неправильным. Такое поведение систематически плохо влияет на поиски истины. А рационалист ценит не просто красоту Истины, но красоту процессов и алгоритмов познания, позволяющих её находить.

У рационалистов получается вести необычайно продуктивные и дружественные разговоры (по крайней мере, пока всё идёт нормально) не потому, что все участники очень сильно уважают то, что они считают Верным или Оптимальным. В обычных условиях люди яростно спорят не потому, что знают правду, но не уважают её. Разговоры рационалистов (потенциально) более продуктивны в той степени, в какой все участники уважают процесс и соглашаются, каким именно этот процесс должен быть - что достигается явным изучением предметов вроде когнитивной психологии и теории вероятностей. Когда Анна говорит мне: «Меня беспокоит, что, судя по всему, тебе не слишком любопытен этот вопрос», речь идёт о состоянии ума, которое мы оба считаем важным. И я понимаю, что когда уважаемая мной рационалистка говорит мне, что я должен проявить любопытство, я должен задуматься, оценить свой уровень любопытства и попытаться его увеличить. Это часть рационалистского процесса, и она находится на мета-уровне относительно конкретного обсуждаемого вопроса.

Нужно ли любить рациональность, чтобы её использовать? Я могу представить мир, в котором миллионы людей учатся в школе правильно использовать Искусство, но лишь горстка любит его настолько, что пытается его развивать, а все остальных Искусство интересует лишь в связи с практическими результатами. Точно также я могу представить компетентного прикладного математика, который работает на инвестиционный фонд исключительно ради денег - он никогда не любил ни математику, ни программирование, ни оптимизацию. Я могу представить компетентного музыканта, который не испытывает особой любви к композиции или наслаждения от музыки, и которого заботит лишь продажа альбомов и поклонницы. Если какое-то явление можно вообразить, это ещё не означает, что его вероятно встретить в реальной жизни… Однако, если где-то существуют множество детей, которые учатся играть на фортепьяно, хотя и не любят это занятие, «музыкантом» будет считаться тот, кто играет необычайно хорошо, а не просто нормально.

Однако пока в нашем мире, где Искусство ещё ни навязывается насильно школьникам, ни приносит явного вознаграждения на обыденном карьерном пути, почти все владеющие какими-то рациональными навыками — это люди, которых захватывает Искусство само по себе. И это — возможно, тут стоит сказать «увы» — многое объясняет, как о рационалистских сообществах, так и о мире.

Перевод: 
Alaric
Оцените качество перевода: 
Средняя оценка: 4.1 (12 votes)

Навык: Карта — не территория

Элиезер Юдковский

Самая ранняя известная мне рационалистская фантастика — это серия «Нуль-А» Альфреда ван Вогта. (Я знаю всего два примера рационалистской фантастики, не произошедшей от «ГПиМРМ», и второй — это «Праща Давида» Марка Стиглера.) У главного героя книг ван Вогта, Гилберта Госсейна, множество невоспроизводимых способностей: хотя они якобы относятся к мыслительным, вы не в состоянии им научиться. Например, благодаря своим тренировкам, герой умеет использовать всю свою силу в чрезвычайных ситуациях. Главный же рационалистский навык, которому, читая о приключениях Госсейна, научиться всё-таки можно, заключён в его девизе:

Карта — не территория.

Меня до сих пор иногда поражает мысль, что эту поговорку пришлось придумать: это сделал парень по фамилии Коржибски, причём лишь в двадцатом веке. Я читал книги ван Вогта в раннем детстве, поэтому для меня эта фраза звучит как аксиома, без которой существовать невозможно.

Однако поскольку Байесовский заговор вступает во вторую стадию своего развития, мы должны приучиться переводить просто красивые мысли в техники, которые можно применить на практике. Начнём.

Подумайте над вопросом. При каких обстоятельствах полезно осознанно думать о различиях между картой и территорией, то есть осознанно представлять мысленный пузырь, содержащий убеждение, и реальность вокруг него вместо того, чтобы с помощью карты напрямую размышлять о реальности? Как именно это поможет и в каких задачах?

Навык 1. Вообразить собственную неправоту.

В книге ван Вогта Гилберт Госсейн вспоминает о поговорке про карту и территорию, когда не уверен в каких-то убеждениях: «Ты так считаешь, но мир не обязательно так устроен». Это высказывание может казаться базовой истиной, но именно с него часто начинается обучение начинающих рационалистов. Они прыгают из мира, где небо просто синее, трава просто зелёная, а люди из Другой Политической Партии просто одержимы злобными демонами, в мир, где, возможно, реальность не совпадает с этими убеждениями и способна когда-нибудь вас удивить. В случае «трава зелёная» этому можно присвоить достаточно низкую вероятность, однако в мире, где территория отделена от карты по крайней мере допустимо, что однажды реальность не согласится с вами. Некоторые люди способны практиковать этот навык. Например, в случаях, когда им хочется полностью отвергнуть вероятность, что, возможно, они ошибаются, эти люди мысленно представляют себя сначала в мире, где их убеждения верны, а потом в мире, где их убеждения неверны. Убеждения относительно мотивов других людей — например, «Он меня ненавидит!» — судя по всему, лучше перефразировать как: «Я считаю, что он меня ненавидит» или «Я предполагаю, что он меня ненавидит». Результат иногда получается гораздо лучше.

По тем же причинам часто помогает рассуждение на языке вероятностей. Если вероятность Х — 75%, значит вероятность не-Х — 25%. Таким образом вы автоматически рассматриваете больше одного мира. Присваивание вероятностей также неминуемо напоминает, что сейчас вы работаете лишь со знаниями о мире. Ведь вероятностными могут быть лишь убеждения. Реальность всегда либо одна, либо другая.

Навык 2. Рассмотреть убеждение с другой точки зрения.

Если мы действительно в чём-то убеждены, нам кажется, что мир такой и есть. Если смотреть изнутри, другим людям кажется, что они живут в другом мире, не в таком же, как вы. Другие не соглашаются с вами не потому, что они беcпричинно упрямы, они не соглашаются, потому что ощущают мир по-другому, пусть даже вы и находитесь в одной и той же реальности.

Книга «Гарри Поттер и методы рационального мышления» написана, в том числе, с использованием этого навыка. Когда я создавал того или иного персонажа, например, Драко Малфоя, я не просто представлял, как он думает, я представлял окружающий его субъективный мир, который вращается вокруг него. Всё остальное считалось важным (или вообще принималось во внимание) лишь в зависимости от того, насколько оно важно для этого персонажа. Большинство книг показывают лишь одну точку зрения. Часто, даже если в книге представлено несколько точек зрения, второстепенные персонажи живут во вселенной главного героя и думают в основном о том, что важно главному герою. В «ГПиМРМ», когда вы встаёте на место Драко Малфоя, вас выдёргивают в субъективную вселенную Драко Малфоя, где у Пожирателей Смерти есть веские причины для их действий, а Дамблдор — внешнее беспричинное зло. Поскольку я не планировал писать постмодернистское произведение, персонажи всё же определённо жили в одной и той же реальности и оправдания действий Пожирателей Смерти убедительно звучали лишь для Драко — я не старался их как-то улучшить, чтобы убедить читателя. Речь не идёт о том, что каждый персонаж в буквальном смысле живёт в своей вселенной, и не о том, что все стороны моральны в равной степени, что бы они не делали. Речь о том, что разные элементы реальности для разных персонажей имеют разный смысл и разное значение.

Джошуа Грин однажды заметил (кажется, это было в его статье «Ужасная, кошмарная, нехорошая, очень плохая мораль»), что дискуссии о политике почти всегда выглядят как чтение нотаций непослушным детям, отказывающимся признавать очевидные истины. Отмечу, что если ошибающийся не в состоянии проверить свои убеждения экспериментально, то он может внутренне ощущать себя также, как и в тех случаях, когда он прав.

Навык 3. Вы с меньшей вероятностью примете анти-эпистемологию и подход «мотивированной нейтральности», утверждающие, что истины не существует.

Это навык избегания: он не позволяет принять решение о том, что именно делать, а лишь указывает на один из многих способов совершить ошибку. При обучении стоит уделять меньше внимания подобным навыкам. Тем не менее, если вы уже потратили какое-то время на то, чтобы представить Салли и Анну с их разными убеждениями, а также как с их убеждениями соотносится положение мячика, вам легче не поддаться на чьи-то рассуждения об отсутствии объективной истины. Салли и Анна представляют мир по-разному, но реальность — настоящее положение мячика, — с которой сравниваются их убеждения, лишь одна, поэтому здесь нет «различных правд». Настоящее убеждение (в отличие от веры в убеждение) всегда ощущается как верное, и, да, действительно, у двух людей действительно могут быть разные ощущения истины, но ощущение истины — не территория.

Предположу, что для усвоения этого навыка стоит замечать, когда ты сталкиваешься с подобной анти-эпистемологией, и, возможно, представлять в ответ две фигуры в мысленных пузырях и их единое окружение. Впрочем, по-моему, большинству людей, которые понимают основную идею, не нужны дополнительные аргументы и тренировки, чтобы избежать описанной ошибки.

Навык 4. Принимать решения, рассуждая о последствиях для мира (метод Тарского, он же литания Тарского).

Предположим, вы размышляете, стоит ли стирать свои белые спортивные носки с тёмными вещами. Вы беспокоитесь, что носки могут покраситься, но, с другой стороны, вам очень не хочется запускать стиральную машину второй раз только из-за белых носок. Не исключено, что ваш мозг начнёт придумывать причины, почему вряд ли с вашими носками что-то произойдёт — например, скажет, что тут же нет совсем новых тёмных вещей. В таких случаях помогает литания:

Если на моих носках появятся пятна, я хочу верить, что на носках появятся пятна.
Если на моих носках не появятся пятна, я хочу верить, что на носках не появятся пятна.
Я не буду цепляться за веру, которую не хочу.

Чтобы ваш мозг прекратил убеждать сам себя, представьте, что вы уже в мире, где ваши носки в результате стирки потемнеют, или уже в мире, где с ними ничего не случится, и в обоих случаях вам лучше считать, что вы находитесь именно в том мире, в котором находитесь. Помогают мантры: «То, что может быть разрушено правдой, должно быть разрушено» и «Реальность — это то, что не исчезает, когда вы прекращаете в неё верить». Признание, что убеждение — это ещё не реальность, может помочь нам признать первичность реальности и либо перестать с ней спорить и принять её, либо проявить любопытство.

Анна Саламон и я обычно используем метод Тарского так: мы представляем мир, который нам не нравится или который отличается от наших убеждений, в нём себя, который верит в противоположное, и катастрофу, которая в результате последует. Например, представьте, что вы уже какое-то время едете на машине, вы до сих пор не доехали до своего отеля и начинаете беспокоиться, не пропустили ли вы нужный поворот. Если вы его всё-таки пропустили, вам придётся разворачиваться и ехать ещё 60 километров в противоположном направлении, а это очень неприятная мысль и ваш мозг изо всех сил пытается убедить себя, что вы не заблудились. Анна и я в этом случае представим мир, где мы заблудились, но продолжаем ехать вперёд.

Замечу, что это всего лишь одна из ячеек в матрице 2 х 2:

На самом деле вы едете в нужном направлении На самом деле вы заблудились
Вы считаете, что едете в нужном направлении Не надо ничего менять: просто продолжаете движение и вы приезжаете в отель на свою конференцию Просто продолжаете движение и в какой-то момент заезжаете на своей арендованной машине в море
Вы считаете, что вы заблудились Увы! Вы тратите целых пять минут своей жизни на ненужные вам распросы Вы тратите пять минут на расспросы, разворачиваетесь и едете 40 минут в противоположном направлении

Майкл «Валентайн» Смит говорит, что он применяет обсуждаемый навык, представляя все четыре ячейки по очереди. Практика позволяет делать это очень быстро, и он считает, что представлять все варианты полезно.

Перевод: 
Alaric
Оцените качество перевода: 
Средняя оценка: 4.3 (16 votes)

Рациональность как боевое искусство

Элиезер Юдковский

Мне очень нравится метафора, что рациональность — это боевое искусство для разума. Чтобы изучать боевые искусства, не обязательны огромные мускулы. Безусловно, люди спортивного телосложения чаще занимаются боевыми искусствами, однако боевые искусства можно изучать по самым разным причинам, в том числе и ради удовольствия. Если у вас есть рука, и все сухожилия и мускулы на месте, вы можете научиться сжимать кулак.

Аналогично, если у вас есть мозг, и с корой больших полушарий всё в порядке, вы можете научиться правильно его использовать. Если у вас есть способности, наверное, вы научитесь быстрее. Однако, искусство рациональности — это не про скорость обучения. Искусство рациональности — это тренировки машины, которая есть в голове у каждого из нас. Наши мозги склонны совершать систематические ошибки (как пример такой ошибки можно привести пренебрежение масштабом). Рациональность предназначена, чтобы исправлять такие ошибки или находить способы их обойти.

Увы, наш разум подчиняется нашей воле гораздо хуже, чем руки. По меркам эволюции способность управлять мускулами у нас появилась очень давно, способность же рассуждать о собственном процессе рассуждения — гораздо более свежее изобретение. Таким образом не стоит удивляться, что применять мускулы гораздо проще, чем применять мозги. Однако вряд ли разумно пренебрегать тренировками только потому, что они сложные. Люди захватили Землю не благодаря большим мускулам.

Если вы живёте в городе, наверняка у вас где-нибудь поблизости есть школа боевых искусств. Почему нет таких школ, где обучают рациональности?

Наверное, одна из причин заключается в том, что в рациональности сложно определить наличие навыков. Чтобы перейти на следующий уровень в тхэквондо, обычно нужно сломать доску определённой толщины. Если у вас получилось, все наблюдатели аплодируют. Если у вас не получилось, ваш учитель смотрит, как вы сжимаете кулак, и проверяет, правильно ли вы это делаете. Если неправильно, учитель вытягивает руку, сжимает кулак правильно и вы можете понаблюдать, как надо делать.

В школах боевых искусств техники владения мускулами вырабатывались и оттачивались поколениями. Передать техники рациональности гораздо сложнее, даже если ученик очень-очень хочет их освоить.

Совсем недавно — меньше полувека назад — люди узнали довольно много нового о человеческой рациональности. Например, экспериментальная психология рассказала об эвристиках и искажениях — наверное, это самое важное знание. Также появилась байесианская систематизация теории вероятностей и статистики, произошли новые открытия в эволюционной и социальной психологии. Мы получили эмпирические данные о человеческой психологии, у нас есть теория вероятностей, чтобы интерпретировать результаты экспериментов, и теория эволюции, чтобы объяснять результаты. Всё это дало нам новые способы заглянуть в наш собственный разум. С помощью этих наук мы теперь способны более чётко разглядеть «мускулы» наших мозгов и «пальцы» наших мыслей. У нас появился общий словарь для описания задач и их решений. Человечество может наконец построить боевое искусство для разума: придумать техники личной рациональности, делиться ими, систематизировать их и передавать следующим поколениям.

Я стал лучше понимать рациональность благодаря своим попыткам решать задачи, связанные с сильным искусственным интеллектом (чтобы по-настоящему построить работающего рационалиста из подручных материалов придётся самому овладеть рациональностью на достаточно высоком уровне). Зачастую задачи, связанные с ИИ, требуют намного большего, чем искусство личной рациональности, но иногда этого может хватить. Чтобы овладеть боевым искусством для разума нам нужно научиться в нужное время нажимать на нужные рычаги в гигантской уже существующей думающей машине, внутренности которой мы не в состоянии изменить. Часть этой машины оптимизирована в результате эволюционного отбора для достижения целей, которые противоречат нашим собственным. Мы объявляем, что нас интересует только правда, но в наши мозги зашит механизм рационализации лжи. То, что мы считаем недостатками машины, мы можем попробовать компенсировать, но мы не в состоянии по-настоящему перестроить наши нервные цепи. Впрочем, мастера боевых искусств тоже не в состоянии заменить свои кости титановыми, во всяком случае, пока.

Попытка создать искусство личной рациональности, опираясь на науку о рациональности, может показаться глупой. Кто-нибудь скажет, что это всё равно что пытаться изобрести боевое искусство на основе теоретической физики, теории игр и анатомии человека.

Однако люди способны к рефлексии. У нас есть природная склонность к интроспекции. Мы в состоянии заглянуть внутрь себя, пусть даже наше внутреннее зрение склонно к систематическим искажениям. Таким образом, нам нужно разобраться, что говорит наука по поводу нашей интуиции, с помощью абстрактных знаний исправить ход наших мыслей и улучшить наши метакогнитивные навыки.

Мы не пишем компьютерную программу, чтобы заставить марионетку показывать приёмы боевых искусств. Мы должны заставить двигаться «конечности» нашего собственного мозга. Для этого нам нужно связать теорию с практикой. Нужно выяснить, как использовать науку для нас самих, для повседневной работы нашего разума.

Перевод: 
Alaric
Оцените качество перевода: 
Средняя оценка: 3 (Всего оценок: 231)

Знание задним числом

Элиезер Юдковский

Знание задним числом это искажение, при котором люди, знающие ответ, значительно переоценивают его предсказуемость или очевидность в сравнении с оценками тех, кто данный ответ заранее не знает. Иногда это искажение называют эффектом «я-знал-это-наперед».

Фишхофф и Бейт [Fischhoff и Beyth, 1975] представили студентам исторические отчеты о малоизвестных событиях, таких, как конфликт между гуркхами и англичанами в 1814 году. Пять групп студентов, получивших эту информацию, были опрошены в отношении того, как бы они оценили степень вероятности каждого из четырех исходов: победа англичан, победа гуркхов, патовая ситуация с мирным соглашением или пат без соглашения. Каждое из этих событий было описано как реальный итог ситуации одной из четырех экспериментальных групп. Пятой, контрольной группе, о реальном исходе не говорили ничего. Каждая экспериментальная группа приписала сообщенному ей итогу гораздо большую вероятность, чем любая другая или контрольная группа.

Эффект знания «задним числом» важен в суде, где судья или присяжные должны определить, виновен ли обвиняемый в преступной халатности, не предвидев опасность. [Sanchiro, 2003]. В эксперименте, основанном на реальном деле, Камин и Рахлинский [Kamin and Rachlinski, 1995] попросили две группы оценить вероятность ущерба от наводнения, причиненного закрытием принадлежащего городу разводного моста. Контрольной группе сообщили только базовую информацию, бывшую известной городу, когда власти решили не нанимать мостового смотрителя. Экспериментальной группе была дана эта же информация плюс сведения о том, что наводнение действительно случилось. Инструкции устанавливают, что город проявляет халатность, если поддающаяся предвидению вероятность наводнения больше 10 процентов. 76 % опрашиваемых из контрольной группы заключили, что наводнение было настолько маловероятным, что никакие предосторожности не были нужны. 57 % экспериментальной группы заключили, что наводнение было настолько вероятно, что неспособность принять меры предосторожности была преступной халатностью. Третьей группе сообщили итог и также ясным образом инструктировали избегать оценки задним числом, что не привело ни к каким результатам: 56 % респондентов этой группы заключили, что город был преступно халатен.

Рассматривая историю сквозь линзы нашего последующего знания, мы сильно недооцениваем затраты на предотвращения катастрофы. Так, в 1986 году космический челнок Челленджер взорвался по причине того, что кольцевой уплотнитель потерял гибкость при низкой температуре [Rogers, 1986]. Были предупреждающие сигналы о проблемах, связанных с кольцевым уплотнителем. Но предотвращение катастрофы Челленджера должно было потребовать не только внимания к проблемам с кольцевым уплотнителем, но и озабоченности каждым аналогичным предупреждающим сигналом, который бы казался столь же серьезным, как проблема уплотнителей, без преимущества последующего знания.

Вскоре после 11 сентября я подумал про себя, что сейчас кто-либо вспомнит про предупреждавшие сигналы разведки или наподобие этого, после чего знание задним числом начнет свою работу. Да, я уверен, что были предупреждения об Аль-Каиде, но вероятно были такие же предупреждения и об активности мафии, незаконной продаже ядерных материалов и вторжении с Марса.

Поскольку мы не видим цену всей картины, мы склонны выучивать только частные уроки. После 11 сентября Федеральное авиационное агенство запретило пользоваться на самолетах ножами для бумаг - словно бы проблема заключалась в том, что была пропущена эта частная «очевидная» мера предосторожности. Мы не выучили главный урок: цена эффективных мер предосторожности крайне высока, поскольку вам нужно стараться понять, что проблемы не так очевидны, какими кажутся прошлые трудности в свете знания задним числом.

Тестирование модели подразумевает под собой рассмотрение, насколько вероятен наблюдаемый исход. Знание задним числом систематически искажает этот тест; мы думаем, что у нашей модели больше вероятность быть истинной, чем на самом деле. И простое знание об этом когнитивном искажении не помогает убрать его влияние. Вам нужно выписывать ваши предсказания заранее. Или как говорит Фишхофф (1982):

Когда мы пытаемся понять прошлые события, мы неявно тестируем гипотезы или правила, которые используем для интерпретации и предсказания мира вокруг нас. Если, в свете знания задним числом, мы систематически недооцениваем сюрпризы, которые прошлое готовило и готовит для нас, мы подвергаем эти гипотезы слишком слабым тестам, и, возможно, не находим достаточно причины менять их.

Перевод: 
Remlin
Оцените качество перевода: 
Средняя оценка: 3.4 (50 votes)

Пример предвзятого продолжения

Элиезер Юдковский

Я могу понять многих комментирующих в «Пытки против песчинок в глазу»(English), которые утверждают, что предпочтительней песчинки в глазах у 3^^^3 (удивительное большое, но конечное число) людей, чем пятидесятилетняя пытка одного человека. Если вы думаете, что песчинка просто не имеет значения, пока нет других посторонних эффектов — если вы буквально не предпочитаете отсутствие песчинки ее наличию — тогда ваша позиция последовательна. (Хотя я подозреваю, что многие сторонники песчинок выразили бы иное предпочтение, если бы не знали о жале дилеммы.)

Так что хоть я и на стороне тех, кто выбирает ПЫТКУ, но я могу понять и тех, кто выбирает ПЕСЧИНКИ.

Но некоторые из вас говорят, что вопрос бессмысленен; или что вся мораль относительна и субъективна; или что вам нужно больше информации, прежде чем вы можете решить; или вы говорите о других запутывающих аспектах проблемы; и тогда вы не хотите выражать свои предпочтения.

Простите. Не могу поддержать вас в этом.

Если вы на самом деле отвечаете на дилемму, тогда не имеет значения какой выбор вы сделаете, все равно придется от чего-то отказаться. Если вы скажете ПЕСЧИНКИ, вы откажетесь от вашего утверждения на основании определенного вида утилитаризма; вы можете волноваться, что вы недостаточно рациональны, или что другие обвинят вас в приверженности большим числам. Если вы скажете ПЫТКА, вы примете исход, что там есть пытка.

Я фальсифицируемо предсказываю, что большинство тех, кто уходит от ответа, на самом деле уже знают свой ответ — либо ПЫТКА, либо ПЕСЧИНКИ — от высказывания которого они уходят. Возможно просто на долю секунды прежде чем запутывающе-вопросная операция закончится, но я предсказываю, что уход есть. (для большей конкретности: я не предсказываю, что вы знали и выбрали и имели в сознании прямо сейчас некоторый определенный ответ, который осознанно не даете. Я предсказываю, что ваше мышление склонно к определенному неудобному ответу, по крайней мере на долю секунды, прежде чем вы начнете искать причины, чтобы поставить под вопрос саму дилемму.)

В дискуссиях на тему биоэтики, вы очень часто можете видеть экспертов, обсуждающих то, что они видят как за и против, скажем, для исследований по стволовым клеткам; и тогда, в заключение своей речи, они рассудительно объявляют, что срочно требуется больше обсуждений, с участием всех заинтересованных сторон. Если вы на самом деле приходите к некому заключению, если вы на самом деле делаете вывод, что нужно запретить эти исследования, то на вас ополчатся родственники умирающих от болезни Паркинсона. Если вы выскажетесь за продолжение исследований, то на вас обрушится гнев религиозных фундаменталистов. Но кто будет спорить с призывом к дальнейшим обсуждениям?

Не нравится то, к чему ведут свидетельства в споре дарвинистов и креационистов? Рассмотрите вопрос трезво и решите, что нужно больше свидетельств; вы хотите, чтобы археологи нашли еще миллиард окаменелостей, прежде чем вы придете к единому выводу. Таким образом вы никогда не скажете ничего кощунственного, и в то же время не порушите свой образ как рационалиста. Продолжайте делать это во всех вопросах, которые могут выглядеть как ведущие в неудобном направлении, и вы сможете поддерживать в своем сознании всю религию.

Настоящая жизнь часто запутана, и нам приходится выбирать все равно, поскольку отказаться от выбора — это тоже выбор. План ничего не делать — это тоже план. Мы всегда что-то делаем, даже бездействуя. Как сказали Рассел и Норвиг, «Отказываться выбирать это все равно что отказываться, чтобы время шло».

Уворачиваться от неудобных выборов — опасная привычка для сознания. Есть определенные случаи, когда мудро отложить суждение (на час, но не на год). Но когда вы встаете перед дилеммой, где все ответы кажутся неподходящими, это не такой случай! Выберите один из неудобных ответов как наилучший по степени неудобности. Если информации недостает, заполните пробелы правдоподобными предположениями или вероятностными распределениями. Делайте все, что угодно, чтобы превозмочь простой уход в сторону от неудобства. Поскольку при этом вы просто пытаетесь убежать.

Пока вы не выбрали промежуточное лучшее предположение, неудобство будет поглощать ваше внимание, отвлекать вас от поиска, искушать вас запутаться в вопросе всякий раз, когда ваш анализ будет приводить вас к определенному направлению.

В реальной жизни, когда люди уклоняются от неудобных выборов, они часто вредят другим точно так же, как и себе. Отказаться от выбора очень часто наихудший выбор, который вы можете сделать. Предвзятое продолжение — это не привычка мышления которую кто-либо может себе позволить, независимо от того, эгоист это или же альтруист. Цена удобства слишком велика. Важно овладеть привычкой стискивать зубы и выбирать — так же важно как впоследствии искать лучшие альтернативы.

Перевод: 
Remlin
Оцените качество перевода: 
Средняя оценка: 3.3 (66 votes)

31 закон удовольствия

Элиезер Юдковский

«Утопия? Вот это? Надо же…
По-моему, на Ад походит больше».

сэр Макс Бирбом, стихотворение, названное
«Надпись на экземпляре Утопии Мора (или Шоу, или Уэллса, или Платона, или кого угодно другого)»

Это краткое изложение цепочки «Теория удовольствия». Оно состоит из советов для авторов или футурологов, желающих описать мир, в котором людям действительно хотелось бы жить. Вся теория осталась «за кадром».

  1. Подумайте о типичном дне человека, который живёт в Утопии уже не первый день. Не зацикливайтесь на первых мгновениях «о-я-услышал-хорошую-новость». Усталый, измученный бедностью крестьянин обрадуется, услышав в раю, что «тебе больше не нужно работать, а улицы вымощены золотыми плитками!», но, скорее всего, спустя пару месяцев он уже будет не настолько счастлив от этого. (Prolegomena to a Theory of Fun1.)

  2. Хорошо подумайте перед тем, как внедрять в вашу Утопию какие-то занятия, которые вы считаете обязательными, хотя они не являются приятными. Взгляните на тот же христианский рай: пение гимнов не выглядит сверхудовольствием, но раз молитвой положено наслаждаться, никто не заостряет на этом внимание. (Prolegomena to a Theory of Fun.)

  3. Упрощение компьютерной игры не всегда её улучшает. То же самое верно и для жизни. Думайте не о полном уничтожении работы, а о том, как избавить людей от «низкокачественной» рутины, чтобы они могли заниматься «высококачественными» сложными делами. (High Challenge.)

  4. В жизни нужны новые ощущения и опыт, и лучше, чтобы он учил чему-то новому. Если новый опыт поступает слишком медленно (по сравнению со скоростью его усвоения и обобщения), будет скучно. (Complex Novelty.)

  5. Люди должны умнеть со скоростью, достаточной для интеграции старого опыта. Но они не должны умнеть настолько быстро, что им некуда будет применить свой новый интеллект. Чем умнее человек, тем быстрее ему становится скучно, но умный человек может решать задачи, которых раньше просто не понимал. (Complex Novelty.)

  6. Люди должны жить в мире, в котором их чувства, тела и мозги используются на полную катушку. Либо мир должен больше напоминать первобытную саванну, чем, скажем, офис без окон, либо мозги и тела должны быть модифицированы, чтобы различные разновидности сложных задач и окружений задействовали их полностью. (Для развлекательной фантастики предпочтителен первый вариант.) (Sensual Experience.)

  7. Тимоти Феррисс писал: «Что противоположно счастью – горе? Нет. Любовь и ненависть – две стороны одной и той же монеты, то же самое справедливо для счастья и горя… Антитеза любви – безразличие, противоположность счастья – скука, в том-то и вся загвоздка… Следует задаваться не вопросами „Чего я хочу?“ или „В чем заключается моя цель“, а вопросом „Что по-настоящему увлекает меня?“… „Жить как миллионер“ – значит заниматься интересными делами, а не просто владеть имуществом, вызывающим зависть».2 (Existential Angst Factory.)

  8. Жизнь каждого человека должна становиться всё лучше и лучше. (Continuous Improvement.)

  9. Вам не надо точно знать, что именно станет лучше в будущем, но вы должны постоянно пытаться это предсказать. В итоге будущее должно оказаться приятным сюрпризом. (Justified Expectation of Pleasant Surprises.)

  10. Наши предки, охотники и собиратели, сами мастерили свои луки, плели свои корзины и строгали свои флейты. Затем они самостоятельно охотились, собирали и играли свою музыку. В Утопиях будущего часто изображается всё больше и больше удобных кнопок, но что именно они делают — понятно всё меньше и меньше. Не спрашивайте о том, что Утопия может сделать для людей. Подумайте лучше, чем интересным могут заниматься её жители — используя свой мозг, своё тело и понятные им инструменты. (Living By Your Own Strength.)

  11. Живя в Эутопии3, люди должны становиться сильнее, а не слабее. Её обитатели должны впечатлять больше, чем обитатели нашего мира, а не наоборот. (Living By Your Own Strength. Также см. Цуёку наритаи.)

  12. Жизнь не должна дробиться на серию несвязанных между собой эпизодов, не имеющих долгосрочных последствий. Нельзя построить жизнь, играя в самые лучшие компьютерные игры, и неважно, насколько эти игры сложны и реалистичны. (Emotional Involvement.)

  13. Люди должны сами вершить свою судьбу. В их жизни всегда должно оставаться место их планам, воображению и возможности управлять своим будущим. Нельзя делать граждан пешками в руках могучих богов, и тем более — их материалом для лепки. Есть простой способ решить эту проблему: мир должен работать по стабильным правилам, которые для всех одинаковы, и Эутопия должна держаться на хорошем выборе начальных правил, а не на каком бы то ни было оптимизационном давлении на жизни людей. (Free to Optimize.)

  14. Человеческие разумы не должны играть на одном поле со значительно превосходящими их сущностями. Большинство людей не любит быть в тени. При взаимодействии с богами человек теряет статус «главного персонажа». Это нежелательно в фантастике, а возможно, и в реальной жизни. (См. “Нарния” К.С. Льюиса, “Культура” Иэна Бэнкса). Либо измените эмоциональную организацию людей так, чтобы они не чувствовали себя ненужными, либо не допускайте богов на их игровое поле. Художественное произведение, предназначенное для людей, не может использовать первый путь. (И в реальной жизни, вероятно, могут быть ИИ, не относящиеся ни к разумным, ни к мешающим. См. основной пост и предшествующее ему.) (Amputation of Destiny.)

  15. Также сложно придумать, как человек может соревноваться на одном поле с ещё шестью миллиардами других людей. Наши первобытные предки жили в группах примерно по 50 человек. Сегодня же СМИ постоянно бомбардируют нас новостями о необычайно богатых и милых людях, и возникает ощущение, будто они живут по соседству. Однако очень немногие люди имеют шанс стать лучшими в чём бы то ни было. (Dunbar’s Function.)

  16. Наши первобытные предки в какой-то степени могли по-настоящему влиять на политику своего племени. Сравните с современным миром национальных государств, в котором почти никто не знает Президента лично и не может убедить Конгресс в том, что он принял плохое решение. (Впрочем, это не мешает людям спорить так, будто они всё ещё живут в племени из полусотни человек.) (Dunbar’s Function.)

  17. Слишком большой выбор не всегда оказывается благом (особенно, если люди не в состоянии получить предлагаемые возможности самостоятельно). Боль от потери сильнее, чем удовольствие от эквивалентного приобретения, и потому, если варианты выбора различаются по многим параметрам, а доступен только один вариант, люди будут фокусироваться на потере невыбранного. Если у людей есть способ избежать неких трудностей, то трудности кажутся менее серьёзными, даже если человек не пользуется этим способом. Также, к сожалению, люди предсказуемо совершают определённые ошибки. Не стоит думать, что больше вариантов — это всегда лучше, потому что «люди всегда могут просто сказать „нет“ ». Больше вариантов выбора обнадёжит лишь читателя художественной книги. «Не волнуйся, ты сделаешь выбор! Ты же доверяешь себе?» Однако жить в условиях большого выбора не всегда настолько забавно. (Harmful Options.)

  18. Экстремальный пример для предыдущего пункта: постоянное искушение невероятно опасными соблазнами, вроде абсолютно реалистичного виртуального мир, или наркотик, дарующий невероятно приятные ощущения и вызывающий сильнейшую зависимость. Вы не сможете позволить себе ни минуты слабости. (См. трилогию Джона Райт «Золотой век»). (Devil’s Offers.)

  19. Однако, если люди развиты настолько, что способны отстрелить себе ноги без посторонней помощи, останавливать их — это чересчур. Можно лишь надеяться, что он достаточно умны, чтобы это не делать, ведь к тому времени, когда они создают пистолет, они уже знают, что происходит при нажатии на курок, и им не нужно удушающее «защитное одеяло». Если это верно, то опасные возможности должны быть ограждены преградами соответствующей «высоты». (Devil’s Offers.)

  20. Если сказать людям правду, до которой они пока не дошли самостоятельно, это не всегда им поможет. (Joy in Discovery.)

  21. Мозг — одна из сложнейших штук во вселенной. Поэтому нам редко приходится взаимодействовать с чем-то сложнее, чем другие люди (другие разумы). И это взаимодействие уникально из-за эмпатии, которую мы испытываем друг к другу: наш мозг считает другие мозги чем-то похожим на себя, а не воспринимает их как большие и сложные машины, у которых нужно дёргать рычажки. Если людям нужно будет меньше взаимодействовать с другими людьми, сложность человеческого существования понизится. Это шаг в неверном направлении. Поэтому не стоит поддаваться искушению упростить жизнь людей, например, дав им идеальных искусственных сексуальных/романтических партнёров. (Interpersonal Entanglement.)

  22. Однако следует признать, что статистически у людей есть проблемы с сексуальными взаимодействиями: распределение мужских характеристик не соответствуют распределению женских желаний и наоборот. Не всё в Эутопии должно быть просто, однако в ней не должно быть ничего бессмысленного и не должно быть разочарований, с которыми ничего нельзя поделать. (Это общий принцип.) Поэтому лучше подумать, как можно повлиять на распределения, чтобы задача оказалась разрешима, а не решать её взмахом волшебной палочки. (Interpersonal Entanglement.)

  23. Вообще, менять мозги, разумы, эмоции и личные качества гораздо опаснее (и с точки зрения этики, и с точки зрения сложности), чем менять тела и условия обитания. Всегда стоит подумать, что вы можете сделать с окружающей средой, перед тем как придумывать изменения в сознании, а если уж решили заняться сознанием, начинайте с маленьких изменений. В противном случае за полётом вашей мысли не успеют не только ваши читатели, но и ваше собственное воображение. (Changing Emotions.)

  24. В нашем мире наслаждение и боль не сбалансированы. Неопытный палач с простыми инструментами за тридцать секунд причинит больше боли, чем сверхискушенный секс-мастер сможет доставить удовольствия за тридцать минут. Один из вариантов — устранить этот дисбаланс: пусть в мире будет больше радости, чем печали. Боль допустима, но только не бесцельная бесконечная невыносимая боль. Наказание должно быть пропорционально ошибке: человек может коснуться горячей плиты и получить болезненный ожог, но он не должен оказываться в инвалидном кресле из-за того, что отвлёкся на пару секунд. Люди становятся сильнее и меньше мучаются. Также в этом варианте следует устранить боль, убивающую разум, и сделать удовольствия более доступными. Другой вариант — полное устранение боли. Возможно, с точки зрения реального мира у него есть серьёзные преимущества, но в художественной литературе его выбирать нельзя ни в коем случае. (Serious Stories.)

  25. Джордж Оруэлл однажды заметил, что Утопии крайне озабочены тем, как бы избежать беспокойства. Не бойтесь написать громкую Эутопию, которая разбудит ваших соседей. (Eutopia is Scary, Джордж Оруэлл, «Почему социалисты не верят в счастье».)

  26. Джордж Оруэлл также заметил, что «Жители идеальных вселенных не способны на спонтанное веселье и обычно отвратительно торгуются». Если в вашей истории персонажи ведут себя именно так, возможно, вы упустили что-то серьёзное и ситуацию нельзя исправить, обязав Государство нанять несколько клоунов. (Джордж Оруэлл, «Почему социалисты не верят в счастье».)

  27. Если бы Бен Франклин попал в наше время, чему-то он бы удивился и обрадовался. Что-то наоборот показалось бы ему ужасающим и отвратительным, и не потому что наш мир развивался как-то неправильно, а потому что наш мир стал лучше по сравнению с эпохой Франклина. Очень мало вещей оказались бы именно такими, как он ожидал. Если вы воображаете мир, который кажется вам знакомым и комфортным, он мало кого вдохновит. Этот мир будет казаться ненастоящим. Попробуйте изобрести по-настоящему лучший мир, который шокировал бы вас (по крайней мере, поначалу), и в котором бы вы чувствовали себя не в своей тарелке (по крайней мере, поначалу). (Eutopia is Scary.)

  28. Утопия и антиутопия — две стороны одной медали: обе подтверждают ваши исходные моральные убеждения. Неважно, либертарианская это утопия с невмешивающимся правительством, или адская антиутопия, в которой государство вторгается во всё, вы скажете: «Я всегда был прав.» Не стоит придумывать мир, который будет соответствовать вашим текущим идеалам государства, отношений, политики, работы или повседневной жизни. Не надо плыть ни по течению, ни против, создайте что-нибудь ещё. (Чтобы обезопасить свои идеалы, скажите себе: «Наверняка это хороший мир, но он не лучше моей любимой стандартной Утопии…». Однако, если ваши идеалы начнут меняться, вы поймёте, что всё сделали правильно.) (Building Weirdtopia.)

  29. Если ваша Утопия оказалась мрачным местом, задыхающимся под тяжестью экзистенциальной тоски, и у вас ничего не получается с этим поделать, значит, есть как минимум одна серьёзная проблема, на которую вы совсем не обратили внимания. (Existential Angst Factory.)

  30. Жалок тот разум, который заботится лишь о себе и ни о чём другом. В нашем мире, чтобы заметить множество людей, находящихся в отчаянном положении, альтруисту стоит лишь оглянуться. У людей в лучшем мире картина иная: в настоящей Эутопии не так легко найти жертв, которых нужно спасать. Из этого не следует, что жители Эутопии оглянувшись вокруг, ничего не увидят: они смогут заботиться о друзьях и семье, правде и свободе, совместных проектах, а также других разумах, общих целях и высоких идеалах. (Higher Purpose.)

  31. В то же время, не стоит для своей истории об Эутопии использовать удобный сюжет «Тёмный Лорд Саурон собирается напасть и всех убить». Потенциальный автор обязан придумать какие-то чуть менее ужасные вызовы для своих персонажей. Ведь прогресс человечества не мешает рассказывать истории об отдельных людях, и люди могут интересно жить даже в отсутствие неминуемой угрозы смерти. Показать это — интересная и сложная задача. Тем же, кому интересны катастрофы планетарного масштаба, стоит сосредоточиться на наших современных реалиях. (Higher Purpose.)

Найти решение, которое удовлетворит всем вышеизложенным условиям, — упражнение для читателя. По крайней мере, пока.

Упоминание в данном списке определённых законов не должно быть истолковано как отрицание или принижение неупомянутых. Например, я не написал о юморе, но мир без смеха был бы тосклив, и т.д.

Каждому, кто всерьёз хочет написать Эутопию с применением этих законов, я хочу сказать: сначала научитесь писать. Существует очень много книг о том, как писать. Вам нужно прочесть минимум три. В любой из них будет упомянуто о важности практики. Тренироваться лучше на чём-нибудь полегче, чем Эутопия. Тем не менее, мой второй совет авторам таков: вашим персонажам никогда не будет скучно и просто, пока они могут создавать друг другу трудности.

И напоследок хочу предупредить: детальная проработка мира, который лучше, чем ваша жизнь, может высосать вашу душу как дементор. Теория Удовольствий опасна. Применяйте её осторожно, вас предупредили.

  • 1. Каждый из пунктов этого эссе ссылается на какое-то эссе из упомянутой цепочки «Теория удовольствия». К сожалению, эта цепочка пока ещё не дождалась своих переводчиков на русский язык. — Прим.перев.
  • 2. Цитируется по переводу Тимоти Феррис, «Как работать по четыре часа в неделю», ООО «Издательство «Добрая книга», 2008, 2010. — Прим.перев.
  • 3. Здесь и далее Юдковский использует слово «Эутопия»(Eutopia) для обозначения «настоящей» Утопии, той, в которой действительно приятно жить. — Прим.перев.
Перевод: 
Tookser, Alaric
Оцените качество перевода: 
Средняя оценка: 3.3 (50 votes)

Атеизм = не-теизм + анти-теизм

Элиезер Юдковский

Время от времени нам задают вопросы из серии «Какая польза от того, чтобы постоянно быть недовольным по поводу того, что Бога нет?». С другой стороны, мы слышим такие фразы, как «Младенцы — атеисты от природы». Мне кажется, что такие замечания и довольно глупые дискуссии, которые вокруг них разгораются, показывают, что понятие «атеизм» на самом деле состоит из двух отдельных компонентов. Назовём их «не-теизм» и «анти-теизм».

Чистый «не-теист» — это человек, выросший в обществе, в котором понятие «Бог» просто никогда не было изобретено — письменность в этом обществе изобрели раньше сельского хозяйства, и одомашивание растений и животных было делом рук ранних учёных. В таком мире суеверие добралось только до первобытного этапа, на котором мир кажется наполненным множеством духов, почти не имеющих собственной морали. Затем суеверие вступило в конфликт с наукой и сошло на нет.

Суеверия первобытных охотников и собирателей не очень похожи на то, что мы обычно понимаем под «религией». Ранние западные комментаторы часто высмеивали их, утверждая, что они и вовсе религией не являются; эти комментаторы, на мой взгляд, были правы. У охотников и собирателей сверхъестественные агенты не имеют никакой особенной моральной грани, и не следят за соблюдением каких-то правил. Их можно умилостивить церемониями, но им не поклоняются. И, что самое главное, охотники и собиратели ещё не успели расщепить свою эпистемологию. У первобытных культур нет специальных правил для рассуждений о «сверхъестественных» сущностях, или даже явного разграничения между сверхъестественным и естественным; духи грома просто существуют в рамках естественного мира, о чём свидетельствует молния, и наш ритуальный танец вызова дождя призван управлять ими. Это, наверно, не идеальный танец вызова дождя, но это лучший из всех, что пока придумали — был ещё тот знаменитый случай, когда он сработал…

Если бы вы показали первобытным людям ритуал для вызова дождя, который работал бы со стопроцентной гарантией посредством взывания к другому духу (или завод по опреснению воды, что в принципе одно и то же), они, скорее всего, быстро избавились бы от старого. У них нет специальных правил для рассуждения (English) о духах — ничего, что могло бы оправдать результат теста имени пророка Илии, который прошёл новый ритуал и не прошёл старый. Для отрицания этого теста нужна вера, религиозные убеждения — а это концепция, возникшая уже после аграрного периода. Перед этим не было государств, в которых священнослужители были ветвью власти, боги не являлись моральным стандартом и не следили за соблюдением установленных вождями правил, и за сомнения в них и их существовании не было специального наказания.

И поэтому цивилизация не-теистов, изобретя науку, просто самым обычным образом делает вывод, что дождь, оказывается, вызван конденсацией в облаках, а не духами. Они ощущает некоторую неловкость по поводу старого суеверия и без промедления выбрасывают его прочь. Они не испытывают никаких трудностей, потому что у них есть лишь суеверия, они ещё не успели добраться до анти-эпистемологии (English) (дополнительных правил мышления в определённых категориях, обычно для защиты существующих убеждений от опровержения).

Не-теисты не знают, что они «атеисты», потому что им никто не рассказал, во что они должны не верить — никто не изобрел «высшего бога», который был бы главным в пантеоне, не говоря уже о монолатрии или монотеизме.

Тем не менее, не-теисты уже знают, что они не верят в существование духов деревьев. Мы можем даже предположить, что они не только не верят в лесных духов, но и в целом имеют хорошую, развитую эпистемологию, и поэтому понимают, что постулировать онтологически базовые ментальные сущности (сущности, которые нельзя редукционистски свести к не-ментальным сущностям, таким, как атомы) — не очень хорошая идея.

Как не-теисты встретят идею Бога?

— Вселенная была создана Богом.
— Кем?
— Э-э, гм, Богом. Бог есть Творец — разум, который решил создать вселенную, и…
— А, так вы утверждаете, что вселенная была создана разумным агентом. Похоже, вы говорите о стандартной гипотезе о том, что мы живём в компьютерной симуляции. Вы, кажется, весьма уверены в этом — у вас что, есть какие-то сильные свидетельства?..
— Нет, я не имею ввиду Матрицу! Бог — это не житель другой Вселенной, запустивший симулятор этой, он просто… Его невозможно описать. Он есть Первопричина, Творец всего, и…
— Кажется, вы постулируете онтологически базовую мыслящую сущность. К тому же, то, что вы предложили — это просто таинственный ответ на таинственный вопрос. Вообще, откуда вы всё это взяли? Не могли бы вы начать рассказ со своих свидетельств — какие новые наблюдения Вы пытаетесь объяснить?
— Мне не нужно никаких свидетельств, у меня есть Вера!
— У вас есть что?

И в этот самый момент не-теисты впервые стали атеистами. То, благодаря чему произошла эта трансформация и есть приобретение анти-теизма — формулирование явных аргументов против теизма. Если вы ни разу не слышали о Боге, вы можете быть не-теистом, но не анти-теистом.

Конечно же, не-теисты не собираются изобретать какие-то новые правила для опровержения Бога — они просто применяют стандартные эпистемологические принципы, которые были разработаны их цивилизацией в процессе отказа от других теорий и концепций — таких, скажем, как витализм. Рационалисты утверждают, что именно так и должен выглядеть анти-теизм в нашем мире: анализ религии при помощи стандартных, общих правил. Этот анализ, как становится ясно достаточно скоро, приводит к её полному отбрасыванию — как с точки зрения познания мира, так и с точки зрения морали. Каждый анти-теистический аргумент должен быть частным случаем общего правила эпистемологии или морали, применимого и вне религии — к примеру, в столкновении науки и витализма.

Если принять во внимание различие между не-теизмом и анти-теизмом, то многие современные споры становятся более понятными — например, вопрос «Зачем придавать столько значения тому, что Бога не существует?» можно перефразировать в «Какова польза обществу от попыток распространения анти-теизма?» Или вопрос «Какой толк от того, чтобы быть просто против чего-то? Где ваша позитивная программа?» превращается в «Меньше анти-теизма и больше не-теизма!». И становится понятно, почему фраза «дети рождаются атеистами» звучит странновато — просто дети не имеют понятия об анти-теизме.

Теперь что касается утверждения о том, что религия совместима с разумным познанием: найдётся ли хоть одно религиозное утверждение, которое не будет отвергнуто хорошо развитой, продвинутой цивилизацией не-теистов? Не будет отвергнуто в ситуации, когда ни у кого нет причин быть осторожным с выводами, нет специальных правил, выделяющих религию в отдельный магистерий, и нет последователей существующих традиционных религий, которых не хотелось бы расстраивать?

Борьба против богизма не имеет никакой самостоятельной ценности — общество не-теистов забудет об этом споре на следующий же день.

Но, по крайней мере, в нашем мире безумие — это не очень хорошо, и здравомыслие стоит защищать, и поэтому открытый анти-теизм (такой как, например, у Ричарда Докинза) приносит пользу обществу — разумеется, при условии того, что он действительно работает (вполне возможно, так и есть: в новом поколении всё больше и больше атеистов).

Тем не менее, цель в долгосрочной перспективе — это не общество атеистов. Это общество не-теистов, в котором на вопрос «Если Бога нет, то что же остается?» люди с недоумением отвечают «А разве чего-то не хватает?».

Перевод: 
sershe
Оцените качество перевода: 
Средняя оценка: 3.4 (728 votes)

Забудьте кое-что, чему вас учили в школе

Элиезер Юдковский

В «Трех школьных вещах, от которых нужно отучиться» (English) Бен Касноча ссылается на список из трех вредных привычек мышления, составленный Биллом Буллардом: считать важными частные мнения, решать выданные задачи, зарабатывать одобрение других. Альтернативы, предлагаемые Буллардом, не кажутся мне хорошими, однако он уверенно выделил некоторые важные проблемы.

Я могу назвать многие другие вредные привычки мышления, привитые школой (и их будет слишком много, чтобы озвучить здесь), но ограничусь двумя из наиболее нелюбимых.

I. Полагаю, что самая опасная привычка мышления, которую прививает школа, заключается в том, что вы, даже не понимая чего-то, можете просто воспроизвести это, как попугай. Один из базовых навыков, полезных в жизни, — уметь осознать свое замешательство, и школа активно сводит эту способность на нет, приучая школьников думать, что они «понимают», если они в состоянии успешно ответить на аттестационные вопросы, что крайне, невероятно далеко от полноценного усвоения знаний, когда они становятся частью вас. Ученики привыкают, что «питание» означает «класть еду в рот»; экзамен не требует разжевывать ее или проглатывать, и они остаются голодными.

Основной причиной этой проблемы может быть необходимость параллельно изучать несколько предметов (каждый из них, разумеется, требует прочитывать большие объемы текстов и выполнять немалое количество домашних работ); расписание запланировано под неистовую зубрежку, за это время невозможно глубоко разжевать и неторопливо переварить знания. Ученикам колледжей не позволяется быть озадаченными; если кто-то из них решит сказать «Постойте, а понимаю ли я это на самом деле? Может, лучше будет, если я проведу несколько дней, читая статьи на эту тему, или обращусь к другому учебнику», он провалится на всех курсах, которые взял на четверть. Через месяц он смог бы понять материал куда лучше и запомнить надолго, но месяц после экзаменов — слишком поздно; в безумной функции полезности, принятой в университетах, это пустой звук.

Многие учащиеся, прошедшие через этот процесс, после этого даже не осознают, если что-то озадачивает их, и не замечают белых пятен в своем мышлении. Их отучили брать паузу на размышление.

II. Я где-то читал (не помню, где именно), что в некой стране физики, казалось, всё больше становились похожими на фанатичных религиозных экстремистов. Это озадачивало меня, пока автор не предположил, что студенты-физики воспринимают услышанные знания как твёрдую истину и таким образом усваивают привычку доверять авторитету.

Выдавать людям авторитетные знания в огромных объемах может быть опасно, особенно если эти знания верны. Это может навредить критическому мышлению.

Но как же нужно поступать? Рассказывать учащимся историю физики, как одни идеи, в свою очередь, сменялись другими, верными? «Вот старая идея, вот новая, вот эксперимент: новая идея победила!» Повторите этот урок десять раз, и какой навык мышления вы привьете? «Новые идеи всегда выигрывают; каждая новая мысль в физике оказывается верной». Так вы по-прежнему не научите никого критическому мышлению, потому что только покажете, как выглядит история задним числом. Вы привьете студентам мысль, что различать справедливые и ложные идеи — это совершенно прозрачно и прямолинейно, и даже если нет ничего, что подтвердило бы новую блестящую мысль, она, похоже, верна.

Не исключено, что возможно преподавать историю физики с исторически реалистичной точки зрения (не опираясь на ретроспективный взгляд) и показывать студентам различные альтернативы, казавшиеся вероятными в свое время, воспроизводя имевшие тогда место разногласия и дискуссии.

Возможно, вы смогли бы избежать подачи знаний студентам на блюдечке с голубой каемочкой: покажите им различные версии уравнений (выглядящие похожими на правду!) и попросите объяснить, какие из них справедливы, или разработать эксперименты, которые смогут различить альтернативы. Это не настолько затруднительно, как если бы мы требовали замечать необычное без подсказок и изобретать объяснения с нуля, но этот способ был бы громадным улучшением по сравнению с тем, чтобы просто запоминать авторитетные знания.

Пожалуй, вы смогли бы выработать привычку думать так: «Мысли, изложенные в авторитетных источниках, зачастую несовершенны, но необходимо приложить огромные усилия, чтобы найти идею лучше. Большинство возможных изменений привело бы к худшему, хотя каждое улучшение — это обязательно изменение».

Перевод: 
Quilfe, Mari_Priutilova, tatiana090293
Оцените качество перевода: 
Средняя оценка: 4.8 (15 votes)

Непередаваемое превосходство

Элиезер Юдковский

Есть целый литературный жанр, предлагающий продать вам секретный ингредиент успеха Билла Гейтса или Уоррена Баффета, создателя сверхуспешной холдинговой компании Berkshire Hathaway. Основная идея: вы, да-да, именно вы можете стать следующим Ларри Пейджем.

Но скорее всего даже Уоррен Баффет не сможет сделать из вас следующего Уоррена Баффета. Настолько невероятный успех потому и называется невероятным, что никто ещё не догадался, как достичь его наверняка.

Эти книги в большинстве своём – пустая трата надежды. Они скармливают нам исступление от близкой, но недостижимой возможности славы; поэтому я называю их «порнографией превосходства», с поджанрами вроде «порнографии инвестирования» или «порнографии бизнеса», рассказывающими, как любой бариста может основать следующий Старбакс, а любой экономист - попасть в список Fortune 500. Называть эти произведения «порнографией превосходства», наверное, нехорошо по отношению к настоящей порнографии, которая, по крайней мере, явная фикция.

В нашем мире есть невероятно мощные техники, которые наша цивилизация научилась преподавать, техники наподобие «проверяй идеи экспериментом» или «используй капитал, чтобы добыть больше капитала». Вы, да-да, именно вы, можете стать учёным! Может, не совсем каждый, но достаточно людей могут стать учёными, используя выучиваемые техники и передаваемое знание, чтобы поддержать нашу техногенную цивилизацию.

«Вы можете заново инвестировать выручку от предыдущих инвестиций!» Может, вы и не взорвёте рынок, как Уоррен Баффет, но подумайте о цивилизации в целом, практикующей это правило. Мы справляемся намного лучше, чем это делали древние общества без банков и бирж. (Нет, серьёзно, в целом мы до сих пор лучше.) Потому что приём Реинвестирования может быть передан, может быть записан словами, может работать даже для обычных людей без экстраординарной удачи… мы не считаем его невероятным триумфом. Каждый может его применить, значит, наверное, не так уж он и важен (English).

Уоррен Баффет сумел заставить многих людей ценить инвестирование. Он выдал череду советов, и действенных советов притом, исходя из тех, что я читал. По крайней мере, у меня сложилось впечатление, что если бы он знал, как рассказать, что осталось, он бы попросту рассказал.

Но Berkshire Hathaway и Баффет лично до сих пор тратят огромное количество времени, высматривая выдающихся менеджеров. Зачем? Потому что они не знают никакого систематически надёжного способа брать смышлёных детей и превращать их в обитателей Fortune 500.

Есть вещи, которым можно научиться у звёзд. Но вы не можете ожидать так просто поглотить всю их душу; последние кусочки экстраординарности будут самыми сложными. В лучшем случае, вы выучите несколько полезных трюков, которые также могут выучить немало других людей, но так и не подберётесь к желаемому статусу звезды. Если, конечно, у вас самих нет правильного набора генов, годов усилий, вложенных в тренировки, гор удачи на всём пути, и т.д., и т.п.; идея в том, что вам не добраться туда, читая порнографию.

(Если кто-то и в самом деле изобретёт новый выучиваемый суперприём, способный двинуть нашу цивилизацию далеко вперёд, то уже к тому моменту, как вы его закончите учить, появятся сотни других звёзд, применяющих этот трюк!)

Есть много уроков, которые можно извлечь отсюда, но один из главных - история учит не тому, как побеждать, а тому, как не проигрывать (English).

Намного легче избегать повторения легендарных провалов, чем повторять легендарные успехи. Также ошибки намного легче обобщать между областями. Предполагаемые инструкции «как стать звездой» крайне конкретные (Баффет != Эйнштейн), тогда как уроки «как не быть идиотом» в разных профессиях имеют много общего.

Кен Лэй, может научить, как не погубить ещё один Enron, намного надёжнее, чем Уоррен Баффет – как основать ещё один Berkshire Hathaway. Кейси Серин может научить, как терять надежду, лорд Кельвин - как не поклоняться своему невежеству…

Но такие уроки не сделают из вас звезды. Они могут предотвратить вашу жизнь от несчастий, но это не то же самое, что великие победы. Ещё хуже, эти уроки могут показать, что вы делаете что-то не так, что вы, да-да, именно вы вот-вот пополните списки дураков.

Намного легче продавать порнографию превосходства.

Перевод: 
Павел Садовников
Оцените качество перевода: 
Средняя оценка: 4.2 (10 votes)

О красоте математики

Элиезер Юдковский

Взглянем на последовательность {1, 4, 9, 16, 25, …}. Можно заметить, что это квадраты: A[k] = k^2. Предположим, однако, что вы не увидели закономерности с первого взгляда. Есть ли способ предсказать следующий элемент последовательности? Да, можно найти разности между соседними элементами (разности первого порядка) и получить следующе:

{4 – 1, 9 – 4, 16 – 9, 25 – 16, …} = {3, 5, 7, 9, …}

Даже если вы не заметили, что это последовательные нечётные числа, сдаваться пока рано. Если вы найдете разности соседних чисел ещё раз (назовем это разностями второго порядка), то у вас получится следующее:

{5 – 3, 7 – 5, 9 – 7, …} = {2, 2, 2, …}

Если вы не сможете увидеть, что это повторяющаяся двойка, то в этом случае вы действительно безнадежны.

Но если вы предскажете, что и следующая разность второго порядка — это тоже 2, то это позволит предположить, что следующая разность первого порядка — 11, а следующий элемент исходной последовательности должен равняться 36. И это, как вы вскоре убедитесь, верно.

Копнув достаточно глубоко, можно обнаружить скрытую закономерность, внутреннюю структуру, устойчивые соотношения под переменчивой поверхностью.

Исходная последовательность была получена возведением в квадрат идущих друг за другом чисел. Однако нам удалось продолжить её, используя, казалось бы, совершенно другой подход — такой, который мы, в принципе, могли бы применить, даже не осознавая, что получаем квадраты. Можете ли вы доказать, что эти способы всегда равносильны? (Ведь до сих пор, как вы заметили, мы этого не доказывали, а только предполагали по индукции.) Можете ли вы, как любил спрашивать Пойя, упростить доказательство так, чтобы оно было ясным с первого взгляда?

По современным стандартам это очень простой пример, но это пример такой вещи, в поисках которой математики порой тратят целые жизни.

Радость математики заключается в том, что мы изобретаем некоторые объекты, а затем обнаруживаем, что они обладают всевозможными удивительными свойствами, которые мы не намеревались им прививать. Это как сконструировать тостер и увидеть, что ваше изобретение по какой-то неясной причине работает ещё и как реактивный ранец и mp3-плеер.

Числа открывали и переоткрывали множество раз на протяжении истории человечества. (Похоже, что на некоторых артефактах, датируемых 30000 г. до н.э., действительно находятся насечки, подозрительно напоминающие счетные.) Но я сомневаюсь, что кто-нибудь из людей, придумавших счёт, представлял себе, какой работой он обеспечит будущие поколения математиков. Или то возбуждение, которое однажды будет окружать Великую теорему Ферма или проблему факторизации в RSA-криптографии… И тем не менее всё это неявно уже содержится в определении натуральных чисел, как разности первого и второго порядка — в последовательности квадратов.

Именно это создает впечатление математической вселенной, существующей «где-то там», в платоновском Идеальном, которое люди скорее изучают, нежели создают. Наши определения переносят нас в различные участки Идеального, но мы не создаем там ничего самостоятельно. Так кажется, как минимум, потому, что мы не помним создания всех тех замечательных вещей, которые мы открыли. Первооткрыватели натуральных чисел отправились в Страну счёта, но не создали её, а последующие математики потратили столетия, изучая эту Страну и обнаруживая в ней всевозможные вещи, которые никто не мог даже попытаться себе представить в 30 000 г. до Р. Х.

Сказать, что люди «изобрели числа» (или неявную сущность, скрытую в числах) — всё равно, что заявить, будто Нил Армстронг своими руками слепил Луну. Вселенная существовала до того, как появились разумные существа, её изучающие, и это подразумевает, что физика предшествовала физикам. Это головоломка, я знаю; но если вы заявите, что физики были первыми, то все станет еще запутаннее, ведь возникновение физика требует, хм, достаточно много физики. Физика опирается на математику, так что последняя (или хотя бы та её часть, которая используется физикой) должна предшествовать математикам. Иначе не было бы структурированной вселенной, существующей достаточно долго, чтобы за миллиарды лет организмы, не знающие даже сложения, смогли эволюционировать в математиков.

Удивительно, что математика — это игра без разработчика, и, тем не менее, в неё в полной мере можно играть.

О, а вот и доказательство, что закономерность, которую мы обсуждали выше, верна:

(k + 1)^2 = k^2 + (2k + 1)

Или, более наглядно:

Думаете, задача квадратов настолько тривиальна, что не заслуживает вашего внимания? Думаете, что нет ничего удивительного в разностях первого и второго порядка? Думаете, они так очевидно подразумеваются в квадратах, что не могут считаться отдельным открытием? Тогда рассмотрите кубы:

1, 8, 27, 64…

А теперь — без прямых вычислений и каких-либо математических действий — можете ли вы с первого же взгляда сказать, какой будет разность третьего порядка?

И, конечно, когда вы узнаете, какова у последовательности кубов разность третьго порядка, вы осознаете, что по-другому и быть не могло.

Перевод: 
Quilfe, Aelryn
Оцените качество перевода: 
Средняя оценка: 4.3 (Всего оценок: 21)

Пацифизм губит ухоженные сады

Элиезер Юдковский

Основная причина гибели хороших интернет-сообществ — отказ от самозащиты.

Где-нибудь в необъятных недрах интернета это происходит прямо сейчас. Когда-то на этом месте был чистый ухоженный сад для интеллектуальных бесед, куда приходили образованные и заинтересованные люди, привлечённые высоким уровнем доносящихся оттуда речей. Но вот в сад прибывает глупец и уровень бесед чуточку падает — или даже не на чуточку, если глупец вмешивается в разговоры с упорством, достойным лучшего применения. (Плохо дело, если глупец изъясняется достаточно внятно — тогда завсегдатаи сада считают себя обязанными ответить, рассеять его заблуждения. И с этого момента глупец безраздельно властвует беседой.)

Сад гниёт и теперь присоединение к его участникам доставляет не так много удовольствия. Он всё ещё полон обитателей, когда-то вложивших усилия в становление сада, но новые люди уже не так охотно приходят сюда. Качество вновь прибывших (если таковые и есть) тоже снижается.

Затем приходит ещё один глупец, и два глупца начинают общаться уже друг с другом, после чего часть старожилов — людей самых высоких требований и с самыми радужными перспективами — уходят…

Я успел застать ныне забытый USENET1, хоть я и был тогда очень молод. Тот пре-интернет пал жертвой Вечного Сентября2 в незапамятные времена. В отличие от тех времён, в современном интернете всегда имеется хоть какой-нибудь способ бороться с нежелательным контентом. В первую очередь дело в спаме — преступлении столь тяжком, что у него не найдётся защитников, и столь распространённом, что никто не может его просто игнорировать — везде просто обязан быть банхаммер3.

Однако, когда дело касается вторжения глупцов, то некоторые сообщества не считают себя способными опуститься до использования банхаммера — ведь это цензура(ужас!).

В конце концов, любой воспитанник мира академической науки в курсе, что цензура считается смертным грехом… внутри огороженных неприступной стеной садов, вход в которые стоит огромных денег, где студенты в страхе ждут оценок от своих преподавателей, а заглянувшим в кабинет уборщицам не позволено открывать рта во время идущего семинара.

Как же легко наивно возмущаться ужасами цензуры, уже живя в холёном саду. Точно также легко наивно восхищаться добродетелью безусловного ненасильственного пацифизма, когда на страже границ твоей страны уже стоят вооружённые солдаты, а покой твоего города охраняет полиция. До тех пор, пока полиция делает свою работу, благочестивость не налагает на вас никаких серьёзных обязательств и не стоит практически никаких усилий.

Однако, в интернет-сообществах нельзя рассчитывать, что полиция сможет делать свою работу и игнорировать вас. Добродетельность сообщества обычно оплачивается им самим.

В самом начале, пока сообщество ещё цветёт, цензура кажется ужасающей и надуманной обузой. Дела пока что идут довольно неплохо. Это просто один глупец, и если мы не способны вынести всего лишь одного глупца, то, видимо, терпимость не входит в список наших сильных сторон. Ну и потом, глупцу ведь может надоесть и он сам уйдёт — нет нужды вводить цензуру. И пускай принадлежность к сообществу приносит уже не так много удовольствия — разве какое-то там банальное удовольствие может быть достаточным оправданием для цензуры(ужас!)? Это ведь всё равно что бить людей, чей внешний вид вам чем-то не понравился.

(Стоит учесть, что решение о вступлении в сообщество принимается исключительно добровольно, и если потенциальному новому участнику не понравится «внешний вид» старожилов, то он просто не захочет вступать).

В конце концов, кто будет цензором? Кому вообще можно доверить такую власть?

Скорее всего, если сад ухожен, то довольно многим. Но если сад хоть чуточку разделён внутри, если в нём есть фракции, если в нём найдутся люди, которые продолжают тусоваться в сообществе и при этом не слишком-то доверяют модератору или другому потенциальному владельцу банхаммера…

(в глазах таких людей внутренняя политика часто представляется чем-то намного более важным, чем какое-то там нашествие варваров)

…то тогда попытка защитить сообщество обычно объявляется попыткой захвата власти. Да как он посмел объявить себя судией и палачом? Он что, считает, что владеть сервером — значит владеть людьми? Владеть нашим сообществом? Он думает, что доступ к управлению исходниками сайта делает его богом?

Должен признаться: долгое время я совершенно не понимал, почему самозащита сообществ постоянно проваливается и считал, что причина кроется в наивности. Мне даже не в приходила в голову мысль о том, что это следствие уравнительского инстинкта, предохраняющего племена от концентрации слишком большого количества власти в руках вождя. «Нет среди нас лучших, все мы боеспособные мужчины — есть у меня свои стрелы» — такая поговорка ходила в каком-то из племён охотников-собирателей (в отличие от шимпанзе, у людей есть «уравнители» — оружие. Похоже, что вожди появились лишь ко времени открытия земледелия — в момент, когда пропала возможность просто взять и покинуть племя).

Возможно, всё потому, что я вырос в тех областях интернета, где всегда был управляющий сервером системный оператор, и потому-то мне кажется естественным считать, что владелец сервера несёт определённую ответственность. Возможно, всё потому, что я интуитивно ощущаю: противоположность цензуры — не университетская подсеть, а анонимный двач(да и у того всё равно есть какие-то способы борьбы со спамом). Возможно, я вырос на том просторе, где единственной важной свободой была свобода выбрать ухоженный сад себе по нраву, и которому по нраву придёшься ты — это всё равно, что найти, наконец, страну с хорошими законами. Возможно, я принимал за должное, что если тебе не нравится местный главный волшебник, то правильно будет просто уйти (такое случилось со мной однажды и я действительно просто взял и ушёл).

А, возможно, потому, что владельцем сервера часто был я. Но я последователен и поддерживаю решения модераторов, даже если внутренняя политика развела нас в разные партии. Уж я-то знаю, к чему приводит, когда онлайн-сообщество начинает сомневаться в собственных модераторах. Если речь идёт о списке почтовой рассылки, то ни один из моих политических врагов, чья популярность действительно может представлять опасность, скорее всего не принадлежит к числу тех, кто станет злоупотреблять цензурой ради власти. Когда такой человек надевает шляпу модератора4, то я его вербально поддерживаю: модераторам требуются поощрения, а не ограничения. Воспитанные в университетской среде люди попросту не осознают, насколько велика толщина стен недопущения, удерживающих троллей за пределами их холёного сада с так называемой «свободой слова».

Если у сообщества действительно есть основания для сомнения в модераторах, если его модераторы в самом деле используют свою власть в личных целях — то, наверное, это сообщество не стоит того, чтобы его спасать. Но, насколько мне известно, такое чаще встречается на словах, и почти никогда — на деле.

В любом случае, озарение касательно эгалитаризма (глубинного стремления не допускать сосредоточения власти в руках одного лидера), убивающего интернет-сообщества, пришло ко мне совсем недавно. Если быть точным, то во время чтения какого-то комментария(не помню, какого именно) на LessWrong.

Но я наблюдал, как это происходит — снова и снова, был одним из участников, подталкивал модераторов и поддерживал все их решения, нравились они мне как люди, или нет. И всё равно, модераторы прилагали недостаточно усилий для того, чтобы предотвратить медленное угасание сообщества. Они были слишком скромны и степень их сомнения в себе была на порядок выше, чем моя степень сомнения в них. Дело происходило в прибежище рационалистов, а третье главное искушение рационалистов — грех недоуверенности.

Такова суть интернета: войти может любой. И любой может выйти. И поэтому в пребывании в интернет-сообществе всегда должно быть удовольствие — без этого сообщество погибнет. Если надеяться до последнего, терпеть до тех пор, пока не столкнёшься с абсолютным, неприкрытым, неопровержимым кошмаром (то есть, вести себя, как ведёт полицейский, прежде чем открыть огонь на поражение), потакать своей совести и добродетелям, взращенным внутри полностью защищённой крепости, и начать действовать лишь в момент полной уверенности в собственной правоте и без страха перед вопрошающими взглядами — в этот момент будет уже слишком поздно.

Я видел, как сообщества рационалистов погибали из-за того, что они слишком мало доверяли своим модераторам.

Но это — не то же самое, что и система кармы.

В случае с системой кармы доверять следует себе.

Мне хочется привести небезызвестную цитату: «Ты можешь не верить в себя. Но поверь в то, что я верю в тебя!»5

Потому что я искренне считаю, что, если ты хочешь минусануть комментарий, который кажется тебе низкокачественным — но всё же ты медлишь, боясь, что на самом деле желание минусануть возникло лишь из-за того, что ты не согласен с его выводом или из-за нелюбви к его автору, переживая из-за того, что кто-то может обвинить тебя в конформизме, бездумном поддакивании или в цензуре(ужас!) — то (я готов поставить на это деньги), как минимум в девяти случаях из десяти этот комментарий действительно будет низкокачественным.

Тебе дана минусовалка. Голосуй, или про-USENET-ишь6.

  • 1. Usenet — созданная в 1980 году компьютерная сеть, действующая до сих пор. Формат общения близок к современному формату списков почтовой рассылки(mailing list). См. https://ru.wikipedia.org/wiki/Usenet — Здесь и далее примечания переводчика.
  • 2. Usenet был в основном университетской сетью и новые пользователи, незнакомые с принятым ней этикетом, обычно добавлялись в начале учебного года. Когда в 1993 году Usenet стал доступен для всех пользователей интернета без ограничения, старожили заметили существенное и нескончаемое падение уровня дискуссий — наступил вечный сентябрь. См. https://ru.wikipedia.org/wiki/Вечный_сентябрь
  • 3. Банхаммер — сленговое название инструмента модерации, позволяющее администраторам запрещать пользователю создавать новый контент, т.е., банить его.
  • 4. «Надеть шляпу X» — психологический приём, помогающий сфокусироваться в определённый момент времени на желаемых качествах X при размышлении или разговоре. См. https://ru.wikipedia.org/wiki/Шестьшляпмышления
  • 5. Неточная цитата из аниме Gurren Lagann, см. https://www.cbr.com/gurren-lagann-anime-best-quotes/
  • 6. В оригинале игра слов: «Use it or USENET»
Перевод: 
BT, kmeneusdomi, ildaar
Оцените качество перевода: 
Средняя оценка: 4.3 (72 votes)

Предполагая красоту

Элиезер Юдковский

Если вы посмотрите на последовательность {1, 4, 9, 16, 25, …} и не увидите в ней квадраты чисел, то вы все еще можете успешно предсказать последующие числа, если заметите разности первого порядка — {3, 5, 7, 9, …}. Действительно, ваше предсказание может попасть в точку, хотя у вас нет никакой возможности это проверить, не посмотрев на выдачу генератора. Соответствие может быть выражено алгебраически или даже геометрически. Это и вправду довольно изящно.

Что бы ни прославляли люди, они будут склонны прославлять это еще сильнее; поэтому некоторые скептики считают, что погоня за изящностью подобна болезни; она создает стройную математику вместо того, чтобы разбираться в беспорядке реального мира. «Тебе повезло», — скажут они, — «но тебе не будет везти всегда. Если ты ожидаешь подобной изящности, то ты исказишь видение мира в угоду своим представлениям и отсечешь те куски реальности, которые не вписываются в твою милую картинку».

Я имею в виду, например, следующее. К вам в руки попадает последовательность {1, 8, 27, 64, 125, …}. Отыскав разности первого порядка, вы получите {7, 19, 37, 61, …}. Все эти числа объединяет лишь то, что они простые, но они даже не идут в последовательности простых чисел подряд. Тут, очевидно, нет изящного порядка, какой мы видели у квадратов чисел.

Вы можете попытаться заставить последовательность вести себя, по-вашему, правильно, настаивая, что разности первого порядка должны быть равномерно распределены, а любые отклонения — ошибки измерения (впрочем, лучше о них просто не думать). «Вы решите», — скажет скептик, — «что разности первого порядка отстоят друг от друга примерно на двадцать, являясь простыми числами, так что следующая разность, вероятно, 83, тогда следующим числом в исходной последовательности будет 208. Но действительность с вами не согласится — это 216».

Сами виноваты, раз ожидали ясности и изящества там, где их нет. Вы оказались чересчур привержены абсолютам, слишком нуждались в совершенстве. Здесь-то и зарыта собака (уф… внимание!) редукционизма!

Уже из выбранного мной примера вы могли догадаться, что я не считаю это хорошим подходом к задаче. Ведь здесь не то чтобы совсем не было закономерности, просто нужно было копнуть немного глубже. Последовательность {7, 19, 37, 61, …} непримечательная (встреть вы ее на улице, могли бы и не узнать), но найдите разности второго порядка, и получите {12, 18, 24, …}. Теперь третьего, и у вас будет {6, 6, …}.

Вы забрались глубже, отыскав устойчивый уровень, но он уже был в примере всё это время.

Если вы слишком быстро хватаетесь за увиденную закономерность, допытываетесь совершенства здесь и сейчас, пытаетесь взломать модель, то, возможно, вам никогда не удастся добраться до устойчивого уровня. Если вы подправляете разности первого порядка, чтобы сделать их «более равномерными» в соответствии со своими эстетическими понятиями (еще до того, как обнаружите настоящий закон, заключенный в самой математике), то найденные вами разности второго и третьего порядков окажутся неверными. Может быть, вы даже не затрудните себя найти их. С того момента, как вы приведете разности первого порядка в соответствие со своими представлениями о прекрасном, вы обретете счастье. Или будете громогласно заявлять, что его обрели.

Ничего из вышесказанного никак не противоречит редукционизму. Порядок заключен здесь, просто спрятан глубже. Мораль моей басни в том, что не надо искать прекрасного? Или в том, чтобы горделиво исповедовать это повсеместное мировоззрение об уродливости мироздания? Нет; мораль в том, чтобы своевременно переходить на более глубокий уровень; сначала отмерять, а уж потом резать; не прерывать исследование ради красоты раньше времени. Пока вы в состоянии не принимать преждевременную иллюзорную красоту за чистую монету, все необходимые меры предосторожности на случай, что реальность окажется неизящной, уже соблюдены.

Но разве это не (уф…) вера — искать красоту там, где ее еще не видно?

Как я недавно подметил, если вы скажете «Я много раз видел смену времен года и ожидаю, что завтра солнце взойдет вон в той точке горизона», это будет недостоверно. И если вы скажете, «Я предполагаю, что мне явится джинн и подарит мне сказочное богатство», то это также будет недостоверно. Но это не одна и та же степень недостоверности; недостаточно справедливо называть то и другое одним словом «вера».

Искать математическую красоту, где ее пока не видно, не столь же надежно, как ожидать, что солнце поднимется на востоке. Но, однако, не кажется, что это та же градация неуверенности, что и в случае с джинном, особенно если перед этим вы изучили последние 57 тысяч случаев, когда человечеству удалось найти скрытую закономерность.

И все же постулаты и аксиомы математики — самодостаточные и закрытые структуры. Можем ли мы рассчитывать, что беспорядочный реальный мир обнаружит скрытую красоту? В следующем выпуске нашей радиопередачи мы расскажем об этом. Не переключайтесь!

Перевод: 
Quilfe, XoR
Оцените качество перевода: 
Средняя оценка: 5 (3 votes)

Против адвокатуры дьявола

Элиезер Юдковский

Из статьи Майкла Рьюза:

Ричард Докинз однажды назвал меня подонком. Он сделал это весьма публично, но не подразумевал желание меня обидеть. Я и не обиделся: мы были и остаёмся друзьями. Причиной его гнева — или даже страданий — было то, что я в ходе публичной дискуссии защищал позицию, которой по-настоящему не придерживался. Мы, философы, все время так делаем; это вариант аргумента «reductio ad absurdum». Отчасти мы делаем это, чтобы подстегнуть дебаты (особенно на уроках), отчасти, чтобы увидеть, насколько далеко можно завести позицию, пока она не разрушится, (и увидеть, почему разрушится), и, отчасти, (будем честны) излить кровожадность, поскольку нам нравится возмущать оппонентов.

Докинз тем не менее, обладает моральной непорочностью — кто-то даже сказал бы моральной закостенелостью — пылкого христианина или идейного феминиста. Даже во имя спора он не может поддержать то, что считает неверным. Делать так не просто ошибочно, считает он; это неправильно в каком-то очень глубоком смысле. Жизнь серьёзна, и есть зло, с которым нужно бороться. Здесь нет места компромиссам или неоднозначностям, даже в педагогических целях. Как говорят квакеры: «Да будет слово ваше: да, да; нет, нет».

Майкл Рьюз ничего не понял.

Когда я был ребёнком, мой отец учил меня скептицизму —

(Папа был в той же степени заядлым скептиком и поклонником Мартина Гарднера и Джеймса Рэнди, в какой и ортодоксальным евреем. Пусть это будет доводом в пользу анти-лечебной силы отделения религии от повседневной жизни.)

— он приводил в пример гипотезу: «Есть объект в поясе астероидов, состоящий целиком из шоколадного торта». Тебе придется изучить каждый объект пояса, чтобы опровергнуть эту гипотезу. Однако, несмотря на то, что эту гипотезу невероятно тяжело опровергнуть, нет и ни одного довода в её пользу.

И маленький Элиезер попросил свой разум поискать аргументы в пользу существования шоколадного торта в поясе астероидов. И вот его разум выдал ответ: «Так как шоколадный торт в поясе астероидов - один из классических примеров плохой гипотезы, если кто-нибудь когда-нибудь изобретёт машину времени, то какой-нибудь шутник подбросит шоколадный торт в пояс астероидов в двадцатом веке, чтобы всё это оказалось правдой».

Так — в очень раннем возрасте — я обнаружил, что мой разум способен, если постараться, придумать аргументы в пользу чего угодно.

Я знаю людей, которых это открытие лишило здравого смысла. Они пришли к выводу, что Разум может быть использован, чтобы отстаивать что угодно. Тогда бессмысленно доказывать, что Бога не существует, потому что вы с тем же успехом могли бы доказывать, что он существует. Ничего не остаётся, кроме как верить, во что захотите.

Сдавшись, они разрабатывают целые философские системы, чтобы их отчаяние выглядело Глубокой Мудростью. Если они заметят, что вы пытаетесь использовать Разум, они просто улыбнутся, погладят вас по голове и скажут: «О, когда-нибудь ты поймёшь, что можешь аргументировать за что угодно».

Быть может, даже сейчас мои читатели думают: «Ох, Элиезер может рационализировать что угодно, это дурной знак».

Но вы знаете… быть ментально гибким не всегда обрекает вас на катастрофу. Я имею в виду, вы этого ожидаете. Но оказывается, что практика отличается от теории.

Рационализация пришла ко мне слишком просто. Было заметно, что это просто игра.

Если бы у меня было хуже с воображением или меня легче было бы поставить в тупик - если бы я не обнаружил, что могу аргументировать любое предположение, и неважно, насколько оно бредовое - тогда, возможно, я бы мог перепутать это занятие с мышлением.

Но я могу даже привести аргументы в пользу существования шоколадного торта в поясе астероидов. Это даже не было трудно; мой мозг сразу же выдал аргумент. Было совершенно ясно, что это мышление — поддельное, а не настоящее. Я ни на мгновение не перепутал игру с реальной жизнью. Я не начал думать, что в поясе астероидов действительно может оказаться шоколадный торт.

Можно было бы ожидать, что любой ребёнок, обладающий достаточно живым умом, чтобы придумать аргументы в пользу чего угодно, точно обречён. Но интеллект не всегда приносит столько вреда, как вы могли бы подумать. В данном случае он просто помог мне в очень раннем возрасте начать различать «рассуждение» и «рационализацию». Между ними ощущалась разница.

Возможно, память меня обманывает… но мне кажется, что даже в таком юном возрасте я посмотрел на предложенный моим мозгом удивительно умный аргумент в пользу путешествующего во времени шоколадного торта и подумал: я должен избегать этого.

(Хотя существуют другие, гораздо более тонкие когнитивные воплощения процессов рационализации, чем бесстыдный, очевидный, сознательный поиск подходящих аргументов. Бессловесное уклонение от рассмотрения той или иной идеи может сбить вас с пути не хуже, чем преднамеренный поиск аргументов против неё. Эти коварные процессы я начал замечать только годы спустя).

Интуитивно я ощущал, что настоящее мышление - это нечто, что дает вам правильный ответ, нравится он вам или нет, а поддельное мышление — это способность доказать что угодно.

Это был невероятно ценный урок —

(хотя, как и многие другие принципы, которые молодой я приобрёл путём анализа вещей, обратных глупости. Он был хорош, когда требовался совет по конкретным проблемам, но мог завести в страшные дебри, когда я пытался применять его, чтобы сделать абстрактные выводы, например, о природе морали)

— который был одним из главных факторов, приведших к моему разрыву с иудаизмом. Тщательно продуманные аргументы и контраргументы древних раввинов были похожи на то фальшивое мышление, которое помогло мне придумать историю про шоколадный торт в поясе астероидов. Только раввины забыли, что это игра, и действительно воспринимали всё всерьёз.

Поверьте, я понимаю традиционный довод в пользу практики адвоката дьявола. Защищая противоположную позицию, вы делаете свой ум более гибким. Вы вытряхиваете себя из привычных рамок. У вас появляется шанс собрать свидетельства против своей позиции, вместо того чтобы защищать её. Вы поворачиваете стол и видите вещи с другой точки зрения. Переход на другую сторону — это честная игра, так что вы разворачиваетесь на 180 градусов, чтобы играть честно.

Возможно, именно это Майкл Рьюз имел в виду, когда обвинил Ричарда Докинза в «моральной ригидности».

Конечно, я не намерен учить людей говорить: «Так как я верю в фей, я не должен ожидать, что мне удастся найти хорошие доказательства того, что фей не существует, так что я не буду искать, потому что это умственное усилие имеет невысокую ожидаемую полезность». Всё это происходит под лозунгом «если вы хотите отстрелить себе ногу, нет ничего проще».

Может быть, существуют какие-то этапы жизни или состояния ума, когда игра в адвоката дьявола может вам помочь. Студенты, которые никогда не задумывались о том, чтобы попробовать искать доводы в пользу обеих сторон проблемы, могут извлечь пользу из понятия «адвокат дьявола».

Но с кем-то, кто находится в этом состоянии ума, я бы скорее начал с того, что политические прения не должны выглядеть односторонними. Нет оснований не ожидать, что с обеих сторон дебатов существуют сильные доводы; одно и то же действие может иметь разные последствия. Если вы не можете представить себе хороших доводов против политического курса, к которому вы благосклонны, или хороших доводов за тот курс, который вы ненавидите, но другие люди одобряют, тогда очень вероятно, что у вас проблема, которая называется «неспособность увидеть другие точки зрения».

Вы, дорогой читатель, вероятно, достаточно хороши в искусстве рассуждения, что если вы смогли закрепиться на правильной дороге, вы не сойдете с нее, если будете играть адвоката дьявола по необходимости. Вы просто будете подсознательно избегать любых аргументов Дьявола, которые будут заставлять вас всерьез нервничать, а затем поздравите себя с выполнением необходимого. Людям на таком уровне нужно более сильное средство. (Пока я рассказал только о средне-сильном средстве).

Если вы можете привести себя в состояние настоящего сомнения и искреннего любопытства, вам уже не нужен адвокат дьявола. Вы можете исследовать противоположную позицию потому что думаете, что она может и правда быть истинной, а не потому что вы играете в игры с шоколадным тортом, путешествующим сквозь время. А если вы не можете привести себя в такое состояние, то может ли вам помочь игра в адвоката дьявола?

У меня нет проблемы придумать аргументы, почему Сингулярность не настанет в ближайшие 50 лет. С некоторыми усилиями я могу представить случай, в котором ее не будет и через 100 лет. Еще я могу придумать правдоподобные сценарии, в которых Сингулярность настанет через две минуты, например, если кто-то делает тайный проект, и он завершается вот прямо сейчас. Я могу придумать правдоподобные аргументы для 10, 20, 30 и 40 лет.

Это не потому что я хорошо играю в адвоката дьявола и придумываю умные аргументы. Это потому что я правда не знаю. Настоящие сомнения присутствуют в каждом случае и я могу их проследить до источника настоящего аргумента. Или, если хотите, я правда не знаю, потому что я могу придумать все эти правдоподобные аргументы.

С другой стороны, мне действительно сложно визуализировать утверждение, что нет типа разума, принципиально более сильного, чем человеческий. Мне сложно поверить, что человеческий мозг, которого едва хватило на то чтобы построить технологическую цивилизацию и придумать компьютеры, теоретически является потолком эффективности интеллекта. Я не могу хорошо аргументировать за это, потому что я сам этому не верю. Или, если хотите, я не верю в это, потому что я не могу за это хорошо аргументировать. Если вы хотите, чтобы кто-то за это аргументировал, найдите того, кто правда в это верит. С очень раннего возраста я стремлюсь избегать образа мыслей, в котором вы можете аргументировать за что угодно.

В состоянии ума и этапе жизни, в котором вы пытаетесь отличить друг от друга рациональность и рационализацию и пытаетесь понять разницу между сильными и слабыми аргументами, игра в адвоката дьявола не может привести вас к неподдельным способам мышления. Ее единственная сила в том, что в некоторых случаях она может показать вам поддельные способы, которые одинаково хорошо работают за обе стороны, и показать вам места, в которых вы не уверены.

Не бывает гроссмейстеров, которые умеют играть только за белых или только за черных. Но в битвах Разума солдат, который дерется за обе стороны с одинаковой силой, имеет нулевую силу.

Так что Ричард Докинз понимает кое-что, чего не понимает Майкл Рьюз: что Разум - это не игра.

Добавлено: Брэндон утверждает, что адвокатура Дьявола это важный социальный, а не индивидуальный процесс. Я об этом, признаюсь, не подумал.

Перевод: 
El_Aurens, Pion, deep_blue_hexagon, Zeta000, Sankogin
Оцените качество перевода: 
Средняя оценка: 3.5 (25 votes)

Рациональность — это систематизированное выигрывание

Элиезер Юдковский

«Рационалисты должны выигрывать», сказал я, и, похоже, мне придется прекратить так говорить, потому что под этим понимают не то, что я хотел сказать.

Откуда вообще взялась эта фраза? Из обсуждения задачи Ньюкома: сверхсущество Омега дает вам на выбор две коробки, прозрачную коробку А с тысячей долларов (или аналогичной ценностью) и непрозрачную коробку Б, в которой может быть либо ничего, либо миллион долларов. Омега говорит вам: «В коробке Б есть миллион долларов только в том случае, если я предсказал, что вы возьмете только коробку Б, оставив А». Омега играл в эту игру много раз и предсказывает правильно 99 раз из 100. Вы возьмете обе коробки или только Б?

Распространенная позиция — на деле она вообще доминирующая в современной философии и теории принятия решений — что единственным разумным выбором будет взять обе коробки; Омега уже принял решение и ушел, так что ваше действие не повлияет на содержимое коробок в любом случае (их аргументация). Теперь, так получилось, что определенные типы безрассудных людей вознаграждаются Омегой (который делает это даже до того, как они приняли решение), но это не меняет заключения, что разумнее всего взять две коробки, что сделает вас богаче на тысячу долларов в любом случае, вне зависимости от содержимого Б.

Именно такой тип мышления я хотел раскритиковать, говоря что рационалисты должны выигрывать.

Миямото Мусаси сказал: «Помни, когда в твоих руках меч — ты должен поразить противника, чего бы тебе это ни стоило. Когда ты парируешь удар, наносишь его, делаешь выпад, отбиваешь клинок или касаешься атакующего меча противника, ты должен сразить противника тем же движением. Достигай цели. Если ты будешь думать только о блокировании ударов, выпадах и касаниях, ты не сможешь действительно достать врага».1

Я сказал: «Если тебе не удалось найти правильный ответ, бессмысленно говорить, что ты действовал правильно».

Вот что я на самом деле хотел донести, когда говорил, что рационалисты должны выигрывать.

Существует точка зрения, которая говорит, что определенный ритуал процесса познания — это образец разумности; таким образом он определяет, что должны делать разумные люди. Но, увы, часто разумные люди проигрывают неразумным, потому что вселенная не всегда разумна. Интеллект это лишь один из путей делать что-либо, не всегда самый подходящий; как если бы профессора разговаривали друг с другом в дискуссионном зале, что иногда срабатывает, иногда нет. Если же толпа варваров атакует дискуссионный зал, по-настоящему толковый и гибкий агент оставит разумность.

Нет. Если «иррациональный» агент превосходит вас систематическим и предсказуемым образом, тогда самое время посмотреть, думаете ли вы «рационально».

Я опасаюсь, что «рационалист» будет держаться за свой метод познания, даже если он терпит неудачу за неудачей, утешая себя: «Я веду себя так добродетельно и разумно, просто ужасно нечестно, что вселенная не дает мне того, что я заслуживаю. Другие просто жульничают, делая все нерационально, вот почему они меня обходят».

Это то, от чего я стараюсь предостеречь, говоря, что рационалисты должны выигрывать. Не скулить, а выигрывать. Если вы продолжаете проигрывать, возможно, вы делаете что-либо не так. Не утешайте себя тем, как вы были замечательно рациональны, если вы проиграли. Это не то, как должно все идти. Это не рациональность неправильна, это вы неправильно используете рациональность.

Это касается и эпистемологической рациональности, если вы осознаете, что думаете о убеждении Х как о разумном (потому что большинство людей верят в это же или просто потому что оно звучит привлекательно), хотя сам по себе мир определенно демонстрирует Y.

Но люди, похоже, понимают это иначе, нежели я имею в виду — словно любой, кто объявляет себя рационалистом, мгновенно преисполняется непобедимого духа, что позволяет им получать все что угодно без усилий и без каких-либо помех или чего-то подобного, я не знаю.

Возможно, альтернативную фразу можно найти у Мусаси, который сказал: «Дух школы Ити — дух победы, вне зависимости от вида оружия и его длины».2

«Рациональность — это дух выигрывания»?
«Рациональность — это путь выигрывания»?
«Рациональность — это систематизированное выигрывание»?

  • 1. Перевод взят с сайта lib.ru, к сожалению, переводчик там не указан. — Прим.редактора.
  • 2. Перевод также взят с сайта lib.ru. — Прим.редактора.
Перевод: 
Remlin
Оцените качество перевода: 
Средняя оценка: 4.1 (18 votes)

Учи невыучиваемому

Элиезер Юдковский

Предыдущий в минисерии: Непередаваемое превосходство

Следует за: Искусственное сложение (English)

Литературный конвейер, который я называю «порнографией превосходства» не слишком хорош в том, что делает. Но это провал довольно важной задачи. Сравнив пользу цивилизации в целом от звёздных навыков Уоррена Баффета и от менее гламурного, но более передаваемого трюка «инвестируйте заново ваши доходы», вряд ли вы будете сомневаться. Легко заметить, как сильно изменится мир, если придумать, как выразить всего лишь ещё один навык, до сих пор бывшим секретным ингредиентом успеха. Не порнографическое обещание постичь душу звезды. Всего лишь способ надёжно передать ещё одну мысль, даже если она не означает всего

Что делает успех таким сложным для повторения?

Голые статистические шансы всегда непередаваемы. Неважно, что вы можете сказать насчёт удачи, вы не можете научить кого-нибудь иметь её. Искусство хватать возможности и открывать себя положительным случайностям (English) обычно недооценивают. Я видел людей, останавливающихся на своём пути из-за «неудачи», которую предприниматель из Силиконовой долины раздавил бы, словно паровой каток – лежачего полицейского… Но даже так, остаётся чистый элемент случайности.

Успех Эйнштейна (English) зависел от его генов, давших ему потенциал, чтобы развить навыки сверх обычного уровня. Если навыки зависят от умственных способностей, вы не можете передать их большинству людей… но даже если такой потенциал – один-на-миллион, то шесть тысяч Эйнштейнов, разгуливающих по планете - совсем не плохо. (А если немного пофантазировать, то кто сказал, что гены непередаваемы? Просто требуется немного более продвинутая технология, чем школьная доска, только и всего.)

Итак, мы исключили истинно непередаваемое - что осталось? До куда можно отодвинуть границу? Чему возможно научить – пусть и очень сложно – но чему не учат?

Мне однажды сказали, что половина Нобелевских лауреатов были учениками других Нобелевских лауреатов. Этот источник (English, pdf) утверждает, что 155 из 503. (Интересно, что тот же источник подсказывает, что число Нобелевских лауреатов с «Нобелевскими дедушками» (учителями учителей) всего лишь 60.) Даже если сделать поправку на отбор выдающихся учеников и политическое проталкивание кандидатов, факты подсказывают, что можно перенимать вещи, находясь в ученичестве – наблюдение из-за плеча, беседы в свободной форме, постоянная правка ошибок в течение работы. Ни один Нобелевский лауреат ещё не преуспел в том, чтобы поместить всё это в книгу.

Что же это такое, чему учатся преемники Нобелевских лауреатов, но не может быть выражено словами?

Этот предмет притягивает меня, так как он сообщается с мета-уровнем, с источником в глубине, с пропастью между генератором и его выходом (English). Мы можем объяснить эйнштейнову теорию относительности студентам, но не можем сделать из них Эйнштейнов. (Если посмотреть на это с правильного угла, то весь гений человеческого интеллекта ничто иное как непередаваемое прозрение, которое есть у людей, но которое мы не можем объяснить компьютеру.)

Количество бессловесного интеллекта в нашей работе обычно недооценивается, потому что сами по себе слова намного легче анализировать (English). Но когда я обращаю внимание, я вижу, что большая часть моих поисковых способностей проявляется во вспышках восприятия, говорящих мне, что именно важно, какую мысль нужно думать следующей.

Когда я встретил своего ученика Марселло, он уже был лучше в математических доказательствах, чем я, по крайней мере, намного быстрее. Он соревновался на национальном уровне, но на подобных соревнованиях вам говорят, какие задачи важны. (А ещё на соревнованиях вы сразу сдаёте листочек с решениями и перескакиваете к следующей задаче, не анализируя, можно ли упростить доказательство, объять его целиком, получить из него ещё что-нибудь.) Но действительно важная вещь, которой я пытался научить – проверяя, можно ли вообще ей научить – было ощущение, какие проблемы ИИ куда-нибудь ведут, а какие - пустышки. «Ты можешь жать на педали так же хорошо, как и я, - сказал я ему, когда он спросил меня, хорошо ли справляется, - но девяносто процентов времени рулю до сих пор я» Это были постоянные упорные попытки облечь в слова причины, почему я думал, что мы ещё не нашли по-настоящему важного прозрения, таящегося где-то в задаче, почему мы должны отбросить текущее доказательство Марселло, переформулировать задачу и попытаться ещё раз, с другого угла, чтобы узнать поймём ли мы проблему по-настоящему в этот раз.

Мы проходим через череду событий, и наш мозг использует неявный алгоритм, чтобы размолоть полученный опыт в сухой остаток, а затем - ещё один неявный алгоритм, чтобы сформировать из него нейронную сеть: процедурный навык, источник бессловесной интуиции, который вы знаете настолько быстро, что вы не знаете, что знаете его. «Нулевой шаг», - так я его называю, шаг в обуславливании вещей, который идёт до первого шага в решении и пролетает настолько быстро, что вы не понимаете, что он был.

Я горжусь умением облекать вещи в словесную формулировку, вникать в одномоментные вспышки озарений и высматривать в них узор и направление, даже если я не могу указать на механизмы, ответственные за них. Но когда я пытался передать остриё, фронт моих работ, где я расширял знание, слова были бессильны, и мне оставалось разбирать с Марселло задачу за задачей, надеясь, что его мозг уловит невыразимый ритм пилотирования: налево, направо; вот это, наверное, достойно развития, это – нет; это кажется ценным озарением, а это – всего лишь чёрная коробка вокруг нашего незнания.

Я ожидал, что так и будет; я никогда не надеялся, что самые главные части мыслей можно будет легко переложить на слова. Если бы это было так просто, то мы бы действительно создали искусственный интеллект в семидесятых.

Цивилизация продвигается, обучая выходу из генератора, а не генерированию. Эйнштейн произвёл многочисленные открытия, затем сгенерировал знание достаточно словесное, чтобы быть переданным студентам в университетах. Когда же нужен ещё один Эйнштейн, цивилизация может лишь затаить дыхание и надеяться.

Но если эти бессловесные навыки есть продукт опыта, то почему не передать опыт (English)? Или, если книги не слишком хороши, а они, наверное, и близко к этому не подходят, то почему бы не провести людей через череду тех же событий, чтобы передать опыт?

  1. Звёзды могут и не знать, что было критически важным опытом.

  2. Критически важные события могут быть сложными для воспроизведения. Например, каждый уже знает ответ к специальной теории относительности, и теперь мы не можем тренировать людей, давая им эту же задачу. Даже знание, что там что-то о взаимосвязи между пространством и временем, уже довольно сильный спойлер. Самая важная часть задачи и есть та, где ученик сверлит взглядом белый лист бумаги до тех пор, пока капли крови не выступят на лбу, пытаясь сообразить, о чём думать дальше. Навыки гениев редки, я уже упоминал (English), потому что мало возможностей практиковать их.

  3. В дело может быть вовлечена удача или природный талант, подсказывая правильные вещи для изучения – нахождения высококачественного решения в пространстве бессловесных процедурных умений. Даже если мы проведём человека через те же испытания, останутся компоненты чистой случайности, влияющие на вероятность изучения того же невыразимого навыка.

Но, я думаю, всё ещё есть причина, продолжать описывать неописываемое и учить невыучиваемому.

Представьте развитие умений играть в азартные игры с изобретением теории вероятности несколько веков назад. В покере до сих пор сохранилась часть искусства, которое звёзды покера могут лишь частично передать на словах. Но в прошлом никто и понятия не имел, как вычислить шанс выпадения одних единиц на трёх кубиках. Может, опытный игрок и имел невыразимое понятие, что некоторые вещи более вероятны, чем другие, но не мог высказать его словами – не мог передать никому, что он узнал о вероятности, кроме как, может, через долгий процесс наблюдения за учеником из-за плеча и корректирования его ставок.

Чем больше мы узнаём что-либо в определённой области и наблюдаем звёзд за работой, тем больше мы узнаём о человеческом разуме в целом, тем больше мы можем надеяться, что новый навык превратится из непередаваемого в выучиваемый, а затем в публицируемый.

Вы можете объединить некоторые пути в семейство, даже если не способны выразить их словами. И даже если сами вы получили что-то благодаря удаче (включая генетическую удачу), вы можете уменьшить роль слепого случая.

  1. Предупреждения о тупиках, задержавших вас. Это очевидный способ помочь.

  2. Если вы выложите на стол набор мыслей, являющихся продуктом невыразимого навыка, кто-нибудь, читая их, может уловить ритм и сделать скачок к невысказанной вещи стоящей за мыслями. Это потребует намного меньше удачи, чем события, которые изначально и привели вас к приобретению этого навыка.

  3. Есть хорошие аттракторы в пространстве решений – кластеризованные под-решения, которые дают доступ к остальным решениям в аттракторе. Тогда – даже если некоторые мысли не могут быть помещены в слова и требуется удача, чтобы набрести на них изначально – объяснения, как найти дверь, может быть достаточно, чтобы заякорить аттрактор.

  4. Некоторый важный опыт вполне дублируем: например, можно советовать людям, какие книги читать или какие области изучать.

  5. Наконец, прогресс науки в целом может лучше объяснить определённую область, и в некоторый момент вы внезапно поймёте, что именно вы знаете и как правильно высказать свои мысли.

И конечно, коронная фраза этой статьи: это те изменения, которые я надеюсь увидеть в некоторых аспектах человеческой рациональности, навыках, которые были до сих пор непередаваемыми или передаваемыми только от учителя к ученику напрямую. За последние несколько десятилетий мы немало узнали о них, и, я думаю, пора бы попытаться систематизировать полученные сведения.

Я жажду уменьшить роль удачи и таланта в обучении рационалистов высшего разряда.

Перевод: 
Павел Садовников
Оцените качество перевода: 
Средняя оценка: 5 (4 votes)

Не выходи из комнаты

Скотт Александер

Психологи определяют «якорение» как способность раздражителя активировать мозг таким образом, что это влияет на ответы на последующие раздражители. Если это звучит недостаточно зловеще, можете переформулировать это как «любая случайная вещь, произошедшая с вами, может перехватить ваши суждения и личность на следующие несколько минут».

К примеру, вы входите в комнату и замечаете в углу чемодан-«дипломат». Ваш мозг теперь — гордый владелец активированного концепта «дипломат». Он на какое-то время настроен думать о дипломатах, и если уж на то пошло, об офисах, бизнесе, конкуренции и амбициях. На следующие несколько минут вы будете склонны воспринимать все социальные взаимодействия как конкурентные и вести себя соответственно. Эти небольшие сдвиги будут достаточно значительны, чтобы их можно было измерять, например, тем сколько денег Вы готовы поставить в игре «Ультиматум». Если это звучит как странная эзотерическая ерунда типа симпатической магии, я только могу отослать Вас к исследованию Кея, Уиллера, Барга и Росса от 2004 года (English)1.

Мы недавно обсуждали плюсы и минусы веры в Санта-Клауса. Вот, к примеру, один из плюсов: датские дети, которым показали изображение шапки Санта-Клауса, были более склонны делиться конфетами с другим ребенком. Почему? Исследователи предположили, что шапка активирует концепт Санта-Клауса, а Санта-Клаус активирует идеализированный концепт дарения и щедрости. Ребёнок после этого склонен относиться к щедрости положительно. Естественно, тот же эффект может быть использован и в обратном направлении. В том же исследовании дети, которым показали логотип известного магазина игрушек, были менее склонны делиться конфетами.

Но ведь этот эффект ограничен исследованиями в паре психологических лабораторий, так? Он не использовался для чего-нибудь вроде, скажем, изменения результатов крупных выборов?

Я знаю о двух хороших исследованиях эффекта прайминга в политике. В первом (English) субъектам подсознательно2 подсказывали буквенно-числовые комбинации, которые напоминали об атаках 11 сентября (например «911» или «WTC»), или случайные буквенно-цифровые сочетания. После этого их просили оценить деятельность администрации президента Буша. Те, кто видел случайные строки, оценивали Буша на неутешительные 42%. Те, кто подвергся якорению, напоминавшему о войне с террором, давали ему оценку в среднем 75%. Изменение довольно значительное, даже при том что никто из испытуемых не смог сознательно вспомнить какие либо упоминания о терроризме.

Во втором исследовании (English) учёные проанализировали данные из 2000 выборов в штате Аризона и выяснили, что место сбора подписей оказывает заметный эффект на результаты голосования. То есть люди, голосовавшие в школах, были более склонны поддерживать политики, направленные на улучшение образования, те, кто голосовал в церкви, были более склонны поддерживать социально консервативные предложения. Сдвиг предпочтений составляет примерно три процента. Подумайте обо всех выборах, завершившихся с перевесом менее чем в три процента…

Возражение: после не значит вследствие! Религиозные люди, возможно, просто живут ближе к церквям и знают, где находится местная церковь, и так далее. Именно поэтому учёные провели большую работу по регрессионному анализу и поправкам к данным. Результат получился тем же.

Возражение: возможно, поправки были не слишком хорошими! Те же учёные собрали голосовавших в своей лаборатории, показали им фотографии зданий и пригласили участвовать в условном голосовании по образовательным вопросам. Те, кому показывали фотографии школ, были более склонны голосовать за образовательные инициативы, чем те, кто видел обычные здания.

Какие техники эти исследования предлагают рационалистам? Мне хочется сказать, что лучший способ защититься — никогда не покидать своей комнаты, но есть и менее радикальные методы. Во-первых, избегайте сильных раздражителей за несколько минут до принятия важного решения. Все знают о террористических атаках 11 сентября, но эти события влияли только на решения тех людей, которые были подвергнуты действию соответствующих раздражителей прямо перед ответом 3.

Во-вторых, постарайтесь принимать решения в нейтральной обстановке и придерживаться их. Самый простой способ нейтрализовать влияние места голосования — это решить, за кого голосовать, пока ещё не вышел из дома, и потом придерживаться этого решения (кроме случаев, когда вас посещает какое-то внезапное озарение на пути к кабинке для голосования). Вместо того, чтобы не покидать свою комнату, лучше принимать решения в ней и выносить их в готовом виде в наполненный раздражителями мир.

Я не могу не вспомнить о старой традиции рационалистов «очищать свой разум» перед принятием важного решения. Или совет «утро вечера мудренее».

Независимо от того, будете ли вы применять какие нибудь формальные техники, отдых в свободном от раздражителей окружении в течение нескольких минут будет неплохим выбором.

  • 1. Полагаю, симпатическая магия действительно имеет какие-то эффекты наподобие плацебо, именно по вышеприведённой причине.
  • 2. Якорение — один из феноменов, провоцирующих истерию вокруг сублиминальных сообщений в рекламе. Плохая новость состоят в том, что эффект вполне реален: изображение попкорна, незаметно для сознания промелькнувшее на экране, может заставить вас думать о попкорне. Хорошая новость состоит в том, что эффект не так уж опасен: ваше желание купить попкорн будет таким же, как если бы вы увидели обычное изображение попкорна на экране.
  • 3. Очевидное возражение: если вы оцениваете действия администрации Джорджа Буша, было бы странным, если бы вы не вспомнили о террористических атаках. Я не видел исследований, напрямую затрагивающих такой вариант, но возможно, что внешняя ссылка, пришедшая не в ходе собственных рассуждений, активирует вас сильнее, чем если бы вы вспомнили об этих событиях самостоятельно
Перевод: 
BT
Оцените качество перевода: 
Средняя оценка: 4.2 (6 votes)

Обобщение на одном примере

Скотт Александер

«Все делают общие выводы из одного примера. По крайней мере, я делаю именно так.» — Влад Талтош, «Исола», Стивен Браст

Мой старый преподаватель, Дэвид Берман, любил говорить о том, что он называл «заблуждением о типичном разуме». Иллюстрировал он это следующим примером:

В конце 19 века происходили споры о том, чем является «воображение» — просто речевым оборотом или реальным феноменом. То есть, способны ли люди действительно создавать в уме изображения, которые они наглядно видят, или они просто используют фразу «Я мысленно себе это представил» в качестве метафоры?

Когда я это услышал, моей первой реакцией было «Как, #@$%, можно об этом спорить? Естественно, мы можем представлять вещи в уме. Любой кто так не думает — либо настолько фанатичный бихевиорист, что не доверяет собственному опыту, либо просто безумен». К сожалению, профессор мог привести огромный список достаточно известных людей, отрицавших существование мысленных образов, включая видных людей той эпохи. И всё это до того как бихевиоризм вообще появился.

Спор был разрешён Фрэнсисом Галтоном, удивительным человеком, который помимо прочих достижений изобрёл евгенику, «мудрость толпы» и стандартное отклонение. Галтон давал людям очень детальные опросники и выяснил, что некоторые люди способны пользоваться мысленными образами, а некоторые — нет. Те, кто мог, попросту предполагали что все могут так же, те же кто не мог, предполагали что никто не может представлять вещи в уме. Уверенность людей в своей правоте была столь непоколебима, что временами они придумывали совершенно абсурдные объяснения — например, что другие врут или просто не понимают вопроса. Способность представлять вещи в уме варьировалась в широких пределах: примерно пять процентов опрошенных обладали абсолютным эйдетическим воображением1, и примерно пять процентов были совершенно неспособны формировать изображение в уме2.

Доктор Берман назвал эту тенденцию людей считать, что структура их мышления может быть обобщена для применения к другим людям, «заблуждением о типичном разуме».

Он взялся за эту идею и развил её. Он интерпретировал некоторые отрывки биографии Джорджа Беркли, чтобы показать что у Беркли было эйдетическое воображение, и именно поэтому идея Вселенной как чувственного восприятия так его интересовала. Он также предположил, что опыт сознания и квалиа варьируется так же, как воображение, и что философы, отрицавшие их существование (Райл? Деннет? Бихевиористы?), просто были людьми, чей мозг был лишён возможности легко испытывать квалиа. В целом, он верил, что философия разума полна примеров философов, взявших за образец собственный умственный опыт и строивших теории на его основе, и других философов с другим умственным опытом, критикующих первых и не понимающих, как можно было так ошибиться.

Формально, термин «заблуждение о типичном разуме» можно применять лишь к моделям структуры нашего мышления. Но я находил и множество примеров, связанных скорее с психикой, нежели с разумом: тенденцию обобщать на основе собственной личности и поведения.

К примеру, я — один из самых глубоких интровертов, которых вам, скорее всего, доводилось встречать; более замкнутые люди вообще ни с кем не контактируют. В течении всей школьной жизни я подозревал, что другие дети имеют что-то против меня. Они постоянно хватали меня, когда я был чем-то занят, и пытались втянуть меня в какие-то свои игры с друзьями. Когда я протестовал, они не обращали внимания и говорили мне, что я должен бросить свои бессмысленные занятия и пойти с ними. Я считал их хулиганами, специально пытающимися достать меня, и постоянно придумывал способы спрятаться от них или отпугнуть.

В конце концов я понял, что это было двойным непониманием. Они считали, что я должен быть таким же, как они, и единственное, что мешало мне участвовать в их играх — это стеснительность. Я же считал, что они — такие же, как я, и единственное, что может заставить их отрывать занятого человека от дела, — это желание ему досадить.

Также: я не переношу шум. Если кто-нибудь шумит, я не могу спать, не могу учиться, не могу сконцентрироваться, не могу делать ничего — только биться головой в стену и надеяться, что они прекратят шуметь. Одно время у меня была шумная соседка по дому. Когда я просил её быть потише, она говорила, что я слишком чувствительный, и мне стоит просто отдохнуть. Я не скажу, что был сильно лучше неё: она была жуткой чистюлей и постоянно возмущалась из-за того, что я оставлял вещи где попало. Я же, в свою очередь, говорил, что ей стоит просто отдохнуть, и всё равно незаметно, есть на комоде пыль или нет. Мне не приходило в голову, что эта чистоплотность была для неё так же необходима и безусловна, как тишина для меня, и дело действительно было в разнице способов обработки информации у нас в мозге, а не просто в тараканах у неё в голове.

Фразы «просто тараканы в её голове» и «просто слишком чувствителен» говорят нам о проблеме, связанной с заблуждением о типичной психике, а именно: заблуждение о типичной психике невидимо. Мы склонны преуменьшать роль разной организации мышления в разногласиях, и приписывать проблемы тому, что другой участник конфликта намеренно или случайно действует нам наперекор. Я знаю, что громкий шум серьёзно мучит и изнуряет меня, но когда я говорю об этом с другими, они думают что я просто немного помешан на тишине. Подумайте о тех бедолагах, неспособных создавать визуальные образы, которые считают, что все остальные просто метафорически рассуждают об образах в своём воображении и не собираются отказываться от этих метафор.

Я пишу сюда потому, что именно рациональность может помочь нам справиться с этими проблемами.

Есть определённые доказательства тому, что наш обычный способ взаимодействия с людьми включает в себя что-то вроде моделирования их внутри нашего собственного мозга. Мы думаем о том, как бы мы отреагировали, делаем поправку на различия между людьми, и предполагаем, что другой человек будет действовать именно так. Этот способ взаимодействия очень привлекателен, и часто кажется, будто он должен неплохо работать.

Но если статистика говорит нам, что метод, который работает с вами, необязательно сработает с кем-нибудь другим, то вера своему внутреннему чутью — это именно заблуждение о типичной психике. Надо быть хорошим рационалистом, отбросить внутреннее чутье и следовать за данными.

Я понял это, когда недавно работал школьным учителем. Много книг посвящены методам преподавания, которые нравятся студентам и способствуют лучшему усвоению материала. В свои школьные годы я был, эм-м… подвергнут ряду этих методов, и у меня не осталось никакого желания мучить своих студентов подобным образом. И когда я попробовал разные креативные подходы, которые, как мне казалось, понравились бы мне-ученику… всё окончилось полной неудачей. Что же в конце концов сработало? Методы, близкие к тем, которые я так ненавидел в детстве. Ох. Ладно. Теперь я знаю, почему они так широко используются. А я-то всю жизнь думал, что мои учителя — просто ужасные педагоги, не понимая, что я просто странный статистический выброс, на которого подобные методы не действуют.

Я пишу сюда ещё и потому, что мне кажется эта тема имеет отношение к обсуждению соблазнения, которое проходит в обсуждении Bardic, начатом MBlume. Там есть много не слишком лестных вещей о женщинах, в которые тем не менее верят мужчины. Некоторые считают, что женщины никогда не согласятся на романтические отношения со своими друзьями-мужчинами, предпочитая альфа-самцов, которые к ним в итоге плохо относятся. Другие считают, что женщины сами хотят, чтобы им врали и обманывали их. Я мог бы продолжать, но думаю в том обсуждении всё это и так неплохо представлено.

Тем не менее, от большинства женщин я слышу, что это полная ерунда и женщины вовсе не такие. Что же тут происходит?

Ну, боюсь, я в чём-то верю «соблазнителям». Они вложили много сил и времени в своё «искусство» и, по крайней мере по собственным заявлениям, довольно в этом успешны. И все эти несчастные романтически разочарованные парни, которых я встречаю, не могут полностью ошибаться.

Моя теория состоит в том, что женщины в данном случае становятся жертвой заблуждения о типичной психике. Те женщины, которых я об этом спрашивал — далеко не репрезентативная выборка из всех женщин. Это такие женщины, с которыми стеснительный и довольно замкнутый парень знаком и может поговорить о психологии. Точно так же, женщины, которые пишут в Интернете на эту тему — не репрезентативная выборка. Это женщины с хорошим образованием, у которых есть чётко выраженное мнение по гендерным вопросам и время, чтобы писать о своём мнении в блог.

И, чтобы не показаться шовинистом, то же самое справедливо и для мужчин. Я слышу много плохого о мужчинах (особенно с точки зрения их отношения к романтике), но я не могу сказать такого о себе, своих близких друзьях или о ком-либо, кого я знаю. Но эти мнения настолько распространены и так широко поддерживаются, что у меня есть определённый повод им верить.

Эта статья становится всё менее строгой и всё дальше уходит от темы заблуждения о типичном разуме. Сначала я перешёл к заблуждению о типичной психике, чтобы обсудить материи скорее психологического и социального плана, нежели умственного. А теперь она расширилась так, чтобы включить в себя и другую похожую ошибку — суждение о всех людях по собственному социальному кругу, убеждение в том, что твоё окружение репрезентативно; такое убеждение очень редко оказывается верным3.

Изначально статья называлась «Заблуждение о типичном разуме», но я убрал из названия все намёки и переименовал её в «Обобщение на одном примере», потому что именно это связывает все перечисленные ошибки. Мы непосредственно знаем только один разум, одну психику, один социальный круг, и нам хочется считать их типичными даже в присутствии доказательств обратного.

Для читателей LessWrong это, думаю, особенно важно, так как эти люди, насколько я могу судить, в большинстве своём выпадают из общего ряда на любом из изобретённых психометрических тестов.

  • 1. Эйдетическое воображение, слабо связанное с «фотографической памятью», это способность визуально представлять себе что либо и видеть это так же ясно, ярко и чётко как и при обычном зрении. Пример, который приводил мой профессор, состоит в том что, хотя многие люди могут представить себе тигра, только эйдетик способен сосчитать на нём полоски.
  • 2. Согласно результатам Галтона, людей неспособных формировать визуальные изображения было очень много в математике и науке вообще. Со времён Галтона эти идеи подвергались сомнению, но я не могу найти соответствующих исследований.
  • 3. Пример, который окончательно меня убедил: как вы думаете, какой процент старшеклассников списывают на контрольных и экзаменах? Какой процент воровали что-либо из магазина? Попробуйте предположить ответы на эти вопросы сами, прежде чем смотреть ответ. Кто-то недавно провёл исследования на эту тему, и результаты таковы: две трети списывали и треть воровала в магазинах. Это шокировало меня и всех, кого я знаю — мы не списывали и не воровали в школе, и не знали никого, кто бы так делал. Я целый вечер потратил на то, чтобы найти данные, опровергающие или ставящие под сомнение результаты исследования, и не смог ничего найти.
Оцените качество перевода: 
Средняя оценка: 3.1 (14 votes)

Презумпция типичности — худший аргумент в мире?

Скотт Александер

Некоторое время назад Дэвид Стоув провёл конкурс на самый худший аргумент в мире, но учитывая, что он отметил победителем собственного номинанта, да ещё и поддерживающего его философские взгляды, едва ли процесс отбора можно назвать объективным.

Если он может вот так единолично объявить худший аргумент в мире, то могу и я. Я назначаю самым худшим аргументом в мире приём: «X относится к категории, чей типичный представитель вызывает у нас определённую эмоциональную реакцию. Следовательно такую же эмоциональную реакцию должен вызывать и X, даже если это далеко не самый обычный представитель категории.»

Назовём это «презумпцией типичности». Звучит довольно глупо, когда выражаешь этот принцип так. Да кто вообще так делает?

Но звучит он глупо, только если мы рассуждаем исключительно в терминах категорий и признаков. Когда этот софизм облачают в разговорные слова, он становится столь силён, что большая часть плохих доводов в истории политики, философии и культуры чем-то походит на презумпцию типичности. До них мы ещё доберёмся, а пока рассмотрим простой пример.
Предположим, что кто-то захотел поставить памятник Мартину Лютеру Кингу за его ненасильственное сопротивление расизму. Несогласные могут возразить так: «Но ведь Мартин Лютер Кинг был преступником!»

Любой историк может это подтвердить. Технически, преступник — это человек, нарушивший закон. Как известно, Кинг действовал вопреки закону, запрещающему проведение демонстраций против сегрегации. За это он попал в Бирмингемскую тюрьму, где и написал своё знаменитое письмо.

В этом случае Мартин Лютер Кинг — нетипичный преступник. Классическим примером преступника можно считать, скажем, грабителя. Он гонится за наживой, обманывает ни в чём неповинных людей, подрывает основы общества. Всё это мы осуждаем, и потому, назвав человека преступником, мы автоматически начинаем относиться к нему хуже.

Всё те же несогласные скажут: «Мартин Лютер Кинг — преступник, а так как преступников все ненавидят, ненавидеть нужно и Кинга». Но у Кинга нет тех признаков, которые и заставляют нас плохо относиться к преступникам, а именно лживости, асоциальности и жажды наживы. Следовательно, несмотря на то, что он преступник, нет причин его презирать.

Всё это звучит логично и последовательно, когда подаётся в таком формате. К сожалению, это на сто процентов противоречит инстинктивному побуждению ответить: «Мартин Лютер Кинг? Преступник? Он не был преступником! А ну возьми свои слова обратно!» Вот почему презумпция типичности столь успешна. Как только ты это сказал, ты попался в ловушку. Спор больше не о статуе, а о том, был ли Мартин Лютер Кинг преступником. А так как, технически, преступником он был, спор заранее проигран.

В идеале нужно суметь ответить: «Ну, Мартин Лютер Кинг был хорошим преступником.» Увы, это довольно сомнительный дискуссионный манёвр, его сложно применить в некоторых случаях, где обычно используется вышеописанный софизм.

Теперь я хочу рассмотреть несколько частных случаев. Многие имеют политическую подоплёку 1, за что я извиняюсь, но довольно сложно вычленить плохой аргумент из конкретных споров. Ни один из них не призван намекнуть, что позиция, которую он поддерживает, неверна (на самом деле, я разделяю некоторые из них). Примеры лишь показывают, что некоторые конкретные аргументы ошибочны. Например:

«Аборт — это убийство!» Типичный пример убийства — это Чарльз Мэнсон, врывающийся к тебе домой и стреляющий в тебя. Такой тип убийств плох по многим причинам: ты предпочитаешь не умирать, у тебя есть определённые мечты и надежды, которые погибнут вместе с тобой, твои семья и друзья испытают определённые душевные страдания, а остальное общество будет жить в страхе, пока Мэнсона не поймают. Если определить убийство как «забирание жизни другого человека», тогда, технически, аборт — убийство. Но у него нет многих отрицательных последствий убийства в стиле Чарльза Мэнсона. Хотя аборты можно критиковать по многим другим причинам, фраза «аборт — это убийство» призывает испытывать одинаковые негативные чувства в случае Мэнсона и в случае аборта, игнорируя отсутствие многих характерных черт при последних обстоятельствах. Тех черт, которые изначально и породили эти негативные чувства 2.

«Модификация генов для лечения болезней — это евгеника!» Окей, тут ты меня поймал: если определять евгенику как «попытки улучшить генетический пул человечества», это действительно верно. Но что не так с евгеникой? «Что не так с евгеникой? Гитлер занимался евгеникой! Неэтичные учёные из пятидесятых годов, которые стерилизовали чёрных женщин без их согласия, занимались евгеникой!» А что не так с Гитлером и теми учёными? «Что значит, „что с ними не так“? Гитлер убил миллионы людей! Те учёные тоже разрушили жизни многих.» Разве использование модификации генома для лечения болезней делает что-то подобное? «Ну… не совсем.» Тогда что с ним не так? «Это евгеника

«Эволюционная психология — это сексизм!» Если определять «сексизм» как «веру в различие между полами», это верно по крайней мере про часть эволюционной психологии. Например, принцип Бейтмэна постулирует, что у видов, где женские особи инвестируют больше усилий в воспитание потомства, ритуалы спаривания предполагают, что мужские особи будут ухаживать за женскими чтобы основать пару, а это закладывает фундаментальное психологическое различие между полами. «Отлично, значит, ты признаешь, что это сексизм!» Напомни, почему именно сексизм — это плохо? «Потому что сексизм утверждает, что мужчины лучше женщин, и что у женщин должно быть меньше прав!» Это как-то следует из принципа Бейтмэна? «Ну… не совсем.» Так что же с ним не так? «Это сексизм

Второй, чуть более изящный способ использования презумпции типичности выглядит так: «X принадлежит к категории, чей типичный представитель вызывает некоторую эмоциональную реакцию. Следовательно, мы должны применять ту же эмоциональную реакцию к X, даже если X приносит пользу, которая перевешивает вред.»

«Смертный приговор — это убийство!» Убийство в стиле Чарльза Мэнсона приносит только вред. Поэтому оно вызывает столь сильное отторжение. Сторонники высшей меры наказания считают, что оно позволяет уменьшить преступность или принести другую сопутствующую пользу. Другими словами, они считают, что это «хорошее убийство» 3, как во вводном примере Мартин Лютер Кинг был «хорошим преступником». Но так как обычное убийство — это табу, сложно воспринять выражение «хорошее убийство» всерьёз, ведь даже само упоминание слова «убийство» может вызывать точно такую же негативную реакцию, как и в стандартном случае.

«Позитивная дискриминация — это расизм!» Верно, если вы определяете расизм, как «благоволение определённым людям на основе расовой принадлежности», но, снова, нашу мгновенную негативную реакцию на типичный пример расизма (Ку-Клукс-Клан) нельзя обобщить на этот случай. Перед тем как распространять негативные эмоции на позитивную дискриминацию, следует проверить, обладает ли она всем тем, что заставляет нас ненавидеть Ку Клус Клан (насилие, унижение, отсутствие в обществе разнообразия и зависимости благосостояния человека в первую очередь от его поступков). И даже если мы найдём какие-то из них (подрыв меритократии, например), следует так же доказать, что они не приносят больше пользы, перевешивающей вред.

«Взимание налогов — это воровство Верно, если под воровством вы подразумеваете присвоение чьих-либо денег без согласия человека. Но в отличие от типичного примера воровства (проникновение в чей-либо дом и кража украшений) у налогообложения всё же есть положительные стороны. Воровство обычно несправедливо и наносит ущерб обществу. Первое можно применить и к налогообложению. Второе — нет, если вы согласны, что важнее спонсировать государство, чем оставлять деньги именно у тех людей, которые их заработали. Речь идет об относительной важности обоих пунктов. Следовательно, нельзя просто отказаться от налогообложения из-за того, что воровство как таковое вызывает неприязнь. Вам также придется доказать, что предполагаемые затраты этой формы воровства превышают пользу.

Должен заметить, так как большинство споров всё же представляют собой скорострельный обмен доводами и контрдоводами а ля клуб дебатов, иногда всё же следует отвечать «Налоги — это не воровство!». По крайней мере это лучше, чем сказать: «Налоги — воровство, но хорошее», оставляя для противоборствующей стороны ответ: «По всей видимости, мой достопочтимый оппонент считает, что воровство может быть полезным, мы же будем храбро отстаивать противоположную точку зрения», после чего модератор ударит в гонг, не давая полнее раскрыть точку зрения. Если ты в клубе дебатов, делай что должен. Но если у тебя есть роскошь философской ясности, лучше отринь Тёмное Искусство и взгляни чуть глубже на происходящее.

Бывают ли случаи, когда этот аргумент полезен? Да. Например, в качестве попытки установить на ощупь забор Шеллинга; скажем, принцип, что никто не должен воровать, даже если воровство может быть полезным, потому что тогда будет сложнее вычленить и противостоять действительно плохим видам воровства. Или в качестве попытки зажечь разговор, указывая на потенциальное противоречие: «Замечали ли вы, что налогообложение содержит многие черты типичного воровства? Должно быть вы об этом даже никогда не думали? Почему различаются морально интуитивно правильные поступки в обоих случаях? Не лицемерны ли мы?» Но такое использование довольно ограничено. Как только собеседник ответит: «Да, я думал об этом, но налогообложение отличается от воровства по причинам X, Y и Z», разговор уйдёт вперёд; нет особого смысла настаивать: «Но это воровство

Но в большинстве случаев, я думаю, что это больше аргумент, опирающийся на эмоции, или даже скорее аргумент вида «ты будешь выглядеть глупо, ответив на него». Нельзя просто взять и ответить: «Он хороший преступник», так что если у тебя потенциально склонная к критике аудитория и не так уж много времени для объяснений, ты в ловушке. Тебя только что принудили использовать типичный пример для слова, чтобы отнять самую важную информацию.

Во всех остальных случаях адекватная реакция на попытку убрать значимую информацию это «Нет, спасибо, зачем?» И именно поэтому это самый худший аргумент в мире.

Авторские примечания

Отредактировано, август 2013. После того как получил комментарии и жалобы, я немного отредактировал эту статью. В частности, я попытался убрать жаргон с LessWrong, который отпугнул некоторых незнакомых с сайтом людей, которым просто перешли на статью по ссылке.

Отредактировано, август 2013. Также некоторые читатели жаловались, что это просто неинтересная новая формулировка уже обсуждённых софизмов (каких конкретно непонятно, но чаще всего ссылаются на poisoning the well — «отравление источника»). Меня это не особо задевает, ведь я и не утверждал, что открываю Америку. Многие софизмы перекликаются друг с другом, и разбираться в том, где кончается один и начинается другой — не самое увлекательное занятие. Но хочу отметить, что с самой жалобой я не согласен. «Отравление источника» — это представление двух разных фактов. Например: «Мартин Лютер Кинг был плагиатором… и, кстати, что вы думаете о его взглядах на гражданские права?» Утверждения могут быть не связаны вообще, и обычно это делается осознанно в качестве уловки. В случае презумпции типичности утверждение только одно, но сформулировано оно таким образом, чтобы представлять информацию неверным образом. И его употребление часто несознательно. Приведенный пример про плагиат не подходит под презумпцию типичности. Если вам кажется, что это эссе об обыкновенном «отравлении источника», то либо у этого термина есть незнакомое мне значение, либо вы не понимаете сути статьи.

  • 1. По совету от сообщества я специально включил три типично либеральных примера и три типично консервативных, чтобы избежать спекуляций на тему, в чью сторону ангажирована статья.
  • 2. Следует отличать этот подход от деонтологии, веры в то, что есть некий доказуемый моральный принцип, по которому никогда не следует убивать. Я не думаю, что такое уж важное уточнение, потому что мало кто продумывает эту проблему настолько глубоко, и потому что у меня есть личное и (признаю) спорное мнение, что деонтология большей частью и есть попытка формализовать и оправдать презумпцию типичности.
  • 3. Некоторые люди «решают» эту проблему, говоря, что «убийство» относится только к «отнятию жизни не по закону». Увы, это не более искусно, чем переопределить слово «преступник» как «человек, который нарушает закон и не Мартин Лютер Кинг». Вычленение презумпции типичности — это более полное решение. Например, оно так же покрывает родственный (но большей частью саркастичный) пример, что «тюремное заключение — это похищение».
Перевод: 
Павел Садовников, Екатерина Карпова
Оцените качество перевода: 
Средняя оценка: 4.5 (6 votes)

16 видов полезных предсказаний

Джулия Галеф

Как часто вы делаете предсказания (о будущих событиях или об информации, которая вам пока недоступна)? Если вы регулярно читаете тексты LessWrong, вероятно, вы уже знакомы с идеей, что убеждения должны окупаться, что вы должны уметь сказать: «Вот, что я ожидаю увидеть, если мои убеждения точны, и вот, насколько я в этом уверен», и что вы должны обновлять свои убеждения, в зависимости от того, как сбываются ваши предсказания.

Однако… у меня складывается впечатление, что мало кто из нас регулярно делает предсказания. У меня самой всегда существовало расхождение между тем, насколько полезными, теоретически, я считаю предсказания, и тем, как часто я их делаю.

Не думаю, что дело всего лишь в лени. Я считаю, что на самом деле не так уж просто придумать, какие предсказания можно сделать, чтобы улучшить свою модель тех областей, которые для вас важны.

Здесь мне стоит пояснить, что предсказания могут помочь в достижении двух больших целей:

  1. Улучшить откалиброванность (например, понять, что я права в области X только в 70% случаях, а не в 90%, как я ошибочно считала).
  2. Улучшить точность (например, оказываться правым в вопросах из области Х не в 70% случаях, а в 90%).

Если вы просто хотите получше откалиброваться, то не важно, какие именно предсказания вы будете делать. Поэтому для упражнений на калибровку обычно берутся вопросы с ответами, которые легко найти, например: «Какова высота горы Эверест?» или «Доживёт ли Дон Дрейпер до конца «Безумцев»?» Можете ознакомиться, например, c сайтом predictionbook.com или недавней записью про калибровку. Упражнения на калибровку действительно работают.

Но даже если предсказания по поводу тривиальных вопросов улучшат мои способности к калибровке, они не помогут улучшить мою модель мира. То есть, не помогут мне стать более точной, по крайней мере в важных для меня областях. Если я отвечу на уйму вопросов про высоту гор, возможно, я стану более точной в этой теме, однако, мне это не слишком поможет в жизни.

Поэтому я думаю, что сложность с предсказаниями в следующем: Множество {вопросы, ответы на которые легко узнать} — это малое подмножество всех возможных вопросов. И множество {вопросы, ответы на которые меня волнуют} — тоже малое подмножество всех возможных вопросов. А пересечение этих двух подмножеств таким образом оказывается ещё меньше, и его не так легко найти. В итоге кажется, что предсказания делать довольно трудно, ну или по крайней мере польза от них не стоит затрачиваемых усилий.

Однако, это пересечение не пустое. Нужно лишь применить немного стратегического мышления, чтобы определить, какие из вопросов, на которые можно легко ответить, относятся к интересующим вас областям, или — если подойти к задаче с другой стороны — как выделить проблемы, которые для вас важны, и превратить их в вопросы, ответы на которые можно получить.

Я решила разобраться, что входит в это пересечение. Ниже приводятся 16 видов предсказаний, которые я сама применяю, чтобы улучшить свои суждения о важных для меня вопросах. (Впрочем, я уверена, что таких видов гораздо больше, и надеюсь, что вы поделитесь и своими.)

  1. Предсказывайте, сколько у вас уйдёт времени на текущую задачу. Очень важный вопрос, учитывая, как часто встречается ошибка планирования и какие от неё бывают последствия.
    Примеры: «Сколько я буду писать эту запись в блог?», «Когда наша компания станет приносить прибыль?»

  2. Предсказывайте, как вы будете себя чувствовать в предстоящих ситуациях. Аффективное прогнозирование — наша способность предсказывать, как мы будем себя чувствовать — часто даёт сбои, и об этом хорошо известно.
    Примеры: «Насколько мне понравится вечеринка?», «Почувствую ли я себя лучше, если выйду из дома?», «Буду ли я по-прежнему расстраиваться через две недели, если не получу эту работу?»

  3. Предсказывайте, насколько успешно вы справитесь с задачей.
    Такие предсказания помогают мне замечать, когда я безуспешно пытаюсь повторять один и тот же подход. Сделанное предсказание даже само по себе может намекнуть, что мне нужен план получше.
    Примеры: «Буду ли я придерживаться моего плана тренировок хотя бы месяц?», «Как пройдёт событие, которое я организовываю?», «Сколько я сделаю за сегодня?», «Смогу ли я убедить Боба в том, что моя точка зрения по обсуждаемому вопросу верна?»

  4. Предсказывайте, как ваша аудитория отреагирует на конкретную запись в социальных сетях (фейсбуке, твиттере, тумблере, блоге и так далее).
    Это поможет вам лучше разбираться, как создавать успешный контент, а также лучше понимать взгляды на мир ваших друзей (или читателей).
    Примеры: «Наберёт ли это видео необычно высокое количество лайков?», «Приведёт ли ссылка на эту статью к ругани в комментариях?»

  5. Когда вы пробуете новое занятие или новый способ что-нибудь делать, предсказывайте, как много вы получите пользы благодаря этому.
    Я заметила, что в этой области я часто ошибаюсь по обоим направлениям. По поводу некоторых «лайфхаков» мне кажется, что они решат все мои проблемы (а на самом деле такое случается редко). И наоборот, я часто с излишним скепсисом отношусь к занятиям, которые находятся вне моей зоны комфорта, и часто оказываюсь приятно удивлена, когда я всё-таки их пробую.
    Примеры: «Насколько „помодорки“ увеличат мою продуктивность?», «Насколько мне понравится танцевать свинг?»

  6. Когда вы что-то покупаете, предсказывайте, как много вы получите от этого пользы.
    Из исследований по поводу денег и счастья можно сделать два основных вывода: 1) в общем случае на деньги нельзя купить счастье; 2) есть уйма случаев, когда первый пункт не работает. Таким образом, судя по всему, в этой области есть большой потенциал для развития своих способностей к предсказанию, и в результате можно научиться тратить деньги более эффективно, чем люди в среднем.
    Примеры: «Сколько я буду носить эти новые туфли?», «Как часто я буду использовать мою клубную карту?», «Буду ли я думать через два месяца, что действительно стоило перекрасить кухню?», «Буду ли я через два месяца по-прежнему получать удовольствие от новой машины?»

  7. Предсказывайте, как другие люди ответят на вопросы о себе.
    Я часто замечаю, что делаю предположения о других людях, и мне нравится проверять эти предположения. В идеальном случае я получаю интересную обратную связь и о самом предмете вопроса, и о моей модели человека в целом.
    Примеры: «Тебя не беспокоит, что наши встречи длятся дольше, чем запланировано?», «Ты считал себя популярным, когда учился в старших классах?», «Как по-твоему, нормально ли лгать, чтобы защитить чьи-нибудь чувства?»

  8. Предсказывайте, насколько вы сможете продвинуться в решении задачи за пять минут.
    У меня часто появляется впечатление, что задача, с которой я столкнулась, — очень сложная, или что я уже думала над ней и рассмотрела все очевидные варианты решения. Однако, когда я решаю (или кто-то меня подталкивает) устроить пятиминутный мозговой штурм, к моему удивлению, у меня появляется новая многообещающая идея.
    Пример: «Мне кажется, будто я перепробовала уже всё, чтобы решить свои проблемы со сном, и ничего не помогает. Если я прямо сейчас потрачу пять минут на размышления, смогу ли я придумать хотя бы одну новую идею, которую имело бы смысл попробовать?»

  9. Предсказывайте, подтвердят ли данные из вашей памяти ваше впечатление.
    Память нас нередко подводит, и я регулярно удивляюсь, как часто я не в состоянии вспомнить конкретные примеры, которые подтвердили бы то, в чём я достаточно сильно уверена (или как часто я вспоминаю конкретные примеры, которые на самом деле противоречат моему впечатлению).
    Пример: «У меня есть впечатление, будто люди, которые бросают академическую науку, счастливы, что они это сделали. Если я попробую вспомнить нескольких людей, которые бросили академическую науку, и оценить, насколько они счастливы от этого, какое получится соотношение счастливых и несчастливых?»
    «Кажется, что Боб никогда не слушает мои советы. Если я попробую вспомнить примеры, когда Боб последовал моему совету, сколько у меня получится вспомнить?»

  10. Выбирайте один экспертный источник и предсказывайте, как он ответит на вопрос.
    Это быстрый способ проверить утверждение или разрешить спор.
    Примеры: «Поддержит ли Cochrane Medical утверждение, что витамин D помогает росту волос?», «Согласится ли Боб — управлявший несколькими компаниями, похожими на нашу, — что наша стартовая заработная плата слишком мала?»

  11. Когда вы знакомитесь с новым человеком, фиксируйте своё первое впечатление о нём. Предсказывайте, насколько вероятно, что, когда вы узнаете этого человека получше, вы посчитаете своё первое впечатление достаточно точным.
    Выпускница CFAR Лорен Ли предложила мне свою вариацию на эту тему: делайте предсказание о человеке до встречи с ним на основании тех данных, которые у вас уже есть.
    Примеры: «Я знаю о парне, с которым собираюсь встретиться, только то, что он банкир. Я в средней степени уверена, что он окажется самоуверенным.», «Судя по моему единственному диалогу с Лизой, она очень проницательна. Я предсказываю, что у меня сохранится это впечатление, когда я узнаю её получше.»

  12. Предсказывайте, как ваши друзья в фейсбуке ответят на опрос.
    Пример: Я часто задаю в фейсбуке вопросы по поводу этикета. Например, недавно я устроила опрос: «Если беседа идёт как-то неловко, для вас будет лучше или хуже, если собеседник это как-то прокомментирует?» Я была достаточно уверена, что большинство людей ответит «хуже», и ошиблась.

  13. Предсказывайте, насколько правильно вы поняли позицию собеседника. Для проверки пробуйте сформулировать эту позицию своими словами и пересказывайте собеседнику.
    Иллюзия прозрачности очень опасна.
    Примеры: «Ты утверждаешь, что проводить воркшоп в следующем месяце — плохая идея. Полагаю, ты так думаешь, потому что у нас не будет времени на рекламу, верно?»
    «Я знаю, что ты считаешь, что поедание мяса не является проблемой с точки зрения морали. Это потому, что ты думаешь, что животные не страдают?»

  14. Когда вы с кем-то не согласны, предсказывайте, насколько вероятно, что сторонний наблюдатель займёт вашу позицию, если ему объяснить суть вопроса.
    Для лучших результатов, когда вы объясняете суть вопроса, не раскрывайте, кто на какой стороне находится.
    Пример: «Сегодня на работе я и Боб поспорили, стоит ли стажёрам присутствовать на собеседованиях. Что ты думаешь?»

  15. Предсказывайте, окажется ли удивительная для вас новость правдой.
    Это хороший способ откалибровать свой бредодетектор и в целом улучшить ваши модели мира, которые использует ваш здравый смысл.
    Примеры: «Этот заголовок утверждает, что какие-то учёные загрузили в компьютер мозг червя. После того, как я прочту статью, посчитаю ли я, что заголовок точно передаёт смысл реально случившегося?»
    «Это вирусное видео утверждает, что изображает незнакомых людей, которых уговорили поцеловаться. Окажется ли оно постановочным?»

  16. Предсказывайте, найдётся ли в результате быстрого поиска в Сети заслуживающий доверия источник, подтверждающий обсуждаемое утверждение.
    Пример: «Боб утверждает, что после того, как он надевает часы, они вскоре останавливаются. Если я потрачу пару минут на поиск в Сети, найду ли я хоть один заслуживающий доверия источник, утверждающий, что такое явление на самом деле существует?»

И напоследок выскажу ещё одну мысль о том, как извлечь максимум пользы из предсказаний.

Рационалисты часто обращают внимание на важность объективных метрик. А, как вы могли заметить, большинство моих примеров не удовлетворяет этому критерию. Например, «Предсказывайте, случится ли ругань в комментариях? Не существует объективного способа определить, засчитывается ли происходящее в комментариях как „ругань“ или нет…» Или, «Предсказывайте, смогу ли я найти заслуживающие доверия источники, поддерживающие X? А кто скажет, что такое „заслуживающий доверия источник“ и что засчитывается за „поддержку“ X?»

Безусловно, при прочих равных условиях, следует предпочитать объективные метрики. Однако, не всегда прочие условия равны. Субъективные метрики гораздо проще придумать, и они вовсе не бесполезны. В подавляющем большинстве случаев, когда вы видите результаты, вы можете достаточно ясно понять, оказалось ваше предсказание верным или нет — пусть даже вы не сформулировали заранее точные, объективно проверяемые критерии успеха. Обычно здравый смысл говорит, что вы получили «да» или «нет». Иногда будет получаться «э-э… в некотором роде», однако, если вы уверено предсказывали, что результат будет ясно показывать в сторону «да» или «нет», получить подобный сюрприз тоже достаточно интересно.

Также скажу, что я обычно не присваиваю своим предсказаниям вероятности в численной форме. Я просто отмечаю, что моя уверенность попадает в качественные границы «очень уверена», «достаточно уверена», «слабо уверена» (что примерно соответствует вероятностям 90%/75%/60%, если я вынуждена всё-таки переходить к числам).

Возможно, вы сможете извлечь дополнительную пользу, если вы будете не просто полагаться на субъективные впечатления, а станете записывать уровни уверенности в числах и придумывать объективные метрики, которые нельзя обмануть. Однако, по-моему, в большинстве случаев эта дополнительная польза не перевесит того, что предсказания станут для вас достаточно тяжёлой задачей. Другими словами, не позволяйте, чтобы лучшее стало врагом хорошего. Или совсем другими словами: самая большая проблема с вашими предсказаниями прямо сейчас заключается в том, что их не существует.

Перевод: 
Alaric
Оцените качество перевода: 
Средняя оценка: 3.8 (17 votes)

Используйте слово "рационально", только если от него нельзя избавиться

Элиезер Юдковский

Почти всегда, если в предложении используется слово «истина», его можно убрать, применив формулу Тарского. Например, если кто-то говорит: «Я убеждён, что небо синее, и это истина!», то это можно перефразировать как: «Я убеждён, что небо синее, и небо синее». Для любого «Предложение Х — истина» можно просто сказать Х и передать ту же самую информацию о своих убеждениях. Просто говорите о территории, которой карта предположительно соответствует, а не о карте.

Когда слово «истина» убрать нельзя? Когда вы говорите об общих принципах, касающихся соответствия между картой и территорией. Например: «Истинные теории с большей вероятностью дадут верные предсказания об исходах эксперимента». В этом предложении невозможно избавиться от слова «истинные», потому что здесь речь идёт о соответствии между картой и территорией в общем случае.

Аналогично можно убрать слово «рационально» из почти всех предложений, где оно используется. «Рационально считать, что небо синее», «Истина в том, что небо синее» и «Небо синее» передают абсолютно одинаковую информацию о цвете неба с вашей точки зрения. Не больше, не меньше.

Когда из предложения нельзя убрать слово «рационально»?

Когда вы формулируете общие принципы для алгоритмов мышления, которые приводят к соответствию между картой и территорией (эпистемическая рациональность) или направляют будущее туда, куда вы хотите (инструментальная рациональность). Можно убрать слово «рационально» из предложения «Рационально считать, что небо синее». Нельзя убрать слово «рационально» из предложения «Эпистемически рационально повышать свою уверенность в гипотезах, которые делают успешные предсказания». Табуировать это слово, конечно, можно, но вы получите что-то вроде: «Чтобы увеличить соответствие между картой и территорией, следуйте алгоритму, который требует увеличивать уверенность в гипотезе, которая делает успешные предсказания». Можно избавиться от слова, но не получится избавиться от самого понятия, не изменив смысла предложения, поскольку речь фактически идёт об универсальных алгоритмах мышления, которые строят соответствие между картой и территорией.

Никогда не следует использовать слово «рационально» без необходимости, то есть, если мы не обсуждаем алгоритмы мышления как алгоритмы.

Если вы хотите поговорить о том, как применить рациональность, чтобы купить самую крутую машину, но в первую очередь собираетесь рассуждать о машинах, а не о том, какие алгоритмы мышления самые лучшие, назовите свой пост «Как лучше покупать машину», а не «Как рационально покупать машину».

Спасибо за то, что соблюдаете технику безопасности.

Перевод: 
Alaric
Оцените качество перевода: 
Средняя оценка: 4.8 (6 votes)

Лицензия героя

Элиезер Юдковский

Я полагаю, что большинство читателей знают меня либо как сооснователя MIRI и автора множества исходных задач в области соответствия ИИ1, либо как автора «Гарри Поттера и методов рационального мышления», популярного фанфика по Гарри Поттеру. В книге «Неадекватное равновесие»2 я рассказал, как я применяю в жизни описанные там идеи. Возможно, многим читателям интересно, как эти идеи связаны с моей работой в области ИИ и моими художественными произведениями. И я подумал, что здесь действительно можно найти интересные примеры неадекватности, используемости и скромности.

Нижеприведённый диалог — никогда не происходивший — дополняет «Неадекватное равновесие»3. Большей частью он написан в 2014 году, а в 2017 я его отредактировал и выложил в интернет.

Выдающиеся результаты и взгляд извне

(2010 год. Элиезер-2010 сидит на скамейке, уткнувшись в ноутбук, в несуществующем парке в Редвуд-Сити, Калифорния. К нему подходит Человек.)

Человек: Простите, вы случайно не Элиезер Юдковский?

Элиезер-2010: Мне принадлежит эта сомнительная честь.

Человек: Меня зовут Пат. Пат Модесто4. Мы не встречались, но я читал вас в интернете. Над чем вы работаете сейчас?

Элиезер-2010: Пытаюсь написать научно-популярную книгу по рациональности. Мои записи в блоге на Overcoming Bias5, в смысле на Less Wrong, довольно длинны, нуждаются в редактуре, и, хотя они как-то повлияли на мир, мне кажется, что книгу по рациональности прочитало бы больше людей и она повлияла бы на мир сильнее.

Пат: Как интересно! Вы не возражаете, если я загляну в ваш экран и…

Элиезер (закрывая экран): Возражаю!

Пат: Простите. Гм… То, что я мельком заметил, как по мне, не слишком похоже на научно-популярную книгу по рациональности.

Элиезер: Ну, да, работа над этой книгой шла очень медленно. Поэтому я решил попробовать в свободные часы писать что-нибудь другое, чтобы разобраться: у меня проблемы со скоростью написания вообще или дело именно в этой конкретной книге.

Пат: Вообще-то, я увидел нечто похожее на фанфик по Гарри Поттеру. По-моему, я заметил слова «Гарри» и «Гермиона» в сочетаниях, не похожих на те, что были у Джоан Роулинг.

Элиезер: Да, и вроде бы у меня получается писать его довольно быстро. К тому же, кажется, у меня на него уходит меньше сил, чем обычно.

(Загадочный незнакомец в маске, наблюдающий за этой сценой, завистливо вздыхает.)

Элиезер: Теперь мне надо разобраться, почему моя основная книга пишется настолько медленнее и требует гораздо больше сил… Я бы мог написать столько книг, если бы всегда писал с такой же скоростью, с какой пишу этот фанфик…

Пат: Простите, если мой вопрос покажется глупым. Не хочу сказать, что фанфики по Гарри Поттеру — это плохо. Я и сам в своё время их читал. Однако, насколько я понимаю, ваша философия заключается в том, что мир уже горит и с этим нужно что-то делать. Если это правда, почему вы пишете фанфик по Гарри Поттеру, а не занимаетесь чем-то ещё?

Элиезер: Я занимаюсь чем-то ещё. Я пишу научно-популярную книгу по рациональности. Просто сейчас у меня свободное время.

Пат: Понятно. Но меня интересует, почему в свободное время вы занимаетесь именно этим.

Элиезер: Потому что сил мне не хватает гораздо больше, чем времени. Этот фанфик мне обходится довольно дёшево, поэтому его я могу создавать быстро.

Пат: Я пытаюсь понять, почему вы пишете фанфик по Гарри Поттеру, даже при том, что вам это довольно легко даётся. Разве что действительно дело исключительно в том, что вам нужно понаблюдать, как у вас получается писать быстро, чтобы понять, как быстро писать другие вещи. В этом случае я бы спросил, как вы оцениваете вероятность, что вам действительно удастся это понять. Просто я думаю, что вы могли бы использовать свободное время более эффективно.

Элиезер: Я не уверен, что вы правильно понимаете идею «свободного времени». Существуют причины, почему оно необходимо, и эти причины не сводятся к тому, что люди ленивы. Да, Анне Саломон6 и Люку Мюльхаузеру7 свободное время не нужно, но я не уверен, что их точно можно назвать людьми.

(Загадочный незнакомец в маске вступает в разговор.)

Незнакомец: Прошу прощения.

Элиезер: Вы кто такой?

Незнакомец: Вряд ли это важно.

Пат: И почему вы в маске?

Незнакомец: Ну, я точно не версия Элиезера из 2014 года, тайно вернувшаяся в прошлое, если вы думаете об этом.

Пат: Справедливости ради, об этом я вовсе не думал.

Незнакомец: Пат и Элиезер-2010! По-моему, вы не понимаете друг друга. Разногласие между вами гораздо больше, чем вам кажется.

Пат и Элиезер: Продолжайте.

Незнакомец: Если в феврале 2010 года спросить Элиезера, почему он пишет «Гарри Поттера и методы рационального мышления», он, конечно же, ответит, что, по его предположению, написание «Методов» повлияет к лучшему на его попытки написать «Искусство рациональности» — его предполагаемое руководство по освоению рациональности. Это вызвано тем, что у нас — в смысле, у Элиезера — есть эвристика «планируй главное», которая подразумевает, что любая деятельность оправдана в той мере, в какой она положительно влияет на «нормальный» вариант будущего, а не на маловероятные побочные сценарии.

Элиезер: Конечно.

Пат: Подождите. Разве не вся ваша жизнь…

Элиезер: Нет.

Незнакомец: У Элиезера-2010 также есть эвристика, которую можно сформулировать как: «Деятельность имеет смысл, лишь если ты можешь достичь в ней множества Парето». Другими словами, если Элиезер-2010 ожидает, что работа кого-то другого будет во всех отношениях лучше, чем его работа, ему не придёт в голову тратить на это время. Элиезер-2010 считает, что он способен делать то, что попадёт во множество Парето, поэтому зачем ему вообще заниматься чем-то иным? Поэтому, хоть в свободное время, хоть нет, Элиезер не стал бы писать этот фанфик, если бы считал, что какой-нибудь другой — или даже какая-нибудь другая книга — окажется лучше во всех отношениях.

Пат: Гм…

Элиезер: Я бы не стал использовать именно такие слова.

Незнакомец: Да, потому что если бы вы сказали это вслух, люди бы начали многократно повторять слово «самонадеянность», а вы бы не до конца понимали, почему они так себя ведут. Поэтому вы красиво играете словами и пытаетесь уводить разговор от этой темы.

Пат: Это правда?

Элиезер: Мне кажется, будто незнакомец в маске хочет использовать эффект Барнума. В смысле, большинство людей, если их спрашивать поодиночке, признали бы, что это описание подходит и к ним.

Пат: …… Я совершенно не считаю, что ко мне подходит такое описание.

Элиезер: Я всерьёз удивлюсь, если таких окажется меньше десяти процентов от всего населения.

Незнакомец: Элиезер, за следующие четыре года вы научитесь немного лучше понимать эмоции людей, связанные со статусом. Впрочем, всерьёз их учитывать вы всё равно будете лишь в тех случаях, когда вам нужно будет донести точку зрения, которую невозможно донести никак иначе, то есть, увы, очень часто, поскольку эпистемология скромности слишком быстро распространяется в вашем сообществе. В любом случае, Пат, факт, что Элиезер-2010 тратит очень много времени на «Гарри Поттера и методы рационального мышления» действительно позволяет вам сделать вывод, что Элиезер-2010 считает, что «Методы» могут достичь значительного успеха в каких-то важных для него аспектах. Что они выйдут за границы сделанного кем угодно другим. Хотя, возможно, он в этом и не признается до того, как реально достигнет успеха.

Элиезер: Ну, да, да, так и есть. Меня расстраивает, как в художественной литературе показывают «интеллектуальных» и/или «рациональных» персонажей. И я хочу увидеть правильных «рациональных» персонажей, даже если мне придётся написать про них историю самому. Я чётко представляю, что именно другие писатели делают не так, и как сделать лучше. Если бы я этого не представлял, перспектива написать «Методы» меня бы интересовала гораздо меньше.

Незнакомец (в сторону): Наше мировоззрение настолько заражено неадекватностью цивилизации, что мы почти никогда её не замечаем. По этому поводу даже не стоит переживать, ведь, так уж получилось, мы в самом деле живём в неадекватной цивилизации.

Элиезер (по-прежнему обращаясь к Пату): Однако, я не говорю о том, какими могут получиться «Методы», не только из скромности. Я действительно не уверен, что я смогу сделать «Методы» такими, какими, с моей точки зрения, они могут стать. Я не хочу обещать больше, чем могу сделать. И поскольку нужно планировать главное, я пробую писать «Методы», исключительно чтобы выяснить, могу ли я писать быстрее.

Незнакомец (в сторону): Задним числом я несколько сомневаюсь, что дело именно в этом, хотя рассуждения вполне разумны.

Пат: Можете рассказать больше о том, почему вы думаете, что в вашей истории о Гарри Поттере получатся чрезвычайно «интеллектуальные» персонажи?

Элиезер: А нужно? В литературе я должен показывать, а не рассказывать. Само собой, мои персонажи не будут учить пятьдесят семь языков, потому что они суперумные. Я считаю, что большинство попыток написать «интеллектуальных персонажей» упираются в их поверхностные качества, вроде количества языков, которые они знают, или сводятся к созданию стереотипных поверхностных черт, которые автор видел у других персонажей-«гениев», например, ощущение чуждости. В кино такие персонажи говорят с британским акцентом. Кажется, подавляющее большинство авторов не в курсе про рассуждение Винджа, почему сложно создать персонажа, который окажется умнее автора. Например, чтобы знать, как в шахматной партии походит прекрасный шахматист, нужно играть в шахматы не хуже него. И по этой же причине тяжело написать персонажа, который окажется гораздо рациональнее автора.

По-моему, понятия «интеллект» и «рациональность» у типичных персонажей не имеет ничего общего с умением делать правильный выбор или делать хорошие предсказания. С моей точки зрения, в литературе просто нет идеи персонажа, который достигает успехов в оптимизации своего мышления, отличающейся от идеи персонажа, который побеждает, просто потому что у него в мозги встроен волшебный меч. Кроме того, по-моему, большинство авторов персонажей-«гениев» не уважают их предполагаемый гений настолько, чтобы всерьёз поставить себя на их место — всерьёз попытаться почувствовать, на что похожа их внутренняя жизнь, и подумать хотя бы чуть дальше первого пришедшего в голову клише. Автор просто ставит себя выше «гения», наделяет гения каким-то вариантом очевидной глупости, позволяющей автору сохранять эмоциональную дистанцию…

Незнакомец (в сторону): Подавляющее большинство авторов с трудом могут вообразить персонажа, который по-настоящему умнее автора. Подавляющее большинство футуристов с трудом могут представить ИИ, который по-настоящему умнее человека. И действительно, люди часто пренебрегают гипотезой, что чрезвычайно умный человек уж точно примет во внимание факторы, которые они сами считают очевидными. Однако, когда речь идёт о достаточно компетентных личностях, принимающих решения исходя из собственных знаний и компетенций (я здесь не рассматриваю поведение бюрократических комиссий или коллективное поведение в произвольной области), часто стоит задаваться вопросом, не могут ли они оказаться умнее, чем вы думаете, и нет ли у их действий оправданий лучше, чем те, что приходят вам на ум в первую очередь.

Пат: Хорошо, предположим, вы сможете написать книгу, где персонажи будут демонстрировать интеллект по-настоящему. Как именно это поможет спасти мир?

Элиезер: Почему вы делаете акцент на слове «интеллект», а не на слове «рациональность»? Впрочем, отвечая на ваш вопрос: научно-популярная литература передаёт факты, художественная литература передаёт опыт. За два предыдущих года блоггерства8 я смог передать людям явно недостаточное количество мыслительных навыков, и это меня тревожит. Я надеюсь, что книга, где описывается внутренний опыт персонажа, пытающегося быть рациональным, сообщит людям то, что я не смогу настолько легко сообщить своими эссе в блоге.

Незнакомец: (смеётся).

Элиезер: В чём дело, Незнакомец в маске?

Незнакомец: Просто… вы чересчур скромны.

Элиезер: Вы это мне?

Незнакомец: Там, где я живу сейчас, это довольно очевидно. Вы так тщательно не говорите о своих надеждах относительно «Гарри Поттера и методов рационального мышления», потому что понимаете, что люди вроде Пата не поверят, что это возможно, и вы не сможете убедить их в обратном.

Пат: Этот парень — странный.

Элиезер (пожимает плечами): Это не редкость.

Пат: Давайте не обращать на него внимание. Вы сказали, что сейчас тратите много времени…

Элиезер: Но удивительно мало сил.

Незнакомец: Там, откуда я пришёл, мы бы сказали, что вы тратите удивительно мало «ложек».

Пат: …тем не менее, вы тратите много времени на создание истории о Гарри Поттере с, как вы надеетесь, исключительно рациональными персонажами. Что приведёт к тому, что ваши читатели впитают опыт, как быть рациональными. Что, по-вашему, окажется важным для спасения мира.

Элиезер: М-м, примерно так.

Пат: Как вы думаете, что взгляд извне сказал бы…

Элиезер: О, кстати, я вспомнил, что мне пора бежать. (Начинает закрывать ноутбук.)

Незнакомец: Подождите. Останьтесь, пожалуйста. Вы мне поверите, что это важно?

Элиезер: …Хорошо. Кажется, мне редко что-нибудь советовали незнакомцы в масках, поэтому в этот раз я попробую послушаться и посмотрю, что получится.

Пат: Что я сказал не так?

Незнакомец: Вы сказали, что этот разговор ни к чему полезному не приведёт.

Элиезер: Я бы не был столь радикален. Впрочем, да, по моему опыту, люди, которые используют словосочетание «взгляд извне», обычно не дают полезных советов, и на разговор с ними уходит много сил — как вы сказали, «ложек»? Но раз уж я поверил незнакомцу в маске на слово, я попробую продолжить. Что, по-вашему, говорит о проекте «Методы рационального мышления» взгляд извне?

Пат: Ну, я как раз собирался спросить вас, что удаётся передать читателям средней истории с рациональным персонажем.

Элиезер: Так я не пытаюсь написать среднюю историю. Весь смысл в том, что я считаю, что средняя история с «рациональным» персонажем никуда не годится.

Пат: То есть, вы считаете, что ваши персонажи будут рациональны по-настоящему. Однако, возможно, другие авторы тоже думают, что их персонажи рациональны…

Элиезер (шёпотом Незнакомцу в маске): Можно я уйду?

Незнакомец: Нет. Серьёзно, это важно.

Элиезер: Ладно. Пат, ваша предпосылка ошибочна. Гипотетических авторов, которые всерьёз стараются создать рациональных персонажей, не существует. Авторы не понимают, что для создания рациональных персонажей, нужно прикладывать усилия, и всего лишь изображают очередного «соломенного вулканца», практически не думая в процессе.

Незнакомец: Я бы это перефразировал так: создание рациональных персонажей — не та область, в которую наша цивилизация вкладывает достаточные усилия, и поэтому не стоит ожидать там адекватности.

Пат: Послушайте, я не спорю с тем, что наверняка вы напишете персонажей более рациональных, чем удаются этим средним авторам. Я просто считаю, что важно помнить, что всегда неправота изнутри ощущается так же, как правота.

Незнакомец: Элиезер, пожалуйста, объясните Пату, что вы думаете про это замечание.

Элиезер: На самом деле вы далеко не всегда помните, что «неправота изнутри ощущается так же, как правота». Вы вспоминаете об этом в исключительно избирательных случаях, когда вы уже скептично относитесь к чужим доводам. Просто кажется, будто вы вспоминаете об этом в каждом подходящем случае, поскольку, в конце концов, всякий раз, когда вы считаете нужным подумать об этом, вы об этом думаете. Вы просто использовали абсолютно универсальный контраргумент, а такие аргументы с точки зрения байесианства не позволяют различить случаи, когда мы ошибаемся, и случаи, когда мы правы. Фраза «неправота изнутри ощущается так же, как правота» похожа на фразу «но у меня есть вера». Её одинаково легко произнести как в ситуации, когда ваш собеседник прав, так и в ситуации, когда он ошибается.

Незнакомец: На определённой стадии когнитивного развития людям нужно задумываться о том, почему карта — это не территория. Особенно если им раньше никогда не приходило в голову, как ощущается идея о том, что вселенная в их воображении на самом деле построенная их мозгом реконструкция настоящей вселенной. Просто Элиезер прошёл эту стадию, прочитав примерно в одиннадцать лет книгу С. И. Хаякавы «Язык в мысли и действии»9. Когда умение различать карту и территорию полностью усвоено, отсылка к их разнице при обсуждении идей, которые вам не нравятся, это (абсолютно универсальный) мотивированный скептицизм.

Пат: Хорошо, однако есть исследование, показывающее полезность метода «предсказание на основании референтного класса»…

Элиезер: Я в курсе.

Пат: И мне интересно, какое можно сделать предсказание на основании референтного класса о ваших попытках принести пользу миру с помощью фанфика по Гарри Поттеру?

Элиезер (Незнакомцу в маске): Пожалуйста, можно я всё-таки убегу?

Незнакомец: Нет.

Элиезер (вздыхая): Хорошо, допустим, за данным вопросом кроется нечто большее, чем обычный скепсис. Если вспоминать книги, в которых, с моей точки зрения, хорошо написаны рациональные персонажи, то у них довольно неплохие результаты. Когда я был ребёнком, на меня сильно повлиял «Мир Нуль-А» Альфреда ван Вогта. «Нуль-А» не просто научил меня фразе «карта - не территория». Оттуда я почерпнул идею, что люди, которые применяют рациональные техники, должны быть крутыми, а если они не круты, значит, они делают что-то не так. Уйма учёных и инженеров выросли на одах, в которых Роберт Хайнлайн восхвалял науку и инженерию. Да, я знаю, что Хайнлайн не идеален, но тем не менее.

Незнакомец: Интересно, в каких взрослых вырастут умные дети, читающие в двенадцать лет «Гарри Поттера и методы рационального мышления»?..

Пат: Но ведь книги ван Вогта про Нуль-А — это исключительный пример книг с персонажами-рационалистами. Мой первый вопрос: почему вы считаете, что вы сможете написать что-то подобное? А второй вопрос: даже если ваш рациональный персонаж будет вдохновлять людей не хуже персонажей Хайнлайна, насколько он повлияет на среднего читателя, и как много людей в лучшем случае, по-вашему, прочтут ваш фанфик по Гарри Поттеру?

Элиезер: Скажу честно, по-моему, вы задаёте неправильные вопросы. В смысле, когда я решил писать «Методы», я ни о чём подобном не думал.

Незнакомец (в сторону): Кстати, это правда. В своё время мне не приходил в голову ни один из этих вопросов. Сейчас я их задаю исключительно потому, что я пишу персонажа Пата Модесто. С моей точки зрения, наличие в голове голоса кого-то вроде Пата Модесто — непродуктивно, поэтому мне не приходят спонтанные мысли, что бы он сказал.

Элиезер: С моей точки зрения, чтобы создать как можно лучшую книгу, имеет смысл задаться вопросом, что в плане рациональных персонажей делают неправильно другие авторы, и что правильно сделал Альфред ван Вогт. Я не понимаю, зачем мне нервничать, смогу ли я достичь большего, чем ван Вогт, который мог опереться лишь на работу Альфреда Коржибски, написанную за десятилетия до рождения Даниела Канемана10. Если честно, я всерьёз полагаю, что я уже вышел за пределы так называемого референтного класса, в который вы собираетесь меня запихнуть…

Пат: Что?! Как вообще можно «выйти за пределы» референтного класса?

Элиезер: …что, в свою очередь не гарантирует мне успеха, потому что оказаться за пределами референтного класса — не то же самое, что оказаться лучше него. В смысле, я не делаю выводов на основании этого референтного класса о себе. Я просто попробую написать эту книгу и посмотрю, что получится.

Пат: Вы считаете, что вы автоматически лучше любого автора, который когда-либо пытался написать рациональных персонажей?

Элиезер: Нет! Послушайте, моя голова организована так, что я о таких вещах просто не думаю. В моей голове есть лишь книга, и я задаю себе вопрос, смогу ли я воплотить её в реальность. Я строю в голове модель книги, а не модель себя.

Пат: Но если книга в вашей голове подразумевает, что уровень вашего мастерства относительно среднего автора попадает в очень высокий процентиль, то, как по мне, вполне разумно спросить, почему вы уже считаете, что можете на этот процентиль претендовать.

Незнакомец: Давайте я ещё немного вброшу. Элиезер-2010, предположим, я скажу вам, что в начале 2014 года «Методы» достигли примерно следующего уровня. Во-первых, в них примерно полмиллиона слов, но книга пока не закончена…

Элиезер: Чёрт. Это печально. Значит, я серьёзно замедлился и уж точно не научился всегда писать так быстро, как сейчас. Интересно, что пошло не так? Кстати, а почему я продолжаю писать эту книгу вместо того, чтобы сдаться?

Незнакомец: Потому что она вышла в лидеры на fanfiction.net (где опубликованы 500 тысяч историй) по числу отзывов. У неё есть группы почитателей во многих университетах и колледжах. На сайте, который уже перестал быть основным местом выкладки, у неё больше 15 миллионов просмотров. Поклонники создали проект по созданию аудиоверсии этой книги, при этом вы сами этим проектом не занимались совершенно. «Методы» прекрасно знают в Калтехе и МТИ, у них есть популярный сабреддит с 6 тысячами подписчиков, их часто называют самым известным или самым популярным фанфиком по Гарри Поттеру. Значительная часть читателей утверждает, что это лучшая книга, которую они прочитали в своей жизни, а как минимум одного золотого медалиста международной олимпиады по математике она вдохновила поучаствовать во множестве математических воркшопов MIRI.

Элиезер: Мне нравится этот сценарий. Он странный, а мне нравятся странности. Внедрять такое состояние дел в реальность и вынуждать людей мириться с ним доставило бы мне бесконечное удовольствие.

Незнакомец: Возвращаясь к теме. Какова, по-вашему, вероятность того, что дела будут идти так или лучше?

Элиезер: Гм… надо подумать. Очевидно, что именно такой сценарий невероятен в силу коньюнкции. Однако если поделить исходы в зависимости, будут ли они с точки зрения моей функции полезности лучше или хуже этого, и спросить, какую вероятность я присвою лучшим исходам, то я бы сказал, что примерно 10%. То есть, подобный успех находится примерно на 90-м процентиле моих надежд.

Пат (издаёт нечленораздельные звуки).

Элиезер: Ой. Упс. Я про вас забыл.

Пат: 90-й процентиль?! Вы всерьёз считаете, что такое может случиться с шансами 1 к 10?!

Элиезер: Гм-м…

Незнакомец: Да, он всерьёз так считает. Если бы я не поставил вопрос таким образом, он вряд ли бы думал о подобном прогнозе: не потому что этот прогноз чересчур конкретен, а потому что Элиезер Юдковский просто не пытается продумывать такие подробности заранее. Он называет такое занятие «фантазиями о деталях» и считает, что в подобные фантазии обычно лишь утекает эмоциональная энергия. Но если бы такой прогноз сбылся, Элиезер сказал бы, что присвоил бы исходам такого рода или лучше вероятность в 10% от всех возможных исходов. Хотя он беспокоился бы об искажении задним числом.

Пат: По-моему, вероятность такого исхода скорее ближе к 0,1%, и даже эта оценка — слишком щедра!

Элиезер: Да, «сторонники взгляда извне» часто говорят мне примерно то же самое почти всякий раз, когда я пытаюсь сделать что-нибудь интересное. Впрочем, ваша оценка меня всё же удивила. В смысле, моя базовая гипотеза о том, как работает этот ваш «взгляд извне», заключается в том, что это способ выразить скепсис по любому поводу, подобрав референтный класс, который предрекает неудачу. Затем вокруг этого референтного класса можно построить идеальную эпистемическую ловушку, рассуждая про эффект Даннинга-Крюгера и опасности взгляда изнутри. Однако попытка написать фанфик по Гарри Поттеру, пусть даже очень хороший фанфик по Гарри Поттеру, для большинства людей обычно не выглядит замахом на высокий статус. Я бы ожидал, что люди в основном будут реагировать на фрагмент про золотого медалиста международной олимпиады по математике, хотя априорная вероятность оказаться золотым медалистом международной олимпиады по математике выше, чем априорная вероятность оказаться автором фанфика по Гарри Поттеру с наибольшим количеством отзывов.

Пат: Вы раньше когда-нибудь вообще пытались написать фанфик по Гарри Поттеру? Вы знаете какие-нибудь существующие награды, которые помогают продвигать лучшие фанфики, или сайты, которые рекомендуют фанфики? Вы представляете, что именно хочет значительная часть фэндома по Гарри Поттеру? Например, просто факт публикации на FanFiction.net уже оттолкнёт множество людей. Лучшие работы обычно выкладываются на ArchiveOfOurOwn.Org или на других, ещё более специализированных сайтах.

Элиезер: А, я понял. Вы всерьёз знакомы с существующим фэндомом по Гарри Поттеру. У вас в голове есть модель уже существующей иерархии в этом фэндоме. Поэтому, когда в незнакомец в маске говорит о том, что «Методы» станут самым популярным фанфиком по Гарри Поттеру, вы это воспринимаете как заявку на слишком завышенный статус, и с помощью «взгляда извне» обосновываете, почему это звучит крайне неправдоподобно. Такой трюк можно проделать с любым высказыванием.

Пат: Сомневаюсь, что с помощью взгляда извне или предсказания на основе референтного класса можно продемонстрировать неправдоподобность любого высказывания. По-моему, неправдоподобно выглядят утверждения о событиях, которые вряд ли произойдут. Да, я действительно знаком с сообществом любителей фанфиков по Гарри Поттеру. Как это может обесценить моё мнение? Я разбираюсь в этой области. Я представляю, сколько тысяч авторов — среди которых есть очень хорошие авторы — пишут фанфики по Гарри Поттеру. И только один из них может оказаться автором фанфика с максимальным количеством отзывов. И я спрашиваю снова, вы хотя бы пробовали понять, как реально устроено сообщество? Можете ли вы назвать хотя бы одну ежегодную награду, вручаемую в фэндоме?

Элиезер: Гм… Навскидку точно нет.

Пат: Просили ли вы какого-нибудь из авторов лучших существующих фанфиков по Гарри Поттеру оценить ваш предполагаемый сюжет или предполагаемые идеи истории? Например, Нонджона11 — автора «Чёрной комедии»12? Или Сару-128113, или Джей-Берна14, или любого другого автора, создавшего множество работ, признанных превосходными?

Элиезер: Честно признаюсь, что, хотя я читал этих авторов и мне нравятся их истории, мне ни разу не приходила в голову подобная мысль.

Пат: То есть, вы не консультировались ни с кем, кто разбирается в фэндоме Гарри Поттера лучше вас.

Элиезер: Не-а.

Пат: И раньше вы не писали фанфиков по Гарри Поттеру, даже очень коротких.

Элиезер: Вы правы.

Пат: Вы не предпринимали никаких усилий, чтобы познакомиться с существующим сообществом людей, которые читают или пишут фанфики по Гарри Поттеру, и узнать о том, от чего вообще зависит успех вашей работы.

Элиезер: Я читал некоторые известные фанфики по Гарри Поттеру, потому что мне нравилось их читать. Собственно, именно поэтому у меня в голове появилась идея написать свой фанфик.

Пат: Что бы вы подумали о человеке, который прочитал несколько известных книг по физике и захотел стать величайшим физиком в мире?

Незнакомец (в сторону): По-моему, обычно «взгляд извне» на самом деле касается иерархии статусов и если люди считают, что вы не уважаете существующую иерархию, они реагируют сильнее. И если вы заявляете, что преодолеете некую высокую планку, но людям кажется, что вы делаете это без уважения, то они склонны предрекать вам провал гораздо чаще, чем если бы вы сделали более уважительное по отношению к текущей иерархии заявление. Судя по всему, чокнутый «непризнанный гений» в физике в этом контексте воспринимается как подходящая аналогия не просто потому, что у него неверная «карта». Обычные заблуждения считаются чем-то трагикомическим, они не вызывают презрения. «Непризнанные гении» в физике отличаются тем, что они не уважают физиков — людей с высоким статусом в важной иерархии. Поэтому они кажутся подходящим референтным классом для понимания других очевидных примеров неуважительных претензий на высокий статус. У людей возникают примерно одинаковые чувства, несмотря на то, что эти явления во многом отличаются.

Элиезер: Чтобы стать великим физиком, нужно открыть настоящие законы физики, которые уже существуют в мире, но вам неизвестны. А этого невозможно достичь, не работая вместе с другими физиками — вы должны найти экстраординарно уникальный ключ к экстраординарно уникальному замку. Однако очень много возможных книг могут превзойти все уже существующие фанфики по Гарри Поттеру, и, чтобы их написать, не нужно строить ускоритель.

Незнакомец: Элиезер, насколько я понял, когда вы пытаетесь оценить сложность задачи «стать величайшим физиком», вы оцениваете соответствующую задачу с точки зрения познания. Кажется, вы не обращаете внимание на вопросы, связанные со славой.

Пат: Элиезер, по-моему, вы умышленно игнорируете основную мысль: что именно неправильно в попытке прочитать несколько книг по физике и захотеть стать величайшим физиком в мире. Неужели вы не видите, что это ошибка того же рода, что и ваши воздушные замки о фанфике по Гарри Поттеру? Да, конечно, стремящийся стать физиком ошибается гораздо внушительнее. Вы не понимаете, что критик скажет вам то же самое? Да, стать величайшим физиком в мире намного сложнее. Однако вы пытаетесь решить менее сложную задачу в свободное время, потому что считаете, что она простая.

Элиезер: В случае успешного развития событий, которое описал незнакомец в маске, на последние главы я потрачу гораздо больше усилий, потому что их полезность будет уже доказана.

Незнакомец: Кстати, Пат, а вы знаете, что Элиезер не читал четвёртую, пятую и шестую книги Роулинг о Гарри Поттере? И лишь ограничился просмотром фильмов? И даже когда он начал писать свой фанфик, он не потрудился их прочитать.

Пат (издаёт бессвязные звуки).

Элиезер: Ну… я прочитал первые три книги, когда они вышли, а потом попытался прочитать четвёртую. Проблема в том, что к тому времени я уже прочитал много фанфиков и привык, что вселенная Гарри Поттера — это место для «взрослых» историй. Поэтому, когда я начал читать «Гарри Поттер и кубок огня», мне уже сложно было его воспринимать, мой мозг привык к другому. Но я прочитал достаточно фанфиков по этой вселенной, поэтому я довольно неплохо её знаю. Я могу сказать, как зовут младшую сестру Флёр Делакур. Вообще-то я прочитал целый роман про Габриель Делакур. Я всего лишь не прочитал все исходные книги.

Незнакомец: А в случае необходимости узнать какие-то важные факты из канона Элиезер может заглянуть в Harry Potter Wikia. Поэтому, как вы понимаете, у него есть все знания, которые ему, по его мнению, могут понадобиться.

Пат (издаёт ещё больше бессвязных звуков).

Элиезер: …Зачем вы рассказываете всё это Пату?

Незнакомец: Потому что, с точки зрения Пата, это чертовски важный факт, указывающий на ваш будущий провал. А для меня это иллюстрация очень важного жизненного урока. Можно прочитать ряд работ из некоторой области и тем самым продемонстрировать уважение к людям, которые их написали или считают их важными. А можно собрать ключевую информацию в этой области, необходимую для собственной работы. Без последнего успех немыслим. Первое же важно лишь до тех пор, пока для вас важны публичные отношения. Однако кажется, что люди, у которых нет слепого пятна в отношении статусов, с трудом видят эту разницу.

Пат: Да, я действительно испытал чувство негодования. Когда вы сказали, что Элиезер не прочитал все книги канона и что он считает, что для работы ему хватит вики, я воспринял это как явное неуважение к Дж.К.Роулинг и авторам лучших фанфиков по Гарри Поттеру на данный момент.

Элиезер: Что ж, я попробую немного компенсировать ущерб, нанесённый публичным отношениям. Если бы я считал, что смогу писать книги для детей, которые станут настолько же популярны, как и книги Роулинг, я бы занялся именно этим. Роулинг стала миллиардером, а ещё она научила мою младшую сестру наслаждаться чтением. Люди, обесценивающие умение «писать детские книжки» наверняка никогда не пытались написать что-нибудь сами, и уж тем более не писали детские книжки. Писать хорошие книги для детей сложно. Именно поэтому «Методы» будут нацелены на взрослых. Хотя ваша модель меня, судя по всему, утверждает обратное, но я хорошо представляю и собственные возможности, и собственные ограничения. И я понимаю, что сейчас я недостаточно хорош как автор, чтобы писать книги для детей.

Пат: Я могу вообразить ситуацию, в которой я решу, что у некоего человека есть прекрасные шансы написать лучший фанфик по Гарри Поттеру в мире, пусть даже он прочитал лишь первые три книги канона. Например, если это попытается сделать Нил Гейман. (Впрочем, я чертовски уверен, что Нил Гейман наверняка прочитал бы все книги канона.) Вы считаете, что можете сравниться с Нилом Гейманом?

Элиезер: Вряд ли я когда-нибудь смогу потратить столько времени на совершенствование писательского мастерства, чтобы сравняться с Нилом Гейманом.

Пат: Я читал ваш «Тройной контакт». По-моему, это ваше лучшее произведение. Я знаю, что о нём положительно отозвался Питер Уоттс, обладатель премии «Хьюго». Но, с моей точки зрения, «Тройной контакт» всё же не дотягивает до, скажем, фанфика «Always and Always Part 1: Backwards With Purpose». Так какие же писательские достижения позволяют вам думать, что с десятипроцентной вероятностью ваш проект станет лучшим фанфиком по Гарри Поттеру по числу отзывов?

Элиезер: То, чем вы сейчас занимаетесь, я обычно называю «предъяви свою лицензию героя». Грубо говоря, я обозначил свои намерения попытаться взять высоту, которая, с вашей точки зрения, превосходит моё текущее социальное положение, а вы хотите, чтобы я доказал, что у меня уже хватает на это действие статуса.

Пат: Вы переходите на личности вместо ответа на мой вопрос. Я не понимаю, каким образом при тех знаниях и тех свидетельствах, которые у вас уже есть, вы позволяете себе назначить в этой ситуации вероятность в 10%. Впрочем, давайте убедимся, что мы разговариваем об одном и том же. Вы предполагаете, что эти «10%» реальная хорошо откалиброванная вероятность?

Элиезер: Да. Когда я задумываюсь о шансах, я считаю, что я согласился бы на пари 20:1 — в смысле, если бы вы предложили мне 20 долларов против одного за то, что мой фанфик не получит успеха. И мне было бы неуютно заключать пари при ставке 4 доллара против одного. Возьмём примерно геометрическое среднее и получим шансы 9:1.

Пат: А вы считаете себя хорошо откалиброванным? То, чему вы присваиваете вероятность 9:1 должно происходить в 9 случаях из 10?

Элиезер: Да, думаю, я смог бы сформулировать 10 утверждений, которым я присваиваю вероятность 90%, и ошибиться в среднем примерно один раз. Я не проверяю собственную калибровку так часто, как некоторые из рационалистов, однако когда я последний раз проходил калибровочный тест CFAR на 10 вопросов и пытался указать доверительные интервалы в 90%, вне моих интервалов оказался ровно один правильный ответ. Сносная калибровка случается вовсе не так редко, как думают сторонники взгляда извне. Достаточно лишь кое-что выучить и немного попрактиковаться.

Незнакомец (в сторону): Элиезер-2010 не использует PredictionBook так же часто, как Гверн Бранвен15, не играет в игры на калибровку так же часто, как Анна Саламон и Карл Шульман. Он не присоединился к исследованию Филиппа Тетлока, посвящённому суперпредсказаниям. Однако я заключал пари при любой возможности — и до сих пор это делаю. Кроме того, я всегда стараюсь выразить свою неуверенность численно, если я её замечаю и понимаю, что в ближайшем будущем я узнаю правильный ответ.

Недавно я увидел на доске для заметок на холодильнике загадочный набор утверждений о паровом котле вместе с непонятными числами и диаграммами. На пять секунд меня это озадачило, а потом я предположил, что это записки Бриенны, касающиеся её прохождения игры «Myst». Поскольку я чувствовал собственную неуверенность, но мог довольно скоро выяснить правду, я потратил тридцать секунд на оценку вероятности, что эти записки действительно относятся к игре Бриенны. Сперва я назначил этому вероятность 90%. Это показалось мне очень уж сверхуверенным, поэтому я понизил её до 80%, то есть, до 4:1. Затем я подумал о том, какие другие компактные возможные объяснения я не учёл, и понизил шансы до 3:1. Позже я поговорил с Бриенной и выяснил, что записки действительно касались игры «Myst». После чего я потратил тридцать секунд на размышления о том, действительно ли прочие компактные возможные объяснения загадочных записей были настолько вероятны. Возможно, если я быстро придумал разумное объяснение, мне стоило меньше беспокоиться о возможных неучтённых вариантах.

Я потратил на эти размышления не так много времени. Это лишь один пример из моей жизни. Весь смысл таких историй в том, что их случается много, каждая новая немножко дополняет интуицию. Постепенно накапливается опыт. Размышлять об этом настолько долго, как я об этом сейчас пишу, обычно не слишком хорошая идея. (Если вы знакомы с нейронными сетями и дельта-правилом, то должны были догадаться, чего я пытаюсь добиться от своего мозга.) Мне немножко стыдно, что я не занимаюсь ставками более систематично, но учитывая мой ограниченный запас «ложек», вряд ли меня хватило на что-то большее, чем мои нынешние упражнения, которые пусть и случайны, но достаточно регулярны.

Сейчас, когда я редактирую этот текст, могу сказать, что недавно я присвоил шансы 5:1 против того, что два персонажа из «Карточного домика» займутся сексом друг с другом, но это случилось. Это всерьёз подтолкнуло меня делать поправки против сверхуверенности. (Ведь согласно дельта-правилу, это была большая ошибка.)

Пат: Но ведь исследования показывают, что даже если людей предупреждают о сверхуверенности, дают им прочесть исследования о сверхуверенности и немного попрактиковаться, то сверхуверенность уменьшается, но не исчезает полностью. Так?

Элиезер: Если мы усредняем по всем испытуемым, да, сверхуверенность уменьшается, но не исчезает полностью. Это не означает, что сверхуверенность уменьшается, но не исчезает полностью для любого человека.

Пат: Что заставляет вас считать, что вы справляетесь со сверхуверенностью лучше среднего человека?

Незнакомец: …

Элиезер: То, что я практиковался гораздо больше этих испытуемых. И я не верю, что уровень усилий, прикладываемый средним испытуемым, даже испытуемым, которого предупредили о сверхуверенности и один раз дали попрактиковаться, — это предел человеческих способностей. И всерьёз меня заставляет верить в собственные успехи то, что я проверял. Вряд ли существует «референтный класс», полный сверхуверенными людьми с галлюцинациями о том, как они занимаются калибровкой и обнаруживают, что их интервалы доверия становятся хорошо откалиброванными.

Незнакомец: Я подкину некоторую информацию, которую я узнал из эссе Сары Константин «Существуют ли рациональные люди?». Станович и Уэст в исследовании 1997 года обнаружили, что 88% участников исследования продемонстрировали систематическую сверхуверенность. Это означает, что для оставшихся 12% они не смогли обнаружить сверхуверенность. И это не слишком удивительно: в своей работе 1998 года они указывают, что во многих тестах обнаруживалось, что около 10% студентов не проявляют то или иное искажение.

Элиезер: Верно. Поэтому вопрос в том, могу ли я при наличии некоторой практики добиться такого же отсутствия сверхуверенности, как лучшие 10% студентов. По-моему, это не какая-то супер-сложная задача. Да, конечно, усилия нужны. Мне приходится осознанно увеличивать доверительные интервалы. Думаю, лучшим студентам-испытуемым тоже приходилось это делать. Проблема не в способностях, нужно по-настоящему прикладывать усилия. Но когда я считаю, что увеличил интервалы достаточно, я останавливаюсь.

Факторы успеха и обмен убеждениями

Пат: То есть, вы в самом деле считаете, что когда вы назначаете шансы в 9:1 против того, что «Методы» достигнут суперуспеха, описанного Незнакомцем в маске, вы хорошо откалиброваны. Будете ли вы настаивать на том, что я должен расширить собственные доверительные интервалы о том, каких успехов могут достичь «Гарри Поттер и методы рационального мышления», чтобы избежать собственной сверхуверенности?

Элиезер: Нет. С моей точки зрения, это ничем не отличается от заявления, что вы не должны назначать успеху «Методов» вероятность в 0,1%, потому что шансы 1000:1 — это слишком мало. Так аргументировать нельзя, и я тщательно стараюсь этого не делать. Подобное мышление приводит к статьям вроде работы Орда, Хиллербранда и Сандберга «Как узнать вероятность невероятного»16, которую я считаю неверной. В общем, если существует 500 тысяч фанфиков и лишь один из них может набрать больше всего отзывов, нельзя случайно взять один из них и заявить, что шансы 500 000:1 — это слишком мало.

Пат: Рад, что вы с этим согласны. Конечно, я не дурак, я понимаю, что ваши книги лучше средних. 90% фанфиков по Гарри Поттеру — это полная хрень (в соответствии с законом Старджона), а 90% оставшихся 10% не хватает вдохновения. Таким образом остаётся примерно 5000 фанфиков, с которыми вам придётся соревноваться всерьёз. Я даже признаю, что если вы будете стараться всерьёз, вы окажетесь среди лучших 10% из них. Таким образом шансы, что вы станете лучшим автором фанфика по Гарри Поттеру на fanfiction.net - 1 из 500. Ещё нам надо учесть, что есть и другие сайты с фанфиками по Гарри Поттеру, где работ меньше, но эти работы в среднем лучше. Получается, что ваши шансы написать самый лучший фанфик примерно 1 к 1000, и, по-моему, это довольно щедрая оценка, с учётом того, насколько удивительно несерьёзно вы отнеслись к подготовке… Гм, с вами всё в порядке, Незнакомец в маске?

Незнакомец: Извините, пожалуйста. Я отвлёкся на мысль о мире, где я мог бы зайти на fanfiction.net и обнаружить там 1000 историй, сравнимых с «Гарри Поттером и методами рационального мышления». Я думаю об этом мире и стараюсь не заплакать. Не то, что я не в состоянии вообразить мир, где ваше скромно звучащее вычисление Ферми корректно… Просто мир, который вы описываете, кажется, очень отличается от нашего.

Элиезер: Пат, я понимаю, к чему вы клоните, и я действительно не знаю, что вам ответить, пока у меня не будет возможности показать вам книгу.

Пат: Вы понимаете, что я хочу до вас донести? На вас вообще мои слова действуют? Да, моя оценка довольно приблизительная, но мне кажется, что мой подход к вычислению Ферми вполне разумен. Если вы не согласны с выводом, мне хотелось бы узнать, какие дополнительные факторы приводят к тому, что ваше вычисление Ферми даёт результат в 10%.

Незнакомец: Вы недооцениваете, насколько по-разному вы думаете. Когда Элиезер говорил о своей оценке в 10%, ни один из перечисленных вами факторов ему даже не пришёл в голову.

Элиезер: Вынужден признать, что это правда.

Пат: И какие же, по-вашему, самые важные факторы, влияющие на то, преуспеете вы или нет?

Элиезер: Гм. Хороший вопрос. Я бы назвал… удастся ли мне сохранять мой писательский энтузиазм, смогу ли я писать достаточно быстро, получится ли у меня настолько хорошая история, какую я сейчас представляю, получится ли у меня учиться на ходу и создавать что-то ещё лучшее. Плюс большое количество неуверенности на тему, как люди на самом деле будут реагировать на работу, которая сейчас в моей голове, когда я её напишу.

Пат: Хорошо, у нас есть пять ключевых факторов. Оценим вероятности для каждого из них. Предположим, мы оценим шансы на сохранение энтузиазма в 80%, и в 50% на то, что вы будете писать достаточно быстро, — хотя в прошлом у вас были с этим проблемы, на «Тройной контакт» у вас ушёл целый год, если я правильно помню. Оценим в 25% вероятность того, что вы сможете успешно записать эту невероятную историю, которую, судя по всему, вы представляете: по-моему, авторы практически всегда на этом спотыкаются, и я почти уверен, что и у вас будут с этим большие проблемы, но пусть будет одна четвёртая — хотелось бы «застилменить» ваши доводы. Пусть 50% — вероятность, что вы будете учиться достаточно быстро, чтобы ваш проект не пошёл ко дну из-за уже известных вам проблем. Теперь, даже не упоминая возможную реакцию читателей (вы действительно собираетесь продать когнитивную психологию и формальную эпистемологию фанатам Гарри Поттера?) и несмотря на то, что я был довольно щедр в своих оценках, перемножив все эти вероятности мы получаем оценку в 5%, что меньше полученных вами 10%…

Незнакомец: Неверно.

Пат: …Неверно? Что вы хотите сказать?

Незнакомец: Давайте рассмотрим факторы, которые могут повлиять на то, что ваше рассуждение верно. Сперва оценим вероятность, что произвольное предложение окажется истинным. Затем нужно рассмотреть вероятность, что некий аргумент, направленный в поддержку некоего вывода, не будет содержать грубейших логических ошибок. Потом вероятность, что некто, утверждающий, что аргумент «неверен», ошибается…

Пат: Элиезер, если вы не согласны с моими выводами, то что не так с моими вероятностями?

Элиезер: Ну. начнём с того, что смогу ли я писать быстро, зависит от того, смогу ли я сохранять свой энтузиазм. Реакция аудитории зависит от того, смогу ли я писать быстро. Смогу ли я чему-то научиться, зависит от того, смогу ли я сохранять мой энтузиазм. С точки зрения теории вероятностей перемножать эти числа бредово.

Пат: Хорошо, чему же будет равна вероятность, что вы сможете писать быстро, при условии, что у вас сохраняется энтузиазм…

Элиезер: Вы считаете, что если бы вы начали с этого вопроса, вы бы пришли к другим результатам? Уверен, что если бы вам пришло бы в голову построить вопрос как «вероятность при условии…», у вас получились бы точно такие же вероятности, потому что именно к этому привёл бы баланс ваших мыслительных сил — взять какое-нибудь небольшое число, которое звучит разумно или что-нибудь в этом духе. К тому же проблема условной вероятности далеко не единственная причина, по которой я считаю, что приём «оценим эти вероятности, а потом перемножим» лишь риторический трюк.

Пат: Риторический трюк?

Элиезер: Если подобрать для «вывода» нужные факторы, можно легко добиться, чтобы люди давали сколь угодно маленькие «ответы». Например, посмотрите статью ван Бовена и Эпли «Эффект подробностей при оценочных суждениях»17. Проблема в том, что люди… как бы это покороче объяснить… если людей просить оценить вероятность чего бы то ни было, их оценки будут стремиться к некоторым медианным значениям. Поэтому ими можно довольно сильно манипулировать, подбирая категории, для которых нужно «посчитать» вероятность. Например, если если спрашивать автомеханика о возможных причинах, почему машина может не завестись — причём опытного автомеханика, который каждый день наблюдает настоящую частоту поломок! — а затем просить оценить либо вероятность «отказ системы электрооборудования» в целом, либо отдельные вероятности для «умер аккумулятор», «проблемы с генератором» и «проблема с зажиганием», то вероятность для составляющих в сумме окажется гораздо больше, чем вероятность для целого, если не вдаваться в подробности.

Пат: Но возможно, когда я разбираю в подробностях, что может пойти не так, я просто компенсирую ошибку планирования и то, что люди обычно недостаточно пессимистичны…

Элиезер: Прежде всего, проблема в ваших рассуждениях в том, что описанный исход не обязан быть идеальной конъюнкцией упомянутых факторов. Чтобы достичь успеха, не всё в вашем перечне должно сработать одновременно. Вы упустили другие дизъюнктивные пути, ведущие к тому же исходу. В вашей вселенной никто не прикладывает дополнительных усилий и не ищет ошибки, когда что-то пошло не так! Я никогда не видел, чтобы люди назначали якобы маленькую конъюнктивную вероятность чему-то, что на самом деле требовало выполнения всех предпосылок. Именно поэтому я всегда тщательно стараюсь избегать приёма: «Я любезно разобью это утверждение на большую конъюнкцию и попрошу оценить вероятность каждого множителя».

По моему опыту, этот приём можно применять только с одной целью: заставить людей поверить, что они «назначают» вероятности, в то время как вы манипулируете подбором факторов, чтобы получить итоговый результат, который вам нравится. В честном разговоре использовать его не имеет смысла. Я много раз видел, как люди использовали этот приём. Иногда с его помощью поддерживали выводы, с которыми я был согласен, иногда — выводы, с которыми я был не согласен. Но я никогда не видел, чтобы этот приём помогал найти истину. Я считаю его применение плохой эпистемологией, которая распространена, потому что, пока люди не задумываются достаточно внимательно, он звучит разумно.

Пат: Я рассматривал те факторы, которые вы сами назвали самыми важными. С чем именно в моей оценке вы не согласны?

Незнакомец (в сторону): Кстати, ошибка многих этапов — это замечательный трюк. Можно попросить людей самих подумать о ключевых факторах и всё равно подтолкнуть их дать ответы, из которых будет следовать маленький итоговый ответ. Ведь чем дольше люди перечисляют факторы и назначают им вероятности, тем меньше будет итоговое произведение. Как только мы понимаем, что при увеличении числа перемножаемых вероятностей произведение становится всё меньше и меньше, нам, чтобы отличать правду от лжи, приходится вводить дополнительные компенсирующие меры.

В итоге вам придётся прийти к выводу, что если успех в каком-то реальном предприятии зависит от четырёх факторов (не говоря уже о десяти), то вы априори не сможете его достигнуть. Да, выписать множество возможных сценариев провала для того, чтобы заранее решить, как с ними справляться, может быть мудрой идеей (известной под названием Мерфиджитсу18). Однако когда вы начинаете присваивать «вероятность того, что Х пойдёт не так и это нельзя будет исправить, при условии, что всё предыдущее в списке идёт по плану или может быть успешно исправлено», то, если проект теоретически может достичь успеха — как, например, «Методы», — вам стоит взять вероятность близкую к единице19. В противном случае вы априори исключаете возможность собственного успеха, а попытка что-то «посчитать» — это притворство.

Честно говоря, сомневаюсь, что эту методологию вообще стоит чинить. Вряд ли нужно заморачиваться, пытаясь компенсировать вероятности в сторону увеличения. Просто не нужно заниматься подсчётами «конъюнктивного провала» на основе вероятностей успеха критичных факторов, когда у нас этих факторов очень много и вероятности получены очень приблизительно. Не думаю, что в таких условиях вы сможете что-нибудь оценить хорошо, даже если попытаетесь компенсировать упомянутую предсказуемую ошибку.

Элиезер: Да, я перечислил ключевые для меня факторы и я в самом деле сомневаюсь, что они сработают. Если бы я в них был уверен сильнее, я бы назначил вероятность больше, чем 10%. Однако эти факторы связаны дизъюнктивно в той же мере, что и конъюнктивно. Они не обязаны сработать вместе и сразу. Например, возможен такой сценарий: я буду писать «Методы» достаточно хорошо, что у них сложится достаточная аудитория, потом моя скорость написания значительно снизится, но «Методы» всё равно добьются большого успеха в итоге.

Пат: И как же вы скомбинируете эти факторы, чтобы оценить невероятный успех в 10%?

Элиезер: Никак. Я получил свою оценку следующим образом: я обнаружил, что у меня есть две границы — 20:1 и 4:1 — и я не готов их двигать, не беспокоясь об излишней сверхуверенности в ту или иную сторону. Примерно таким же образом я строил свои десять доверительных интервалов на тесте калибровки CFAR. Затем я взял логарифмическое среднее.

Пат: То есть вы даже не пытались оценить все эти факторы, а затем перемножить?

Элиезер: Нет.

Пат: Тогда откуда, чёрт возьми, вы взяли эти самые 10%? Ваше заявление, что вы получили два других таинственных числа — 20:1 и 4:1, — после чего взяли их геометрическое среднее, не отвечает на самый главный вопрос.

Незнакомец: Полагаю, лучше всего используемая методика описывается словами «взять числа с потолка». Важно практиковаться в калибровке своих чисел с потолка, когда вы потом узнаёте правильный ответ. Также важно понимать ограничения своих чисел с потолка и не пытаться сотворить невозможное, назначив кучу чисел с потолка сложным взаимосвязанным событиям.

Элиезер: Я бы сказал, что получил свою оценку… подумав о задаче на объектном уровне? Применив знания из области моей экспертизы? Я уже размышлял над этой задачей довольно долго, поэтому многие её важные аспекты уже были у меня в голове. Я получил из своей головы некоторое представление о вероятностях, а благодаря своей практике делать ставки я уже немного умею переводить собственное представление о неопределённостях в числа, и таким образом я получил 9:1. Я не очень понимаю, какую вы ещё хотите получить информацию. Если и есть способ получать настоящие, значительно лучшие суждения с помощью какой-то продвинутой техники, то я его не встречал в литературе и пока не практиковал. Если вы мне продемонстрируете, что в 9 случаях из 10 вы сможете назначать правильные 90-процентные доверительные интервалы, и ваши интервалы будут уже моих, и вы этого достигните с помощью какой-то продвинутой техники, я буду рад о ней услышать.

Пат: То есть, фактически, ваша вероятность в 10% происходит из недоступной интуиции.

Элиезер: В данном случае? Более-менее, да. Пока я не могу вам показать, что я планирую делать в «Методах», я мало что способен объяснить на тему, почему они могут преуспеть.

Пат: Если рассуждения у вас в голове корректны, почему их нельзя объяснить мне?

Элиезер: Потому что у меня есть недоступная вам информация. Я знаю, какую книгу я пытаюсь создать.

Пат: Элиезер, мне кажется, вы игнорируете довольно важную мысль. Вам стоит задуматься о том, что вы считаете, что у вас есть непередаваемые причины верить в успех вашего проекта «Методы рационального мышления». Разве неспособность убедить других людей в будущем успехе не схожа с ощущениями спятивших непризнанных гениев, изобретающих дурацкие физические теории? Они ведь тоже ссылаются на непередаваемую интуицию?

Элиезер: Однако ваш метод, который вы называете «предсказанием на основе референтного класса», слишком требователен, чтобы на самом деле определить, сможет кто-то написать фанфик по Гарри Поттеру с наибольшим количеством отзывов. Не важно, речь идёт обо мне или о ком-то ещё. Тот факт, что скромного критика не удаётся убедить, с точки зрения байесианства не позволяет отличить успешный в будущем проект от провального. Это не свидетельство.

Пат: Наоборот. Если бы Нонджон сказал мне, что он намерен написать фанфик по Гарри Поттеру, который получит больше всего отзывов, я посчитал бы это обоснованным утверждением. «Чёрная комедия» Нонджона признана одним из лучших фанфиков, Нонджон на хорошем счету у влиятельных обозревателей и раздающих рекомендации сообществ. Вероятно, он не был бы уверен, что он напишет фанфик, у которого точно будет больше всех отзывов, но он имеет полное право считать себя одним из наиболее вероятных претендентов на место автора такого фанфика.

Незнакомец: Любопытно, насколько вашу оценку вероятности успеха можно свести к одному числу, которое очень сильно коррелирует с тем, насколько человек уважаем внутри соответствующего сообщества.

Пат: Более того, даже если мой метод слишком требователен, это ещё не означает, что в моих рассуждениях какая-то ошибка. Человек, покупающий лотерейный билет, не сможет убедить меня, что у него есть веские причины верить в свой успех. Даже если это будет человек, который выиграет. Это всё равно не означает, что я был неправ, назначая низкую вероятность успеха людям, покупающим лотерейные билеты.

Для Нонджона вполне разумно купить лотерейный билет со ставкой 1:10. Нил Гейман может позволить себе 2 из 3. Шансы для вас, как я уже говорил, вероятно ближе к 1:1000, и они настолько высоки, лишь потому что вы уже продемонстрировали способность хорошо писать. Я даже не штрафую вас за то, что вы планируете внедрить ярко выраженных рациональных персонажей во вселенную Гарри Поттера, а это слишком уж непохоже на существующие лучшие фанфики. Возможно, на меня слишком влияет то, что мне понравилось то, что вы писали раньше. Однако я нахожу крайне подозрительным ваше утверждение, что вам достоверно известно, что ваш лотерейный билет лучше в сто раз, но вы не в состоянии объяснить, откуда вам это известно. Не бывает веских свидетельств, которые невозможно передать другому человеку.

Незнакомец: «Я пишу книгу по экономической теории, которая, как я полагаю, практически перевернёт всеобщие представления об экономике. Вероятно, не сразу, а в течение ближайших десяти лет. Сейчас вряд ли вы — или кто-либо другой — поверят в это. Но я сам не просто надеюсь, что так и будет, я довольно сильно в этом уверен». Так писал Джорджу Бернарду Шоу победитель в лотерее Джон Мейнард Кейнс о своей работе над «Общей теорией занятости, процента и денег».

Элиезер: Кстати, Пат, если я в самом деле преуспею в работе над «Методами», вы сами окажетесь в непередаваемом эпистемическом состоянии по отношению к кому-то, кто узнает обо мне позже лишь в связи с этой работой. Этот другой человек, возможно, предположит, что я не просто случайно выиграл в эту лотерею, но у него будет меньше свидетельств на этот счёт, чем у вас. Это довольно интересный и важный эпистемологический вопрос.

Пат: Я не согласен. Если у вас есть веские интроспективные свидетельства, расскажите мне о состоянии вашего разума. С моей точки зрения, не должно быть ситуаций, когда вы меняете свои взгляды на основании того, как это свидетельство «ощущается для вас», не так, как на основании того, как это свидетельство «ощущается для других людей». В этом случае вы и эти другие люди просто должны обновить свои взгляды ещё раз.

Незнакомец: Нет, в таком сценарии два человека действительно могут оказаться в непередаваемых эпистемических состояниях. Ведь существуют и другие искажения. Вы бы знали, что ситуация «Победа Элиезера» на самом деле была отмечена как отдельный исход заранее, но другой человек отнёсся бы к этому якобы отдельному исходу с учётом послезнания, и поэтому у него были бы веские причины не доверять своему послезнанию, и он не смог бы оказаться в том же состоянии разума, что и вы.

Вы правы, Пат: два агента, у которых совершенно нет когнитивных искажений и у которых нет поистине фундаментальных разногласий об априорных вероятностях, в такой ситуации никогда бы не оказались. Однако, насколько я могу судить, у людей такое случается довольно часто. В науке предсказания заранее ценятся вовсе не случайно: из-за искажения знания задним числом сложно в той же степени поверить в предсказание, о котором вы узнали уже после того, как оно сбылось.

Пат: Вы действительно предполагаете, что повсеместная распространённость когнитивных искажений позволяет вам сильнее верить в то, что ваши рассуждения корректны? Моя эпистемология в этих вопросах гораздо прямолинейнее вашей. Применим правило «веские свидетельства всегда можно передать» к описанному случаю. Гипотетический человек, наблюдавший за тем, как Элиезер Юдковский пишет «Цепочки» на LessWrong’е, слышит, как он присваивает существенную вероятность в успехе собственных «Методов», а затем видит, как этот успех наступает, должен просто понять, что на это скажет внешний наблюдатель. А он скажет вот что: вам просто повезло или не повезло — как и в случае покупателя лотерейного билета, который заранее заявил, что владеет паранормальными способностями, а потом ему посчастливилось выиграть.

Элиезер: Мне это сильно напоминает сложность, которую я однажды описывал для «метода воображаемого изменения взглядов»20. Способности людей к логическим выкладкам не идеальны, поэтому мы не можем быть уверены, что мы рассуждали об априорных вероятностях правильно. Я понимаю, почему сейчас с вашей точки зрения успех «Методов» — это всё равно что выигрыш в лотерею с шансами 1 к 1000. Но если это в самом деле случится, вы не скажете: «Ну надо же, случилось событие с шансами 1 к 1000». Вам придётся задуматься, не было ли ошибки в методе, который вы использовали для определения априорной вероятности. Для лотерейных билетов это неверно, потому что мы слишком хорошо представляем, как в этом случае устроена априорная вероятность. Ну и к тому же, в реальной жизни мы никогда не видели, чтобы кто-то из наших друзей выигрывал в лотерею.

Пат: Я согласен, что если «Методы» окажутся успешны, я пересмотрю свои взгляды, а не буду настаивать, что я был прав в своей оценке шансов. Поскольку я очень-очень уверен, что этого не случится, я счастлив уступить в этом вопросе. Аргументы против вашего успеха в написании фанфика по Гарри Поттеру мне кажутся достаточно сильными — как и любые другие аргументы с точки зрения взгляда извне.

Незнакомец: Но мы обсуждаем не это.

Пат: Неужели?

Незнакомец: С моей точки зрения, в этом-то и проблема. Если человеку кажется привлекательной эпистемология скромности, он тривиально может изобрести железобетонный аргумент против любого проекта, который включает в себя какое-то важное свершение, небывалое в прошлом. Исключается возможность любого проекта, пытающегося выйти за пределы неадекватности цивилизации.

Пат: Послушайте. Нельзя просто прийти на какое-то поле деятельности и с первой же попытки захватить там лидерство. Именно об этом и говорит эпистемология скромности. Предполагается, что вы неспособны преуспеть с такими шансами против вас, какие я описал. Возможно, при наличии миллиона претендентов, кто-то преуспеет, хотя скромность предсказывает его поражение. Но если мы выиграем спор 999 999 раз из миллиона, по-моему, это довольно неплохо. Если, конечно, Элиезер не заявит, что проект по написанию нового фанфика по Гарри Поттеру настолько важен, что шанс в 0,0001% всё равно стоит того…

Элиезер: Я никогда этого не скажу. Никогда. Если скажу, можете меня пристрелить.

Пат: Тогда почему вы не отвечаете на вполне ясные, вполне обыденные, вполне очевидные аргументы, по которым я думаю, что вы не добьётесь успеха? Нет, серьёзно, что происходит сейчас у вас в голове?

Элиезер: Ощущение беспомощности от неспособности передать свои мысли.

Незнакомец: Мрачная ирония.

Пат: Тогда, уж простите, мистер Элиезер Юдковский, но я думаю, что вы просто иррациональны. И вы даже не слишком стараетесь это скрыть.

Элиезер (вздыхает): Я могу понять, почему, с вашей точки зрения, это выглядит именно так. Какие-то из моих мыслительных приёмов, которые, с моей точки зрения, помогают мне делать хорошие предсказания и вырабатывать полезные привычки, я передавать умею. Но другие вызывают у меня ощущение беспомощности: я их знаю, но не способен о них рассказать. Этот разговор связан с той частью, про которую я знаю, но не знаю, как описать.

Пат: И почему я должен в это поверить?

Элиезер: Например, потому что идеи, про которые я разобрался, как их передать, я передал достаточно впечатляюще. Именно в этом заключалась тайная цель номер 7 написания Цепочек на LessWrong: я хотел дать хороший ключ ко всем техникам, которые я не в состоянии продемонстрировать. Вам я могу лишь сказать, что вы беспокоитесь о вещах, о которых, с моей точки зрения, даже не стоит думать. Весь ваш подход к задаче неверен. Речь не о том, что неверны ваши аргументы. Они просто относятся к неправильному вопросу.

Пат: И какой же вопрос будет правильным?

Элиезер: Именно это мне сложно объяснить. Могу сказать, что вам стоит отказаться от всех ваших мыслей по поводу соревнования с другими. Люди, которые были перед вами, в каком-то смысле «зонды»: сигналы эхолота, отражения которых дают вам какое-то представление о сложности задачи. Иногда вы можете проплыть мимо проблем, которые остановили других, и выйти в новую часть океана. И это не обязательно даже приведёт вас к успеху, моя мысль здесь в том, что человек обычно почти ничего не знает о том, что самое сложное в его задаче. Часто совершенно не имеет никакого смысла выяснять, кто именно ваши соперники — насколько они умны, мотивированы или насколько им хорошо платят. Ведь вы можете посмотреть на их работу и оценить её качество.

Пат: Представим человека, который предсказывает гиперинфляцию, заявляя, что мнение общепризнанных экономистов можно игнорировать, поскольку лишь идиоты могут думать, что если утроить количество денег в экономике, то инфляции не будет.

Элиезер: Я не представляю, что происходит в головах у таких людей. Однако я сомневаюсь, что проблему можно решить, посоветовав им быть скромнее. Сказать человеку заткнуться и уважать экспертов в общем случае неправильный способ аргументации, потому что он не различает общепринятую экономику (у которой относительно высокие академические стандарты) от общепринятой диетологии (у которой относительно низкие академические стандарты). Я не уверен, что в такой ситуации может надёжно помочь хоть что-нибудь, кроме как понять экономику самому. Если бы я столкнулся с таким человеком, мне следовало бы посоветовать ему почитать побольше блогов по экономике и попробовать внимательно следить за аргументами или, что ещё лучше, почитать учебник по экономике. Однако я сомневаюсь, что если люди будут сидеть тихо и тревожно задавать себе вопросы, не слишком ли они дерзко себя ведут, то это поможет решить описанную проблему. Если и решит, то мы получим другую проблему.

Пат: То есть, ваша эпистемология на мета-уровне для меня столь же недоступна, как и ваши оценки на объектном уровне.

Элиезер: Я могу понять ваш скепсис.

Пат: Почему-то я сомневаюсь, что вы пройдёте идеологический тест Тьюринга за мою точку зрения.

Незнакомец (улыбаясь): Ну, я-то точно справлюсь с вашим идеологическим тестом Тьюринга.

Элиезер: Пат, я понимаю, как вы получили ваши оценки. Я не сомневаюсь, что вы даёте советы, желая мне помочь. Однако при этом я воспринимаю ваши советы как проявление тревожности, которая никак не входит в перечень того, о чём мне нужно думать, чтобы создать хорошую книгу. Подобные размышления — бессмысленная трата сил. Если я преуспею, это точно произойдёт не благодаря таким мыслям. Чтобы сделать «Методы» такими, как я хочу, мне стоит думать не о том, насколько я хорош по сравнению с другими людьми. Поэтому я об этом и не думаю.

Пат: Мне кажется очень странным ваше замечание: «Если я преуспею, это точно произойдёт не благодаря таким мыслям». Оно полезно именно потому, что позволяет не тратить наши усилия на проекты, в которых у нас очень мало шансов преуспеть.

Незнакомец: Звучит очень разумно. Я могу на это ответить лишь посоветовать провести один день так, как я. Откажитесь от всех мыслей, которые не внесут никакого вклада в ваш успех, если он случится. Возможно, полученный опыт чему-нибудь вас научит.

Элиезер: Дело в том, Пат… Даже если я просто начну отвечать на ваши возражения и защищать себя от вашей разнообразной критики, это поспособствует развитию привычки, которую я считаю вредной. Вы непреклонно концентрируетесь на мне и моей психологии, и, если я ввяжусь в этот спор и начну защищаться, мне придётся сосредоточиться на себе, а не на моей книге. Из-за этого я потрачу гораздо меньше внимания на то, что должен сделать профессор Квиррелл на первом уроке Защиты. И что ещё хуже, мне придётся защищать собственные решения, а в этом случае мне будет сложнее изменить их в будущем.

Незнакомец: Подумайте, насколько сложнее Элиезеру будет отказаться от его другого проекта — «Искусства рациональности» — в случае его провала после множества подобных разговоров (реальных или внутренних): разговоров, в которых ему приходится защищать все причины, почему для него нормально считать, что он способен написать научно-популярный бестселлер в области рациональности. Именно поэтому важно не бояться попыток использовать неадекватность цивилизации. Важно, чтобы люди могли пробовать амбициозные проекты, не задумываясь, что они обязаны добиться успеха любой ценой или у них отберут лицензию героя.

Элиезер: Верно. И… работа мысли, связанная с беспокойством, что может подумать критик и как от него защититься или в чём ему уступить, отличается от работы мысли, которая нужна, чтобы проявить любопытство по какому-то поводу, попытаться узнать ответ и поставить эксперимент. Она отличается от того, как я думаю, когда работаю над задачей в реальном мире. Я должен думать просто о своей работе.

Пат: Если бы вы просто пытались ради забавы написать неплохой фанфик по Гарри Поттеру, я бы с вами согласился. Но вы говорите, что хотите создать самый лучший фанфик. Это же совершенно другая ситуация…

Элиезер: Нет! Я как раз пытаюсь вам объяснить, что в моей голове пытаться написать хороший фанфик и пытаться написать самый лучший фанфик — это одно и то же. Есть объектный уровень, и вы его оптимизируете. У вас есть оценка, насколько хорошо вы можете его оптимизировать. Вот и всё.

Социальные эвристики, а также важность, разрешимость и недооценённость проблемы

Пат: Мне в голову только что пришла забавная мысль. Вы ведь пытаетесь работать над теорией дружественного ИИ…

Элиезер: Предположу, здесь вы тоже не верите в мой успех.

Пат: Ну, конечно же, я не верю, что вы сможете спасти мир! (Смеётся.) Мы живём не в фантастической книге. Однако я в самом деле полагаю, что у вас есть основания надеяться внести важный вклад в теорию дружественного ИИ, которая окажется полезной какой-нибудь группировке, разрабатывающей сильный ИИ. Мне показалось интересным, что этого явно будет достичь проще, чем реализовать описанный Незнакомцем в маске сценарий или похожий на него, вероятность чего вы оценили в 10%.

Незнакомец (улыбаясь): Это совершенно-совершенно-совершенно не так.

Замечу, кстати, что там, откуда я пришёл, выражение «дружественный» ИИ вышло из моды. Мы стали говорить о «соответствии ИИ целям оператора», в основном потому что «соответствие ИИ» меньше отдаёт антропоморфизмом, чем «дружественность».

Элиезер: Соответствие? Хорошо, меня это устраивает. Однако, Пат, ваши слова оказались для меня неожиданностью. Это выходит за пределы моих представлений о вашем идеологическом тесте Тьюринга. Продолжайте, пожалуйста.

Пат: Хорошо. Что бы вы там не думали, мои слова не являются универсальным контраргументом, который я применяю к тому, что мне просто интуитивно не нравится. Они основаны на конкретных наблюдаемых доступных сторонним наблюдателям факторам, благодаря которым утверждения можно разделить на правдоподобные и неправдоподобные. Если мы отложим в сторону недоступную интуицию и просто посмотрим на доступные сторонним наблюдателям факторы, то станет совершенно очевидным, что существует огромное сообщество писателей, которые явно пытаются создавать фанфики по Гарри Поттеру. Это сообщество гораздо больше и гораздо активнее — по любой объективной доступной стороннему наблюдателю метрике, — чем сообщество, работающее над вопросами, связанными с «соответствием», «дружественностью» или чем-то там ещё. Оказаться лучшим автором в гораздо большем сообществе — намного неправдоподобнее, чем внести значительный вклад в соответствие ИИ, которым почти никто не занимается.

Элиезер: Когда я оцениваю относительную сложность задач «внести ключевой вклад в соответствие ИИ» и «довести „Методы“ до уровня, описанного Незнакомцем в маске», относительный размер существующих сообществ, который вы упомянули, мне представляется не важным. Если бы я заранее не ознакомился с фанфиками по Гарри Поттеру, у которых самая лучшая репутация, мне стоило бы учесть число соревнующихся авторов. Однако если я вижу собственными глазами уровень соревнования, то информация о размере сообщества уже не играет для меня никакой роли.

Пат: Но ведь наверняка размер сообщества должен заставить вас хотя бы задуматься, стоит ли доверять вашей интуиции в том, что вы сможете написать что-то значительно лучшее, чем результат работы столь многих авторов.

Незнакомец: Видите это мета-рассуждение? С моей точки зрения, когда люди начинают размышляют о мире таким образом, оно портит всё.

Элиезер: Если вы увидите девушку, жонглирующую несколькими шариками, вы её будете спрашивать, не стоит ли ей внезапно задуматься, входит ли она в референтный класс людей, которые лишь думают, что они хорошо ловят шарики? Это всё просто… бессмысленная трата сил.

Незнакомец: Социальная тревожность и чрезмерная педантичность.

Элиезер: Продуктивно работающий мозг сосредоточен на других вещах.

Пат: Вы утверждали, что взгляд извне — это универсальный контраргумент против любого утверждения о том, что некто с низким статусом может сделать что-то важное. Я объясняю вам, почему метод, опирающийся на наблюдаемые метрики, которые может проверить сторонний наблюдатель, утверждает, что, возможно, вы сможете внести важный вклад в соответствие ИИ, которым больше никто не занимается, но вы не напишете фанфик по Гарри Поттеру с самым большим числом отзывов, потому что с вами соревнуются тысячи авторов.

(Наблюдающая за дискутирующими Женщина неожиданно подходит к ним и вмешивается.)

Женщина: Ну, нет. Я больше не могу сдерживаться.

Пат: Э? Кто вы?

Женщина: Я истинный голос скромности и взгляда извне!

Я услышала ваш разговор и хочу сказать: внести важный вклад в проблему соответствия ИИ никак не может быть проще, чем написать популярный фанфик.

Элиезер: …Это, конечно, верно, но кто?..

Женщина: Меня зовут Мод Стивенс21.

Пат: Ну что ж, Мод, приятно познакомиться. Я всегда рад послушать о своих ошибках, даже если о них говорят люди, которые случайно сталкиваются со мной в парке и при этом подозрительно много обо мне знают. Так в чём же я ошибаюсь?

Мод: Вы все уверены, будто если человек не говорит о «соответствии» или «дружественности», то его работа не имеет к этим проблемам никакого отношения. Но это просто слова. Если мы учтём специалистов по машинной этике, которые работают над дилеммами вагонетки в реальном мире, экономистов, занимающихся вызванной технологиями безработицей, учёных в области информатики, изучающих вопросы азимовских агентов 22, и им подобных, окажется, что людей, которые пытаются внести вклад в эти вопросы, гораздо-гораздо больше.

Пат: Что? Элиезер, это правда?

Элиезер: Насколько я знаю, нет, разве что Мод работает в АНБ и хочет рассказать о каких-то очень интересных засекреченных исследованиях. Примеры, которые она перечислила, не связаны с техническими вопросами, которые я называл «дружественностью». Прогресс в упомянутых Мод вопросах не поможет определить предпочтения, которые с достаточной для нас уверенностью приведут к хорошим результатам, даже если речь идёт о системах умнее нас, способных рассматривать гораздо большее пространство стратегий, чем мы можем представить. Также он не поможет спроектировать системы, остающиеся стабильными при самомодификации, чтобы хорошие свойства исходного ИИ сохранялись, когда он становится умнее.

Мод: И вы утверждаете, что никто другой в мире не заметил этих проблем?

Элиезер: Нет, этого я не утверждаю. Вопросы вроде «как нам задать правильные цели для искусственного интеллекта, сравнимого с человеческим?» и «что случится, когда ИИ станет настолько умён, что сможет автоматизировать исследования ИИ?» задаются уже давно. Однако они просто повисают в воздухе и незаметно, чтобы они смещали приоритеты в исследованиях. Нельзя сказать, что сообщество людей, которые вообще думают про суперинтеллект, — мало. Конечно же, есть много направлений работы над надёжностью, прозрачностью и безопасностью в каких-то конкретных системах ИИ, которые случайно могут облегчить работу над соответствием ИИ умнее человека. Однако сообщество людей, которые на ежедневной основе работают и принимают решения о том, какими техническими вопросами заняться, именно чтобы решать вопрос сверхинтеллектуального ИИ, — очень мало.

Мод: Я на это скажу, что вы просто забегаете вперёд и пытаетесь решать задачу с конца, хотя область пока просто не готова сосредоточить усилия на этом. Возможно, идущая сейчас работа не направлена на вопросы сверхинтеллекта напрямую, но нам стоит ожидать, что существенного прогресса в соответствии ИИ достигнут последователи тех, кто сейчас работает над вопросами вроде применения дронов в боевых целях или вызванной ими безработицы.

Пат (осторожно): Я хочу сказать, что если Элиезер говорит правду — а я считаю его честным человеком, пусть он по моим стандартам часто и бывает слегка безумен, — то в 2010 году в этой области почти никого нет. Не так уж много людей работают над вопросами, связанными с ИИ умнее человека, и лишь группа Элиезера и Институт будущего человечества в Оксфорде всерьёз утверждают, что занимаются вопросами соответствия ИИ. Если Элиезер утверждает, что задача, как создать ИИ умнее человека, чтобы он нас всех не убил, не относится к полю деятельности нынешних специалистов по машинной этике, то я посчитаю это достаточно правдоподобным, хотя, конечно, мне хотелось бы узнать и другие точки зрения перед тем, как сделать окончательный вывод.

Мод: Но область, в которой соревнуется Элиезер, не ограничивается людьми, пишущими статьи по этике. Любой, занимающийся машинным обучением, да и вообще любой областью информатики может внести свой вклад в проблему соответствия ИИ.

Элиезер: Гм, я бы с радостью об этом услышал. Однако победа в данном случае это «задача решена»…

Пат: Подождите, Мод. Мне кажется, вы выходите за рамки того, что может объективно проверить сторонний наблюдатель. Это всё равно что сказать, мол, Элиезер должен соревноваться со Стивеном Кингом, потому что в принципе Стивену Кингу может взбрести в голову написать фанфик по Гарри Поттеру. Если все эти прочие люди, занимающиеся ИИ, не работают над конкретными задачами, над которыми работает Элиезер, в то время как множество авторов из фэндома по Гарри Поттеру напрямую соревнуются с Элиезером в написании фанфиков, то любой разумный сторонний наблюдатель должен согласиться, что контраргумент «взгляд извне» очень существенен во втором случае, а в первом случае он довольно слаб (если вообще верен).

Мод: Выходит, написать фанфик сложнее, чем спасти мир? Вы серьёзно? Такого не может быть.

Элиезер: Пат, я не согласен с аргументами Мод, но у неё преимущество: она рационализирует верный вывод. Соответствие ИИ — сложнее.

Пат: Я не ожидаю, что вы решите весь вопрос целиком. Но внести значительный вклад в довольно специализированной области знания, которой занимаются очень мало людей, должно быть проще, чем оказаться самым успешным человеком в области, в которой работают множество других.

Мод: Бред какой-то. Нельзя даже сравнивать писателей фанфиков с экспертами по машинному обучению и профессорами ведущих университетов, которые способны внести гораздо более впечатляющий вклад в исследования сильного ИИ.

Элиезер: Гм. Прорыв в исследованиях сильного ИИ может быть впечатляющим, но без соответствия ИИ…

Пат: А вы сами пробовали писать фанфики? Попробуйте. Вы поймёте, что это намного сложнее, чем вам кажется. Если вы хороши в математике, это ещё не означает, что вы можете вот так взять и…

(Незнакомец в маске поднимает руку и щёлкает пальцами. Время останавливается. Затем Незнакомец в маске выжидающе смотрит на Элиезера-2010.)

Элиезер: Гм. Незнакомец в маске… Вы представляете, что тут происходит?

Незнакомец: Да.

Элиезер: Благодарю за лаконичный и содержательный ответ. Не будете ли вы любезны объяснить, что тут происходит?

Незнакомец: Пат прекрасно знаком с иерархией статусов в сложившемся сообществе фэндома по Гарри Поттеру, в котором есть свои ритуалы, призы, политика и так далее. Однако Пату в силу литературной гипотезы не хватает интуиции на тему, насколько дерзко пытаться внести вклад в соответствие ИИ. Если мы Пата расспросим, скорее всего выяснится, что он полагает, что соответствие ИИ — это круто, но не астрономически важно, или что существует множество других экзистенциальных рисков такого же уровня. Если бы Пат, как вы, верил, что долгосрочные последствия для цивилизации в значительной степени зависят от решения проблемы соответствия, скорее всего, он инстинктивно считал бы эту задачу более престижной. Всё, что он знает о задаче на объектном уровне и о том, сколько людей ей занимаются, осталось бы неизменным, но ощущаемый статус задачи возрос бы.

Мод, в свою очередь, наоборот незнакома с политическими деталями и динамикой статусов среди поклонников Гарри Поттера, но очень чувствительно относится к важности задачи соответствия. Поэтому для Мод интуитивно очевидно, что для внесения вклада в работу над соответствием ИИ требуется гораздо более впечатляющая лицензия героя, чем для написания лучшего в мире фанфика по Гарри Поттеру. Пат этого не понимает.

Элиезер: Но ведь идеи в области соответствия ИИ нужно формализовать, и полученный формализм должен удовлетворять одновременно множеству разных требований, причём довольно точно. Это очень абстрактная задача с огромным количеством ограничений, потому что нужно вписать неформальную задачу в правильную формальную структуру. Да, при написании художественной литературы мне нужно жонглировать такими штуками как сюжет, персонажи, напряжение, юмор, но всё это остаётся когнитивной задачей с гораздо меньшим числом ограничений…

Незнакомец: Эти соображения вряд ли приходили в голову Пату или Мод.

Элиезер: Важно ли то, что я планирую тратить на исследования гораздо больше усилий, чем на написание художественных книг? Если «Методы» не получатся сразу, я быстро сдамся.

Незнакомец: Извините. Позволено вам делать что-нибудь высокостатусное или нет, не может зависеть от того, сколько, по вашим словам, вы на это планируете потратить сил. Ведь «каждый может так сказать». Без этого нельзя было бы осаживать претендентов. Что совершенно ужасно.

Элиезер: … … Есть ли какой-нибудь организующий принцип, делающий всё это осмысленным?

Незнакомец: Полагаю, самые важные понятия, которых вам не хватает: неадекватность цивилизации и поддержание статуса в иерархии.

Элиезер: Просветите меня.

Незнакомец: Вы понимаете, как Пат пришёл к оценкам, что должно быть тысяча фанфиков по Гарри Поттеру, сравнимых с «Методами»? И понимаете, почему я прослезился, вообразив такой мир? Представьте, что Мод совершает ту же самую ошибку. Представьте мир, в котором всякий необразованный невежа вроде вас не в состоянии достоверно оценить шансы на то, чтобы внести серьёзный вклад в соответствие ИИ, не говоря уже о том, чтобы чего-то достичь, потому что люди пытаются заниматься серьёзной технической работой с 1960-х. В этом мире люди довольно много думали над этой задачей, вкладывали всю свою смекалку, считали результат довольно важным и потому старались убедиться, что они работают над правильной задачей и используют надёжные технологии. Функциональная теория принятия решений изобретена в 1971 году, через два года после публикации Роберта Нозика «Задача Ньюкома и два принципа выбора». Все полагают, что у человеческих ценностей высокая колмогоровская сложность. Все понимают почему, если вы программируете максимизатор ожидаемой полезности с функцией полезности U, а на самом деле вы под ней подразумевали V, то у U-максимизатора появятся инструментальные стимулы убедить вас в том, что он V-максимизатор. Никто не предполагает, что можно «просто выдернуть вилку из розетки» у чего-то гораздо умнее его. И все прочие мировые крупномасштабные активности и институты изменились соответственным образом.

Мы можем назвать такой мир «адекватным миром» и противопоставить его ныне существующему. У «адекватного мира» есть свойство, которое можно назвать «неиспользуемость» — или, по крайней мере, «неиспользуемость Элиезером». Можно провести аналогию. Вы не можете предсказать изменение стоимости акций Майкрософт на 5% в ближайшие шесть месяцев. Возьмём это свойство акций из S&P 500 и отмасштабируем на всю планету: вы не можете превзойти экспертов, вы не можете найти познаваемую ошибку. В «адекватном мире» эксперты всё равно совершают ошибки, они не идеальны. Но на групповом уровне они умнее и точнее, чем Элиезер Юдковский, поэтому вы не в состоянии понять, что является эпистемической или моральной ошибкой, точно так же, как вы не в состоянии понять, отклонилась ли цена на акции Майкрософт от рыночной вверх или вниз.

Элиезер: Ладно… Я могу понять, почему рассуждения Мод были бы разумны в «адекватном мире». Но как она согласовывает аргументы, приводящие к её выводам, с миром, в котором мы живём и который значительно отличается от «адекватного»? Не похоже, что Мод в состоянии сказать: «Смотри, очевидно, проблема уже решается», потому что проблема, очевидно, не решается.

Незнакомец: Предположим, вы инстинктивно регулируете претензии на статус, стараясь добиться того, чтобы никто не получил статус выше, чем заслуживает.

Элиезер: Ладно…

Незнакомец: Это поощряет поведение, которые вы назвали «лицензия героя». Ваша текущая модель считает, что люди прочли слишком много книг, где протагонист родился под знаком сверхновой, у него есть легендарный меч, и они не понимают, что реальность устроена не так. Или, например, люди связывают достижения Эйнштейна с его нынешним престижем, не осознавая, что до 1905 года Эйнштейну никто не предсказывал величайшую судьбу.

Элиезер: Верно.

Незнакомец: Неверно. Ваша модель статуса героя заключается в том, что за героическую службу племени должна быть награда. Вы считаете, что, хотя, конечно же, нельзя разрешать людям претендовать на статус героя, если они пока ещё не послужили племени, но ни у кого не должно быть интуитивных возражений против того, что кто-то попробует племени послужить. Да, при условии, что желающий тщательно подчеркнёт, что пока он ещё ничего не добился и не считает, что ему уже положен высокий статус.

Элиезер: …и это неверно?

Незнакомец: Для «нечутких к статусу» людей, вроде вас, эта модель прекрасно работает. Но обычно эмоции в отношении статуса работают не так. Если коротко, для того, чтобы претендовать на какой-то высокий статус, вы уже должны получить какой-то статус. И у большинства людей это довольно базовое ощущение, нельзя сказать, что кто-то этому учит.

Элиезер: Но до 1905 года Эйнштейн работал в патентном бюро. У него даже не было учёной степени. В смысле, Эйнштейн был нетипичным работником патентного бюро, и, без сомнения, он это понимал, но сторонний наблюдатель, посмотрев на его резюме…

Незнакомец: Мы сейчас говорим не об эпистемических предсказаниях. Это просто факт о том, как работают человеческие эмоции, когда дело касается статусов. В глазах Пата наличие определённой вероятности написать самый популярный фанфик по Гарри Поттеру идёт вместе с определённым статусом. В глаза Мод наличие определённой вероятности внести важный вклад в проблему соответствия ИИ идёт вместе с определённым статусом. Поскольку ваш текущий статус в соответствующей иерархии они оценивают гораздо ниже, вы не имеете права заявлять о соответствующих оценках вероятностей или вести себя так, как будто считаете, что они верны. Вам нельзя просто попробовать и посмотреть, что получится, потому что это подразумевает, что какая-то вероятность успеха у вас есть. Сама претензия на то, что вы можете взять и попробовать, — уже претензия на статус и потому вас нужно осадить. Если этого не сделать, любой сможет претендовать на слишком высокий статус, и это будет ужасно.

Элиезер: Хорошо. Но как отсюда происходит переход к заблуждениям об адекватности цивилизации?

Незнакомец: Благодаря обратной цепи рационализаций, возможно, с примесью веры в справедливый мир и искажения «статус-кво». Если сказать экономисту, что можно каждый год удваивать свои вложения, продавая и покупая акции Майкрософт, пользуясь каким-то простым алгоритмом, он очень удивится. После этого экономист начнёт прикидывать, почему этот самый алгоритм не сработает, какой в нём есть незаметный риск — ему захочется сохранить идею о неиспользуемости рынка ценных бумаг, и это вполне естественно.

Пат пытается сохранить идею о том, что «рынок фанфиков» «неиспользуем Элиезером» — поскольку интуитивно ему кажется, что у вас слишком низкий статус, чтобы добиться успеха на этом рынке. Это приводит его к мысли, что существует ещё тысяча людей, которые пишут фанфики по Гарри Поттеру не хуже, чем вы. В результате Пат воображает мир, который адекватен в соответствующем отношении. В этом мире усилия авторов дёшево конвертируются в популярные истории, поэтому простой смертный не способен предсказать, что он напишет более популярную историю. А адекватность мира в прочих отношениях гарантирует, что любой посторонний, который на самом деле способен переиграть этот рынок — например, Нил Гейман, — уже богат, почитаем и так далее.

И это распространённое явление. Если некто верит, что у вас недостаточно высокий статус, чтобы делать предсказания лучше, чем Европейский Центральный Банк, он будет считать, что Европейский Центральный Банк справляется со своей работой довольно хорошо. Экономист не скажет, что Европейский Центральный Банк обязательно хорошо справится со своей работой: он порекомендует обратить внимание на стимулы, на то, что лица, принимающие решения, не получат гигантские бонусы за то, что экономика Европы улучшится. Однако невозможно, чтобы Элиезер был умнее Европейского Центрального Банка, ведь в этом случае нарушится иерархия статусов. Чтобы мировую иерархию статусов нельзя было оспорить, она должна быть правильной и мудрой, чтобы она была правильной и мудрой, она должна быть неиспользуемой. Интуитивное понимание неадекватности цивилизации очень сильно помогает рассеивать миражи вроде лицензии героя или эпистемологии скромности. Ведь когда эпистемология скромности своей цепью рационализаций объясняет, почему некто не в состоянии совершить что-то значимое, она приводит к необходимости заявить об адекватности цивилизации.

Элиезер: Но цивилизация в некоторых областях может быть неиспользуемой, даже если она не является адекватной. А вы, кажется, утверждаете, что Пат и Мод в основном заботит неиспользуемость.

Незнакомец: Можно воображать мир, где ни у кого нет стимулов заниматься проблемой соответствия ИИ и потому ей почти никто не занимается, более того, люди, которые знают о проблеме и хотели бы её решать, всё равно не занимаются ей, потому что конкуренция приводит к тому, что они лишаются каких-то ценных ресурсов. Можно воображать мир, который неиспользуем для вас, но используем для многих других. Однако заявление об адекватности цивилизации подтверждает текущую иерархию статусов гораздо сильнее и гораздо надёжнее. Идея адекватного мира более точно соответствует интуитивному представлению, что самые уважаемые и самые авторитетные люди мира заслуженно занимают своё место: они слишком хорошо организованы, слишком хорошо информированы, действуют в самых лучших намерениях и потому человек с улицы не в состоянии распознать творение Молоха вне зависимости от того, способен он с ним что-то сделать или нет. Кроме того, чтобы разговаривать о неиспользуемой неадекватности, нужно лучше знать микроэкономику, о том, как люди пытаются использовать рынки и какие проблемы они при этом пытаются решать. Заявить об адекватности цивилизации гораздо легче.

Неадекватности цивилизации — это основная причина, почему мир в целом нельзя назвать неиспользуемым в той же мере, как краткосрочный рынок ценных бумаг. А эпистемология скромности, грубо говоря, утверждает, что вы не можете прогнозировать неиспользуемость мира, потому что не можете быть уверены, что ориентируетесь в чём бы то ни было лучше экспертов.

Элиезер: Это… я, кажется, понял… Но я всё ещё не понимаю, как на самом деле думает Мод.

Незнакомец: Что ж, смотрите.

(Незнакомец в маске поднимает руку и снова щёлкает пальцами. Время запускается снова.)

Пат: …стать лучшим в литературе, потому что какие-то там фанфикописатели тупые.

Мод: Мой дорогой друг, пожалуйста, задумайтесь о ваших собственных словах. Если проблема соответствия ИИ действительно настолько важна, как уверяет Элиезер, оказался ли бы он одним из немногих людей, которые над ней работают?

Пат: Ну, всё выглядит так, будто так и есть.

Мод: Значит, проблема не может быть такой важной, как он уверяет. Иначе бы получилось, что какой-то странный одиночка обнаружил важную проблему, над которой работает лишь он и ещё парочка человек. А это означало бы, что все остальные, занимающиеся этой областью, идиоты. Кто такой Элиезер, чтобы игнорировать академический консенсус о том, что проблема соответствия ИИ не слишком интересна, чтобы над ней работать?

Пат: Я вполне могу представить некоторые препятствия, с которым, возможно, сталкивается типичный учёный, который хочет работать над соответствием ИИ. Например, быть может, на такую работу сложно получить грант.

Мод: Если на неё тяжело получить грант, значит, люди, распределяющие гранты, справедливо рассудили, что эта проблема не является приоритетной.

Пат: Вы хотите сказать, что в финансировании науки уже всё настолько хорошо, что все стоящие направления исследований уже кем-то разрабатываются?

Незнакомец: Кто конкретно из людей, распределяющих гранты, будет получать меньше в мире, где соответствие ИИ — важная проблема, но на неё не выделяются гранты? Если никто не лишается своих премий или ещё чего-нибудь ценного, то вот вам и ответ. Никакой загадки здесь нет.

Мод: Все свидетельства прекрасно согласуются с гипотезой, что гранты не выделяются, потому что грантодатели приняли продуманное и информированное решение: соответствие ИИ — не проблема вовсе.

Элиезер: Пат, спасибо вам за защиту, но, думаю, я здесь объясню лучше. Как я уже упоминал, вопросы вроде взрыва интеллекта и мысль о том, что при построении системы целеполагания ИИ это надо как-то учесть, придумал не я. Это довольно широко известные идеи, и люди любого уровня важности зачастую охотно соглашаются обсудить их с глазу на глаз. Хотя, конечно, есть разногласия относительно величины риска и относительно того, какие именно усилия будут более всего полезны, чтобы его снизить. Вы можете найти обсуждение этого вопроса в популярнейшем вузовском учебнике по ИИ: «Искусственный интеллект: современный подход»23. Поэтому нельзя утверждать, что среди исследователей есть консенсус о том, что эта проблема не важна.

Мод: Значит, грантодатели скорее всего тщательно оценили эту проблему и решили, что процветание человечества в долгосрочной перспективе лучше всего обеспечить путём прогресса в области ИИ каким-то ещё способом, а над соответствием работать, лишь когда мы достигнем некоего порога возможностей. По всей вероятности фонды ждут именно этого, чтобы запустить широкомасштабное исследование в области соответствия ИИ.

Элиезер: И как именно грантодатели могли прийти к подобному решению, не изучив задачу каким-нибудь заметным образом? Если всё сообщество, выделяющее гранты, способно прийти к консенсусу такого уровня, то где статьи и анализы, которыми они воспользовались, чтобы прийти к своему решению? Каковы аргументы сторон? Ваши слова звучат так, будто вы говорите о тайном заговоре компетентных грантодателей из сотни различных организаций, которые каким-то образом получили доступ к литературе о стратегических и технических исследованиях — или даже провели их сами, — о которых не слышал ни Ник Бостром, ни я. Благодаря этим исследованиям эти грантодатели установили, что задачи, которые решаются сейчас, которые кажутся важными и поддающимися исследованию, вряд ли к чему-то приведут, однако в будущем всё будет развиваться в каком-то конкретном известном направлении с известной скоростью, что подготовит почву для позднейшего скоординированного вмешательства.

Вы утверждаете, что хотя все исследователи привычно на кофе-брейках обсуждают самоулучшающийся ИИ и законы Азимова, существуют какие-то тайные веские причины того, почему изучать эту задачу — плохая идея? И все грантодатели пришли вместе к этой мысли, не оставив никакого следа о том, как именно они приняли это решение? Я просто… В том, как устроено распределение грантов и в функционировании научного сообщества существует столько прекрасно известных и абсолютно естественных ошибок, что соответствие ИИ вполне может оставаться критично важной проблемой, которую тем не менее учёные вовсе не рвутся решать. Однако вы постулируете огромный мировой заговор из никому не известных компетентных людей, которые руководствуются тайными анализами и обсуждениями. Как вы вообще до этого дошли?

Мод: Потому что иначе…

(Незнакомец снова щёлкает пальцами.)

Незнакомец: Ну что же, Элиезер-2010, ответьте на свой вопрос. Как Мод до этого дошла?

Элиезер: С точки зрения Мод… Чтобы всякие не слишком значимые или неавторитетные личности не решали важные задачи, не должно быть низко висящих плодов, про которые можно понять, что это низко висящий плод. Если существуют важные задачи, не затронутые системой грантов и прочих вознаграждений в научной среде, то кто-нибудь вроде меня может понять, что над ними стоит работать. Если есть какие-то проблемы, связанные с грантодателями или стимулами в научной среде, и кто-нибудь вроде меня может опознать эти проблемы, то становится вероятно, что кто-то не важный вроде меня узнает, что есть важная задача, над которой никто не работает. Декларируемое Мод состояние научной системы да и всего мира в целом — это цепочка рассуждений, вызванная необходимостью не допустить существование низко висящих плодов.

Сперва Мод пыталась утверждать, что задача о соответствии ИИ уже активно исследуется, как это и было бы в адекватном мире, который вы описали. Когда эту позицию стало сложно защищать, она переключилась на утверждение, что авторитетные аналитики изучили задачу и дружно решили, что она не важна. Когда и эту позицию стало сложно защищать, она переключилась на утверждение, что авторитетные аналитики изучили задачу и дружно изобрели какую-то лучшую стратегию, которая включает временную приостановку работ над этой задачей.

Незнакомец: И у этих очень разных гипотез есть общее свойство: они утверждают, что в особо ценных исследованиях существует что-то похожее на эффективный рынок: люди и коллективы с достаточно высоким статусом в научной системе не могут ошибиться так, чтобы это стало заметно.

Возможно, дальше бы Мод предположила, что лучшие исследователи уже определили, что это лёгкая задача. Или что есть тайный консенсус, что сильный ИИ не появится ещё несколько веков. По моему опыту воображение у людей вроде Мод иногда не знает границ. Всегда найдётся какой-то ещё вариант.

Элиезер: Но почему люди всё это придумывают? Никакой экономист не сказал бы, что тут можно обнаружить эффективный рынок.

Незнакомец: Мод скажет, конечно, система не идеальна. Однако продолжит, что мы тоже не идеальны. Все, кто распределяют гранты и научные должности, ничуть не хуже нас и делают всё, что в их силах, чтобы исправить те искажения в системе, которые в состоянии заметить.

Элиезер: Но ведь это явно противоречит и наблюдениям, и экономической теории стимулов.

Незнакомец: Да. Однако это принимается за истину. Ведь если эксперты могут ошибаться, значит мы тоже можем ошибаться, верно? Может быть, это у нас систематически неправильные стимулы и лишь краткосрочные вознаграждения.

Элиезер: Но ведь находиться внутри системы с плохо спроектированными стимулами, это не то же самое, что быть неспособным определить истину в… о, я понял.

Это было очень познавательно, Незнакомец в маске. Спасибо.

Незнакомец: Спасибо за что, Элиезер? Указать человеку на проблему — не слишком большая услуга, если он ничего не может с ней сделать. Вы не получите никакого преимущества по сравнению с основной временной линией.

Элиезер: Всё равно лучше хоть немного понимать, что именно происходит.

Незнакомец: Это тоже ловушка, и мы оба это понимаем. Если вам нужна сложная теория, чтобы подтвердить, что вы видите очевидное, то со временем эта теория будет лишь усложняться и отвлекать вас. Вам придётся всё старательней перепроверять себя. Гораздо лучше просто принимать вещи такими, какие они есть, и не придумывать для этого огромных аргументов. Если вам нужно проигнорировать чей-то совет, лучше не сочинять много сложных обоснований, почему вы имеете на это право: так вам будет легче впоследствии передумать и всё же принять этот совет, если случится так, что вам он станет нравиться больше.

Элиезер: Верно. Тогда зачем вы мне всё это рассказываете?

Незнакомец: А всё это время я обращался не к вам. Последний мой урок заключается в том, что я никогда не рассказываю такие штуки себе.

(Незнакомец трижды поворачивается вокруг своей оси. Его никогда тут не было.)

  • 1. В оригинале «AI alignment». — Прим.перев.
  • 2. В оригинале «Inadequate Equilibria», на русский язык не переводилась. — Прим.перев.
  • 3. Хотя автор пишет, что этот диалог лишь дополняет «Неадекватное равновесие», мне он показался достаточно самостоятельным произведением. Не обязательно читать «Неадекватное равновесие», чтобы понять, о чём здесь идёт речь. — Прим.перев.
  • 4. Фамилия героя говорящая, и образована от слова «modest» — скромный. — Прим.перев.
  • 5. Название совместного блога Юдковского и Робина Хансона, где Юдковский начал писать свои «Цепочки». Буквально переводится как «Преодолевая искажения». Из этого блога родился коллективный блог lesswrong.com. Overcoming bias до сих пор является блогом Робина Хансона. — Прим.перев.
  • 6. Одна из основательниц CFAR. С 2016 года — президент CFAR. — Прим.перев.
  • 7. Исполнительный директор MIRI в 2011-2015 годах, в настоящее время работает в Open Philanthropy Project. — Прим. перев.
  • 8. «Цепочки» — серию эссе в блоге lesswrong.com, которая потом превратилась в книгу «Рациональность: от ИИ до Зомби» — Юдковский писал как раз в 2007 - 2009 годах. — Прим. перев.
  • 9. В оригинале S. I. Hayakawa, «Language in Thought and Action». Первоначально публиковалась под названием «Language in Action» и переводилась на русский под названием «Язык в действии». — Прим.перев.
  • 10. Юдковский здесь несколько преувеличивает. Основная работа Коржибски — «Наука и здравомыслие»(в оригинале «Science and Sanity») написана в 1933 году. Даниел Канеман родился в 1934 году. — Прим. перев.
  • 11. В оригинале Nonjon — Прим.перев.
  • 12. В оригинале «A Black Comedy» — Прим. перев.
  • 13. В оригинале Sarah1281 — Прим.перев.
  • 14. В оригинале JBern — Прим.перев.
  • 15. Известный рационалист, ведёт сайт gwern.net. — Прим.перев.
  • 16. Ord, Hillerbrand and Sandberg, «Probing the Improbable». — Прим.перев.
  • 17. Van Boven and Epley, «The Unpacking Effect in Evaluative Judgments». — Прим.перев.
  • 18. В российском сообществе чаще используется название «премортемы». — Прим.перев.
  • 19. Судя по всему, у Юдковского здесь опечатка, и на самом деле, нужно взять вероятность близкую к нулю. — Прим.перев.
  • 20. Англ. «method of imaginary updates». — Прим.перев.
  • 21. В оригинале: «Maude Stevens». В этом имени тоже читается слово «modesty» — «скромность». — Прим. перев.
  • 22. Англ. «Asimovian agents». — Прим.перев.
  • 23. В оригинале «Artificial Intelligence: A Modern Approach». — Прим.перев.
Перевод: 
Alaric
Оцените качество перевода: 
Средняя оценка: 4.2 (20 votes)

Понимание на уровне шестерёнок

Valentine

Среди бумажных дорожных карт одни полезнее других. Иногда это связано с тем, насколько хорошо карта отражает территорию, однако стоит ещё учитывать и особенности самой карты, не связанные с территорией. Например, линии на карте могут быть жирными и смазанными и из-за этого нельзя разобрать, насколько далеко дорога проходит от реки. Или, скажем, непонятно, какой дороге соответствует какая подпись.

Я хочу показать, что у моделей тоже есть свойство, которое не связано с моделируемым. Оно связано с понятностью моделируемого, но лишь в той же степени, как смазанные линии на дорожной карте связаны с понятностью этой карты.

«Насколько детерминировано сопряжены переменные в модели?» – вот что это за свойство. Я знаю, что есть несколько критериев, которые показывают в какой мере модель обладает данным свойством. Вот далеко не полный список таких критериев:

  1. Окупается ли модель? Допустим, что она окупается. Если модель будет сфальсифицирована, то сколько (и в какой степени точных) убеждений можно получить из факта её опровержения?
  2. Насколько нелепо будет предположить, что модель точна, но какая-то из её переменных может принимать иное значение?
  3. Если модель точна, то можно ли вывести заново позабытое значение одной из переменных?

По-моему, множество разных тем, затронутых на LessWrong, связаны с этим крайне важным свойством. Кроме того, из него можно вывести множество идей и приёмов, но об этом позже.

Я начну с нескольких примеров, а в конце подведу итог и напишу, к чему же всё это.

Пример: шестерёнки в ящике

Взглянем на эти шестерёнки в ящике:

Картинка со скрытыми шестерёнками

(Рисунок любезно предоставлен моим коллегой, Дунканом Сабиеном.)

Пусть они представляют собой модель внутреннего устройства некой системы из шестерней. Тогда, после поворота левой шестерни против часовой стрелки правая шестерня может повернуться как по ходу движения часовой стрелки, так и против. Созданная таким образом модель не отвечает описанным выше трём критериям:

  • Модель не окупается. Допустим ты считал, что правая шестерёнка повернётся в одну сторону, но обнаружил, что она вращается в другую. Единственный вывод, который из этого можно сделать: если схема устройства проста (то есть, ничто не меняет направление вращения правой шестерни исключительно в тех случаях, когда левая шестерня вращается против часовой стрелки), то через направление вращения правой шестерёнки можно узнать, чётно ли количество всех шестерёнок в механизме или нет.
  • Правая шестерня легко может вращаться в обе стороны. Твои ожидания ничем не ограничены.
  • Ты уже сейчас не знаешь, в какую сторону вращается правая шестерня и не можешь выяснить это.

Представим, что Джо заглядывает внутрь ящика и говорит: «Правая шестерня вращается по часовой». Ты полагаешь, что Джо так скажет скорее в том случае, когда правая шестерёнка вращается по часовой, чем наоборот и это выглядит свидетельством в пользу гипотезы вращения по часовой стрелке. Чем больше людей, подобных Джо, заглядывают в ящик и говорят то же самое, тем больше накапливается свидетельств.

А теперь заглянем внутрь ящика:

Картинка с видимыми шестерёнками

…и теперь мы не понимаем, что же случилось с Джо.

Второй критерий здесь кажется мне особенно важным. Утверждение Джо и очевидная модель не могут быть верны одновременно. И не важно, сколько вообще людей согласны с утверждением Джо. Либо абсолютно все они неправы, либо твоя модель неверна. Логика неуязвима к социальному давлению. То есть, если набрать достаточно свидетельств о том, насколько хорошо твоя карта соответствует данной территории, и эти свидетельства говорят, что твоя карта в целом верна, то у тебя есть весомые эпистемические обоснования пренебречь мнением многих других людей. Собирая свидетельства о соответствии карты и территории ты скорее обнаружишь правду, чем если будешь собирать свидетельства о мнениях других людей.

Любопытно также обратить внимание на первый критерий. Предположим, что правая шестерня и в самом деле крутится по часовой стрелке в том случае, когда левая крутится против часовой. Что из этого следует? Например, из этого следует то, что твоя исходная модель (если я правильно её себе представляю) неверна. Однако она может быть неверна лишь ограниченным количеством способов. Возможно, вторая шестерня слева находится на вертикальной направляющей и, вместо того, чтобы вращаться, движется вверх. Для сравнения: фраза вроде «шестерни работают от волшебства» не даст тебе такой точности.

Объединив эти две идеи, мы переводим взгляд на Джо и замечаем, что можем сформулировать более точные утверждения, чем просто «Джо неправ». Мы знаем, что либо модель шестерней Джо неверна (например, он считает, что какая-то из шестерёнок перемещается по вертикали), либо его модель расплывчата и не так ограничена, как наша (например, он просто сосчитал шестерни и ошибся), либо Джо лжёт. Первые два варианта дают проверяемые предсказания: если его модель неверна, она неверна каким-то конкретным образом; если его модель расплывчата, то должно быть место, где она не удовлетворяет тем трём критериям внутренней связанности моделей. Если во время разговора с Джо мы сконцентрируемся на этих двух возможностях и выяснится, что обе они не соответствуют действительности, то станет ясно, что Джо просто несёт чушь (либо мы не придумали четвёртый вариант).

Благодаря этому примеру у нас в CFAR появился термин: «шестерёночная модель» или «модель на основе шестерёнок». Когда мы подмечаем взаимосвязь, мы говорим о «поиске шестерёнок». Я буду использовать этот термин и дальше.

Пример: арифметика

При сложении 25 и 18 столбиком нужно перенести 1 в разряд десятков. Обычно при этом пишут единицу над двойкой в числе 251.

Забавно то, что можно складывать числа столбиком, совершенно не понимая, что означает эта единица над двойкой и по какой причине её надо ставить.

На самом деле, это достаточно важная проблема при обучении математике. На практике есть расхождение между тем, чтобы (а) запомнить и отработать алгоритмы, которые позволяют быстро вычислять ответы, и (б) «по-настоящему понять» как именно работают эти алгоритмы.

Увы, в сфере образования люди часто устраивают философские дебаты о том, что значит «понимать», и меня это довольно сильно раздражает. Обычно эти споры выглядят так:

  • Некто А: Ученики говорят, что они переносят 1, потому что им так сказал учитель. Значит, они не понимают алгоритм сложения по-настоящему.
  • Некто Б: Что имеешь в виду под «по-настоящему понимают»? А что не так с тем, чтобы просто следовать инструкции, полученной от человека, который разбирается в предмете?
  • А: Но получается, это поведение обосновано социальными, а не математическим причинами.
  • Б: Математическое обоснование социально. Формы доказательств, используемые топологами, не будут приняты аналитиками. Что именно в математике будет считаться «доказательством» или «обоснованием» оговаривается социально.
  • А: Да ладно. Мы не можем просто договориться, что $e = 3$2, и объявить это истиной. Возможно, способ, которым мы обсуждаем математику является социальным конструктом, но говорим-то мы о чём-то реальном.
  • Б: Я не уверен, что это так. И даже если это на самом деле так, то как вы можете понять, что говорите о «чем-то реальном», а не об одном из социальных конструктов, которыми мы пользуемся, чтобы делиться своими мнениями?

И так далее.

(Хотел бы я, чтобы такие споры проходили в атмосфере совместного поиска истины. К сожалению, научное сообщество этого не ценит, поэтому вряд ли я этого дождусь.)

Мне кажется, А пытается указать на то, что у таких учеников модель алгоритма сложения столбиком не шестерёночная (и явно было бы лучше, если бы она стала таковой). Полагаю, что это проясняет и то, что что говорит А, и почему это так важно. Сверимся с нашими критериями:

  • Алгоритм сложения столбиком определённо окупается. Например, если отсчитать 25 жетонов, а потом ещё 18, а зачем подсчитать общее их число, то оно должно соответствовать тому, что предсказано алгоритмом. Если же оказалось, что это число не совпадает с количеством подсчитанных жетонов, то ученик может придти лишь к выводу, что алгоритм сложения столбиком не работает для жетонов и больше ничего. (Напротив, если бы я попал в такую ситуацию, то подумал бы, что я либо ошибся в алгоритме, либо ошибся в подсчёте, и был бы весьма уверен, что хотя бы одна из этих двух причин верна.)
  • Ученик, наверное, легко может представить себе мир, в котором алгоритм работает и без переноса 1. Это значит, что его модель — во всяком случае, в том виде, как мы её представляем — недостаточно ограничена. (Мой же мозг взрывается при попытке представить, как можно получить правильный ответ, если перенос единицы будет ошибкой.)
  • Мы ожидаем, что если ученики забудут указания учителя на случай, когда сумма превышает 9, то они самостоятельно не осознают необходимости перенести единицу в следующий разряд. (Если бы я и забыл о правиле переноса, то я был бы озадачен этим лишним десятком и придумал что-нибудь математически эквивалентное «переносу 1».)

Кажется, в этом контексте полезно табуировать слово «понимать».

Пример: моя мать

Моя мать очень любит изучать историю.

Прямо сейчас, это, вероятно, несвязанный ни с чем случайный факт в твоей голове. Если через месяц я спрошу тебя: «Нравится ли моей матери изучать историю?», ты можешь попытаться вспомнить ответ но с тем же успехом можешь решить, что мир устроен по-другому.

Но только не в моём случае. Если я забуду, как именно мама относится к изучению истории, то я смогу сделать разумное предположение, основанное на общей интуиции. Если я вдруг узнаю, что она не любит историю, это вряд ли окажется для меня крушением основ; в то же время я буду всерьёз озадачен, и задумаюсь, верна ли моя интуиция по поводу того, почему мама увлечена растениями и почему ей нравится общаться с семьёй. Я задумаюсь о том, что недостаточно хорошо понимаю, что за человек моя мать.

Как можно заметить, это применение критериев 1 и 3. При этом, моя модель моей матери не полностью шестерёночна. Я не могу сказать, что она чувствует прямо сейчас или какое из определений деления3 ей ближе. Но критерии показывают, что моя модель моей матери шестерёночнее твоей модели.

Этим примером я хочу подчеркнуть, что свойство «шестерёночности» у моделей небинарно. Это скорее характеристика в диапазоне от «набор случайных поверхностных бессвязных фактов» до «четкой формальной системы с выверенными логическими умозаключениями». (По-крайней мере, так я сейчас представляю себе этот диапазон.)

Кроме того, я считаю, что «узнать» человека как раз и означает повысить шестерёночность своей модели этого человека. «Узнать» человека — это не запомнить несколько разрозненных фактов о том, где он работает, сколько у него детей и чем он увлекается. «Узнать» человека — это значит уточнить степень своего искреннего удивления при получении нового факта, который не вписывается в уже имеющуюся модель твоего знакомого.

(А вот то, насколько твоя шестерёночная модель на самом деле подходит кому-то, кого ты знаешь — это уже вопрос эмпирического характера и относится он к соответствию карты и территории. Сейчас я бы хотел сосредоточиться только на свойствах карт.)

Я считаю, что такие едва шестерёночные модели позволяют нам предполагать, что именно ведущий популярной детской телепередачи4 думает про тех людей, которые издеваются над кошками в Хэллуоин, даже если он никогда не упоминал эту тему. Исходя из критерия №2, вероятно, ты будешь весьма потрясён, если получишь веские свидетельства в пользу того, что он оказался одним из таких людей, и скорее всего, таких свидетельств потребуется действительно много. Согласно критерию №1 тебе потребуется обновить большое количество своих убеждений об этом человеке. Предполагаю, что многие пережили что-то вроде «Да кто же он такой на самом деле?!», когда против Билла Косби выдвинули множество обвинений в совершении преступления5.

Пример: гироскопы

Наблюдая поведение гироскопа большинство людей невольно удивляются. Даже если они логически знают, что подвешенный гироскоп не упадёт, а станет вращаться, то они обычно всё-таки чувствуют, что это как-то странно. Даже те, кто интуитивно понял работу гироскопов, поначалу привыкали к этому и, скорее всего, считали гироскопы удивительными и контринтуитивными.

Как ни странно, для большинства людей допустимо представить себе мир, в котором физика работает точно так же, как в нашем, и только подвешенные за один конец гироскопы сначала падают, а после продолжают вращаться.

Если вы из таких людей, это значит что ваша физическая модель гироскопов не удовлетворяет второму критерию шестерёночности.

Истинная причина, по которой гироскопы ведут себя именно так, как они себя ведут, выводится из трёх законов Ньютона. Представим модель вращения, где а) исполняются три закона Ньютона, и б) подвешенный за один конец гироскоп не вращается, а падает — такая модель не будет согласованной. И если а) и б) кажутся тебе допустимыми одновременно, в твоей модели вращения не хватает шестерёнок.

Вот что привлекает меня в физике — вообще всё состоит из шестерёнок. По-моему, физика — это система шестерёнок, которая возникает при наблюдении за поведением любого физического объекта, вопрошании «Почему он ведёт себя так?» и поиске подходящих шестерёнок. Хотя этот уровнь абстрации и отличается от «шестерёнок людей», но мы ожидаем(по-крайней мере, теоретически), что по мере развития физики удастся соединить шестерёнки механики с шестерёнками, движущими романтическими отношениями.

Хочу сразу пояснить, я не утверждаю, что мир сделан из шестерёнок — такое утверждение содержит ошибку типизации. Как я считаю, суть в самом свойстве шестерёночности, которое позволяет строить более полезные модели — чем модель шестерёночнее, тем больше истины она позволяет узнать о мире.

Шестерёночность это ещё не всё

Подчеркну, что хотя я и считаю, что при прочих равных, чем больше шестерёнок, тем лучше, у моделей есть и другие важные свойства.

Самое очевидное из них — это точность. Большую часть этого эссе я его умышленно игнорировал. Именно для этого свойства крайне важна добродетель эмпиризма. Я же здесь эмпиризм игнорировал, но надеюсь, что не противоречил ему.

Другое важное свойство — генеративность. Приводит ли модель к получению полезного опыта (что бы не значило слово «полезный» в этом контексте)? К примеру, многие воззрения о Боге, божественном или других подобных вещах слишком абстрактны, чтобы окупаться. Однако некоторые люди всё же считают их полезными для переосмысления эмоционального восприятия красоты, смыслов и других людей. Я знаю несколько бывших атеистов, которые считают, что благодаря принятию христианства сделались гораздо более приятными людьми и наладили личные отношения. С эпистемической точки зрения тут есть чего опасаться — религиозный способ мышления проникает в утверждения о реальном устройстве мира. Но если ты эпистемически осторожен, то, возможно, стоит изучить, как использовать силу веры без эпистемологического ущерба.

Так же я считаю, что применение модели имеет смысл даже при нехватке в ней шестерёнок. На самом деле, во многих ситуациях у нас просто нет другого выбора — подавляющее большинство наших моделей не получается полностью связать с физикой. Например, я хотел бы подарить матери некую книгу, поскольку считаю, что она ей понравится; однако в рамках моей модели я могу придумать вариант, почему книга ей может оказаться не интересна. Да, моя модель матери ограничена довольно слабо, но я не считаю, что из-за этого (а) я не должен использовать эту модель или (б) не следует изучать, «почему» я могу оказаться прав и не прав. (Я отношусь к этому, как к предварительным вычислениям: каким бы не оказался мир, мои модели становятся более «чёткими», в них появляется больше шестерёнок. Просто так получается, что я заранее знаю, где они появятся.)

Я это упоминаю, потому что, кажется, зачастую в рационалистских кругах считают, что не стоит обсуждать модели, в которых не хватает шестерёнок. Я против такого подхода. Конечно, я считаю, что очень важно следить за шестерёночностью твоей модели, а не замечать нехватку шестерёнок так и просто просто эпистемически опасно. Очень полезно уметь отличать, хотя бы для себя, в какой модели есть шестерёнки, а в какой — нет. Однако я думаю, что, когда мы пытаемся выстроить правильную эпистемологию, есть и другие качества, не менее важные.

Я бы хотел, чтобы мы помнили о причине, по которой шестёрнки ценны на самом деле, а не зацикливались на шестерёночности самой по себе.

Что дальше

Я считаю, что концепция «шестерёнки в моделях» очень помогает продираться через непонятное. Она защищает наше понимание мира от социальной глупости и требует некоторой строгости мышления, которая, на мой взгляд, объединяет многие идеи в Цепочках.

Я собираюсь развивать эту концепцию и дальше вместе с другими идеями. В частности, я ещё не говорил откуда мы вообще знаем, что шестерёнки достойны внимания. Поэтому, хоть я и рассматриваю шестерёнки как мощное оружие в нашей войне против низкого уровня здравомыслия6, я полагаю, что важно изучить кузницу, в котором оно ковалось. Возможно, это не будет моим следующим постом, но, надеюсь, одним из ближайших.

  • 1. В России, насколько я понимаю, часто просто ставят точку. — Прим. перев.
  • 2. Основание натурального логарифма, математическая константа приблизительно равная 2,71828 — Прим. перев.
  • 3. В оригинале используется оборот «Partitive and Quotitive Division». Точный русский аналог пока найти не удалось. Речь о том, что операцию деления можно определять по разному. Например, когда мы делим 12 на 3, это может означать, что мы хотим делим 12 объектов на 3 части и хотим узнать, сколько объектов в каждой части. Или это может означать, что мы хотим узнать, сколько частей по 3 объекта получится из 12 объектов. — Прим.перев.
  • 4. В оригинале Mr. Rogers. — Прим.перев.
  • 5. Билл Косби — американский актёр, долгое время лидировавший в индексах общественного одобрения рекламной индустрии, был одним из самых узнаваемых и убедительных рекламных лиц. — Прим. перев.
  • 6. Не переведено дословно: «низкого уровня здравомыслия» - в оригинале «sanity drought», дословно «засуха здравомыслия», игра слов с названием эссе Юдковского «Raising the Sanity Waterline». — Прим. перев.
Перевод: 
gihh, Alaric, ildaar
Оцените качество перевода: 
Средняя оценка: 5 (Всего оценок: 1)

Литания против гуру

Элиезер Юдковский

Я твой герой!
Я твой мастер!
Изучай мои искусства
Ищи мой путь

Учись, как учился я
Ищи, как искал я

Завидуй мне!
Равняйся на меня!
Соперничай со мной!
Превзойди меня!

Оглянись,
Улыбнись,
И иди вперед!

Я никогда не был твоим городом,
Я был лишь одним из участков твоего пути.

Английский (исходный) вариант:

I am your hero!
I am your master!
Learn my arts,
Seek my way.

Learn as I learned,
Seek as I sought.

Envy me!
Aim at me!
Rival me!
Transcend me!

Look back,
Smile,
And then—
Eyes front!

I was never your city,
Just a stretch of your road.

Перевод: 
Remlin
Оцените качество перевода: 
Средняя оценка: 4.2 (6 votes)

Согласование ИИ

Четыре предпосылки

Нейт Соарес

Миссия MIRI – сделать так, чтобы создание искусственного интеллекта умнее человека привело к положительным последствиям. Почему эта миссия важна и почему мы считаем, что уже сегодня над этим можно работать?

В этом и в следующем эссе я попробую ответить на эти вопросы. Здесь я опишу четыре, по моему мнению, самые важные предпосылки, на основе которых появилась наша миссия. Я попытаюсь явно сформулировать утверждения, на которых базируется моё убеждение в том, что наша работа очень важна. Этому же вопросу посвящены, например, «Пять тезисов» Элиезера Юдковского и «Почему MIRI» Люка Мюльхаузера.

Утверждение 1: У людей есть очень универсальная способность решать задачи и достигать целей в самых разных областях

Мы называем эту способность «интеллектом» или «универсальным интеллектом». Это определение не является формальным: если бы мы точно знали, что такое интеллект, нам было бы гораздо легче запрограммировать его. Однако мы считаем, что такое явление как универсальный интеллект существует, пусть пока мы и не можем повторить его в коде.

Альтернативный взгляд: Универсального интеллекта не существует — вместо него у людей есть набор отдельных узкоспециализированных модулей. Компьютеры будут совершенствоваться в определённых узких задачах, таких как шахматы или вождение автомобиля, но никогда не станут универсальными, потому что универсальность недостижима. (Аргументы в пользу этой точки зрения приводил Робин Хансон.)

Короткий ответ: Поскольку люди осваивают области, совершенно чуждые их предкам, гипотеза «отдельных модулей» представляется мне неправдоподобной. Я не заявляю, что универсальность интеллекта – это какое-то нередуцируемое оккультное свойство. Предположительно, оно проистекает из набора когнитивных механизмов и их взаимодействий. Однако в целом именно это делает людей куда более когнитивно гибкими, чем, скажем, шимпанзе.

Почему это важно: Люди начали доминировать над другими видами не за счёт большей силы или ловкости, а за счёт большего интеллекта. Раз некая ключевая часть этого обобщённого интеллекта смогла эволюционировать за несколько миллионов лет, прошедших с нашего последнего общего предка с шимпанзе, возможно, некоторое небольшое количество озарений приведут к тому, что инженеры смогут создать мощный универсальный ИИ.

Дальнейшее чтение: Саламон и др. «Насколько интеллект понятен?»

Утверждение 2: ИИ может стать намного умнее людей

Большинство исследователей в MIRI не уверены, когда именно будет разработан превосходящий человека ИИ. Мы, однако, ожидаем, что: (а) искусственный интеллект, равный человеческому, однажды появится (если не случится каких-то катастроф, то вероятно, в течении века); и (б) компьютеры могут стать значительно умнее любого человека.

Альтернативный взгляд 1: Мозг делает что-то особенное, что нельзя воссоздать на компьютере.

Короткий ответ: Мозги – это физические системы, и если верны некоторые версии тезиса Чёрча-Тьюринга, то компьютеры могут в принципе воссоздать связь ввода и вывода любой физической системы. К тому же, заметим, что «интеллект» (в моём использовании термина) – это способность решения задач: даже если есть какая-то специальная человеческая черта (как квалиа), которую нельзя воссоздать на компьютере, это не важно, если только эта черта каким-то образом не мешает нам проектировать системы, решающие задачи.

Альтернативный взгляд 2: Алгоритмы, на которых основывается универсальный интеллект, настолько сложны и недоступны расшифровке, что люди не смогут запрограммировать что-то подобное ещё много веков.

Короткий ответ: Это звучит неправдоподобно с учётом эволюционных свидетельств. Род Homo отделился от других всего 2.8 миллиона лет назад, и прошедшего времени – всего мгновения с точки зрения естественного отбора – было достаточно, чтобы у людей появились когнитивные преимущества. Из этого можно заключить, что какие бы особенности ни отличали людей от менее интеллектуальных видов, вряд ли они очень сложные. Составные части универсального интеллекта должны присутствовать уже в шимпанзе.

На самом деле, относительно интеллектуальное поведение дельфинов позволяет предположить, что эти составные части скорее всего были уже у напоминающего мышь последнего общего предка людей и дельфинов. Можно заявить что и на искусственный интеллект равный мышиному уйдёт много веков, но это утверждение становится крайне сомнительным, если посмотреть на быстрый прогресс в области ИИ. В свете эволюционных наблюдений и последней пары десятилетий исследований ИИ, похоже, что интеллект – это что-то, что мы сможем понять и запрограммировать.

Альтернативный взгляд 3: Люди уже находятся на пределе физически возможного интеллекта или очень близки к нему. Так что, хоть мы и сможем создать равные человеку машины, создать суперинтеллект не получится.

Короткий ответ: Было бы удивительно, если бы человеческий разум оказался идеально приспособленным для рассуждений, — по тем же причинам, по которым удивительно было бы если бы самолёты не могли летать быстрее птиц. Простые физические рассуждения подтверждают эту интуицию: к примеру, с точки зрения физики представляется вполне возможным запуск симуляции человеческого мозга в тысячу раз быстрее его обычной скорости.

Кто-то может ожидать, что скорость здесь не важна, потому что мы упрёмся в ожидание новых данных от физических экспериментов. Мне это кажется маловероятным. Есть много интересных физических экспериментов, которые можно ускорить, и мне сложно поверить, что команда людей, запущенных на тысячекратной скорости не превзойдёт таких же обычных людей (в частности потому, что они смогут быстро разрабатывать новые инструменты и технологии для помощи себе).

К тому же я ожидаю, что возможно создать интеллект, который будет рассуждать не только быстрее, но и лучше, то есть, использующий вычислительные ресурсы эффективнее людей, даже при работе на той же скорости.

Почему это важно: Спроектированные людьми машины зачастую на голову превосходят биологических существ по параметрам, которые нас интересуют: автомобили не регенерируют и не размножаются, но уж точно перевозят людей дальше и быстрее, чем лошадь. Если мы сможем создать интеллектуальные системы, специально спроектированные для решения главных мировых проблем с помощью научных и технологических инноваций, то они смогут улучшать мир беспрецедентными темпами. Другими словами, ИИ важен.

Дальнейшее чтение: Чалмерс, «Сингулярность: Философский Анализ»

Утверждение 3: Если мы создадим высокоинтеллектуальные ИИ-системы, то их решения будут определять будущее

Благодаря интеллекту люди создают инструменты, планы и технологии, которые позволяют им изменять окружающую среду по своей воле (и заполнять её холодильниками, автомобилями и городами). Мы ожидаем, что ещё более умные системы будут ещё более способны изменять своё окружение, и, соответственно, что ИИ умнее человека будет управлять будущим больше, чем люди.

Альтернативный взгляд: ИИ никогда не сможет превзойти всё человечество в целом, каким бы умным он ни был. Наше окружение попросту слишком конкурентное. Ему придётся работать вместе с нами и интегрироваться в нашу экономику.

Короткий ответ: Я не сомневаюсь, что автономный ИИ, пытающийся выполнить простые задачи, поначалу будет мотивирован интегрироваться в нашу экономику: если создать ИИ для коллекционирования марок, то он, вероятно, начнёт накапливать деньги для их приобретения. Но что если у него появится сильное технологическое или стратегическое преимущество?

Утрированный пример: мы можем представить, как такой ИИ разрабатывает наномашины и использует их, чтобы они преобразовывали как можно больше материи в марки. Для него вовсе не обязательно будет иметь значение, откуда берётся эта материя – из «грязи», «денег» или «людей». Эгоистичные агенты имеют стимулы участвовать в экономике, только если их приобретения от торговли превышают то, что они получат, игнорируя экономику и просто забирая себе ресурсы самостоятельно.

Так что вопрос в том, возможно ли для ИИ получить решающее технологическое или стратегическое преимущество. Я считаю это наиболее сомнительным утверждением из тех, что я тут привожу. Однако, я всё равно ожидаю, что ответ определённо будет «да».

Исторически, конфликты между людьми часто заканчивались тем, что технологически превосходящая группа одерживала верх над своими соперниками. В настоящий момент есть некоторое число технологических и социальных инноваций, которые выглядят возможными, но ещё не разработаны. По сравнению с тем, чего могут достигнуть распределённые программные системы, люди медленно и неэффективно координируются. Поэтому можно предположить, что если мы создадим машину, которая двигает науку быстрее или эффективнее нас, то она быстро получит технологическое и/или стратегическое преимущество над человечеством для себя или для своих операторов. Это в особенности верно, если интеллектуальное превосходство позволяет ей социально манипулировать людьми, приобретать новое оборудование (легально или нет), производить лучшее оборудование, создавать копии себя, или улучшать свой собственный код. К добру или к худу, будущее, вероятно, будет в основном определяться принимающими решения сверхинтеллектуальными машинами.

Почему это важно: Потому что будущее важно. Если мы хотим, чтобы в будущем стало лучше (или хотя бы не хуже), то разумней уделить достаточно времени исследованию процессов, которые будут оказывать на будущее большое влияние.

Дальнейшее чтение: Армстронг, «Умнее Нас».

Утверждение 4: Высокоинтеллектуальный ИИ не будет полезен для человечества по умолчанию

Нам хотелось бы, чтобы ИИ умнее людей работали вместе с человечеством для создания лучшего будущего. Однако по умолчанию это не произойдёт. Чтобы создать ИИ, оказывающий благотворное влияние, нам нужно не просто создать более мощные и универсальные ИИ-системы, но и преодолеть некоторое количество технических препятствий.

Альтернативный взгляд: Люди, становясь умнее, так же становятся более миролюбивыми и терпимыми. Когда ИИ будет становится умнее, он, вероятно, сможет лучше понять наши ценности и лучше им соответствовать.

Короткий ответ: Достаточно умный ИИ сможет определить наши намерения и предпочтения. Однако это не подразумевает, что его действия будут согласованы с нашими предпочтениями.

Самомодифицирующийся ИИ мог бы изучить свой код и решить, продолжить ли преследовать поставленные ему цели или модифицировать их. Но как программа будет решать, какие модификации проводить?

ИИ – это физическая система, и где-то внутри себя он конструирует предсказания о том, как вселенная будет выглядеть, если он совершит то или иное действие. Какие-то другие части системы сравнивают эти последствия и исполняют действия, ведущие к тем вариантам, которые текущая система высоко оценивает. Если агент изначально запрограммирован исполнять планы, ведущие к вселенной, в которой, как он предсказывает, будет исцелён рак, то он будет модифицировать свои цели только если предскажет, что это приведёт к исцелению рака.

Независимо от их уровня интеллекта и независимо от ваших намерений, компьютеры делают в точности то, на что вы их запрограммировали. Если вы запрограммировали необычайно умную машину выполнять планы, которые, как она предсказывает, приведут к будущему, где рак исцелён, то может оказаться, что кратчайший найденный ею путь включает похищение людей для экспериментирования (а если вы попытаетесь её изменить, то она будет сопротивляться, потому что это замедлит процесс).

Нет никакой искры сочувствия, которая автоматически заставляет достаточно способные компьютеры уважать других разумных существ. Если вы хотите сочувствия, вам нужно его запрограммировать.

Почему это важно: Многие крупнейшие мировые проблемы было бы куда легче решить с помощью суперинтеллекта – но для получения этих преимуществ нужно большее, чем просто развитие способностей ИИ. Вы получите систему, которая делает то, что вам нужно, только если вы знаете, как запрограммировать её принимать ваши намерения во внимание и выполнять планы, которые им соответствуют.

Дальнейшее чтение: Бостром, «Воля сверхразума»

Довод о важности искусственного интеллекта опирается на эти четыре утверждения: универсальная способность к рассуждениям существует; если мы построим машины с такой способностью, они смогут быть намного умнее людей; если они будут намного умнее людей, у них будет огромное влияние; и это влияние по умолчанию не будет положительным.

В настоящее время на улучшение способностей ИИ тратятся миллиарды долларов и тысячи человеко-лет. Однако на безопасность ИИ направлено сравнительно мало усилий. Искусственный суперинтеллект может возникнуть в ближайшие десятилетия, и почти наверняка, если не случится какой-то катастрофы, возникнет в ближайший век или два. Суперинтеллектуальные системы окажут либо огромное положительное, либо огромное отрицательное влияние. И только от нас зависит, положительное это влияние будет или отрицательное.

Перевод: 
Максим Выменец, Alaric
Оцените качество перевода: 
Средняя оценка: 4.5 (4 votes)

Задача соответствия ракет и цели

Элиезер Юдковский

Нижеследующее — вымышленный диалог, основанный на Соответствие ИИ — Почему это сложно и с чего начать.

(Где-то в не-очень-то-близком из миров по соседству, где наука пошла совершенно другим путём…)

Альфонсо: Привет, Бет. Я заметил, что в последнее время многие предполагают, что «космосамолёты» будут использоваться для бомбёжки городов, или что в них вселятся злобные духи, населяющие небесные сферы, так что они пойдут против инженеров, их создавших.

Я довольно скептически отношусь к этим предположениям. На самом деле, я даже немного скептически и по поводу того, что в ближайшее столетие самолёты смогут достигнуть высоты стратосферных метеозондов. Но я понимаю, что твой институт хочет обратить внимание на потенциальные проблемы злобных или опасных космосамолётов, и вы думаете, что это важно уже сегодня.

Бет: Мы бы в Институте Математики Нацеленного Ракетостроения так не сказали… 1

Новостные статьи фокусируются на проблеме злобных небесных духов, мы же считаем, что настоящая проблема совершенно иная. Мы беспокоимся о сложной задаче, которую современное ракетостроение в основном игнорирует. Мы беспокоимся, что если направить ракету на Луну на небе и нажать кнопку запуска, то ракета может не прилететь к Луне.

Альфонсо: Я понимаю: очень важно спроектировать стабилизаторы для полёта при сильном ветре. Это важное направление исследований в области безопасности космосамолётов, кто-то должен это делать.

Но если бы вы работали над этим, я бы ожидал, что вы будете плотно сотрудничать с инженерами-самолётостроителями, чтобы протестировать свои проекты стабилизаторов и показать, что они действительно полезны.

Бет: Аэродинамика — важная часть проектирования любой безопасной ракеты, и мы очень рады, что ракетостроители работают над этим и всерьёз воспринимают безопасность. Однако, это не тот класс задач, на котором сосредоточены мы в MIRI.

Альфонсо: О чём в таком случае вы беспокоитесь? Вы боитесь, что космосамолёты могут быть разработаны злонамеренными людьми?

Бет: Нет, сейчас нас волнуют совсем другие сценарии провала. И в первую очередь то, что прямо сейчас вообще никто не может сказать, куда надо направить нос ракеты, чтобы она попала на Луну, или, на самом деле, вообще в любое заранее определённое место назначения. Мы считаем, что не важно — запустит ли ракету Google, правительство США, или Северная Корея. Это не влияет на вероятность успешной посадки на Луну, потому что сейчас никто не знает, как направить хоть какую-нибудь ракету хоть куда-нибудь.

Альфонсо: Не уверен, что понял.

Бет: Нас тревожит, что даже если прицелиться ракетой в Луну так, чтобы нос ракеты точно указывал на Луну на небе, ракета не полетит к Луне. Мы не знаем, как выглядит реалистичный путь от Земли к Луне, но мы подозреваем, что он будет не очень прямым и, возможно при этом направлять нос ракеты на Луну вовсе не нужно. Мы думаем, самое важное, что надо делать сейчас — это развивать наше понимание ракетных траекторий, пока у нас не будет лучшее, более глубокое понимание того, что мы начали называть «соответствием ракеты и цели»2. Есть много других задач в области безопасности, но задача соответствия ракеты и цели, вероятно, займёт больше всего времени, так что она самая срочная.

Альфонсо: Хммм, мне кажется, это слишком сильное заявление. У вас есть причина думать, что между нами и Луной есть невидимый барьер, в который может врезаться космосамолёт? Или вы говорите, что между нами и Луной может быть очень-очень ветрено, сильнее, чем тут на Земле? Может и стоит приготовиться к таким вариантам, но они не выглядят вероятными.

Бет: Мы вовсе не думаем, что невидимые барьеры особенно вероятны. И мы не думаем, что в небесных просторах будет очень ветрено — даже наоборот. Проблема в том, что мы пока не знаем, как построить хоть какую-нибудь траекторию, по которой реалистично добраться от Земли до Луны.

Альфонсо: Конечно, мы не можем построить конкретную траекторию: ветер и погода слишком непредсказуемы. Но твоё заявление всё ещё выглядит слишком сильным. Просто направь космосамолёт на Луну, взлети и пусть пилот поправляет курс по необходимости. С чего бы этому не работать? Ты можешь доказать, что космосамолёт, нацеленный на Луну, не доберётся до неё?

Бет: Мы не считаем, что можем что-то в таком роде доказать. Частично проблема в том, что реалистичные вычисления в этой области невероятно сложны, принимая во внимание трение об атмосферу и движение других небесных тел и всё такое. Мы пытались решать радикально упрощённые задачи, с предположениями в духе отсутствия атмосферы или ракет, двигающихся по идеально прямым линиям. Даже такие нереалистичные вычисления сильно свидетельствуют в пользу того, что в гораздо более сложном реальном мире просто нацеливание носа ракеты на Луну не приведёт к тому, что ракета в итоге прилетит на Луну. В смысле, то, что реальный мир сложнее, точно не делает добирание до Луны проще.

Альфонсо: Хорошо, давай я посмотрю на эту вашу работу над «пониманием»…

Гм. Судя по тому, что я читал про математику, которой вы пытаетесь заниматься, я бы сказал, что не понимаю, как она относится к Луне. Не должна ли помощь пилотам космосамолётов в точном нацеливании на Луну включать в себя наблюдение её через телескопы и изучение, как именно Луна выглядит, чтобы пилоты могли найти наилучший ландшафт для посадки?

Бет: Мы считаем, что нашего уровня понимания не хватает, чтобы заниматься детальной картой Луны прямо сейчас. Нам пока ещё рано выбирать кратер, на который стоит нацеливаться. Сейчас мы не можем нацелиться вообще ни на что. Это больше похоже на «понять, как математически рассуждать об искривлённых ракетных траекториях вместо ракет, двигающихся по прямым линиям». Даже пока что не о реалистично искривлённых траекториях, мы просто пытаемся хоть как-то пройти дальше прямых…

Альфонсо: Но самолёты на Земле движутся по кривым всё время, ведь искривлена сама Земля. Естественно ожидать, что будущие космосамолёты тоже будут способны двигаться по кривым. Если вы беспокоитесь, что они будут двигаться только по прямым и промахнутся мимо Луны, и вы хотите посоветовать ракетным инженерам строить ракеты, двигающиеся по кривым, то, кажется, время можно потратить и с большей пользой.

Бет: Ты пытаешься провести слишком прямую связь между математикой, над которой мы работаем прямо сейчас, и реальными возможными будущими проектами ракет. Дело вовсе не в том, что текущие идеи ракет почти правильные, и нам просто надо решить ещё одну-две задачи, чтобы они заработали. Концептуальный разрыв, отделяющий человечество от решения задачи нацеливания ракет гораздо-гораздо шире.

Прямо сейчас по поводу ракетных траекторий у всех полное замешательство. Мы пытаемся понять хотя бы чуть больше, чем ничего. Именно это сейчас первоочередная задача. Не надо бежать к ракетным инженерам и советовать им строить ракеты согласно тому, что написано в наших математических статьях. Пока мы даже не разобрались в совершенно базовых вопросах вроде того, почему Земля не падает на Солнце.

Альфонсо: Я не думаю, что Земля может столкнуться с Солнцем в обозримом будущем. Солнце стабильно вращается вокруг Земли уже довольно долго.

Бет: Я не говорю, что наша цель связана с риском падения Земли на Солнце. Я говорю, что раз современные знания человечество не позволяют отвечать на вопросы вроде «Почему Земля не падает на Солнце?», то мы не очень много знаем про небесную механику и не в состоянии направить ракету через небесные просторы так, чтобы она совершила мягкую посадку на Луну.

Например, чтобы лучше разобраться в небесной механике, мы сейчас работаем над задачей «повторяющихся позиций». Она о том, как выстрелить ядром из пушки так, чтобы ядро облетало Землю снова и снова, повторяя свои изначальные координаты, как повторяется плитка на полу…

Альфонсо: Я полистал вашу работу по этой теме. Должен сказать, мне не понятно, как стрельба из пушек связана с полётом на Луну. Откровенно говоря, это звучит подозрительно похоже на старые-добрые космические полёты, которые, как всем известно, не работают. Может, Жюль Верн думал, что можно путешествовать вокруг Земли, выстрелив капсулой из пушки, но современные исследования высоко летающих самолётов полностью отбросили такой вариант. То, что вы упоминаете стрельбу из пушек, наталкивает меня на мысль, что вы не поспеваете за инновациями в самолётостроении за последний век, и поэтому ваши проекты космосамолётов будут совершенно нереалистичными.

Бет: Мы знаем, что ракетами на самом деле не будут выстреливать из пушек. Правда-правда. Мы прекрасно осведомлены о причинах того, почему нельзя достичь скорости убегания, выстрелив чем-то из современной пушки. Я уже написала несколько цепочек статей, в которых я описала, почему космических полётов на основе стрельбе из пушек не получится.

Альфонсо: Но твоя текущая работа вся про то, как выстрелить чем-то из пушки так, чтобы оно облетало Землю снова и снова. Как это связано с любыми реалистичными советами, которые можно было бы дать пилоту космосамолёта о том, как долететь до Луны?

Бет: Опять же, ты пытаешься слишком напрямую связать математику, которой мы занимаемся сейчас и непосредственные советы будущим инженерам.

Мы думаем, что если мы сможем найти угол и изначальную скорость, такие, что выстрел из идеальной пушки на идеальной сферической Земле без атмосферы идеальным ядром с этой скоростью и углом приведёт к тому, что ядро займёт то, что мы называем «стабильной орбитой», и не упадёт, то… мы, может быть, поймём что-то по-настоящему фундаментальное и важное о небесной механике.

Или нет! Сложно знать заранее, какие вопросы важны, и какие исследования оправдаются. Всё, что можно сделать, это определить следующую выглядящую поддающейся трактовке задачу, которая вызывает у тебя замешательство, и попробовать найти решение и надеяться, что замешательство уменьшится.

Альфонсо: Ты говоришь о том, что ядро упадёт, как о проблеме, и о том, как ты хочешь избежать этого и заставить ядро летать вечно, правильно? Но настоящие космосамолёты изначально не будут направлены обратно на Землю, а большинство обычных самолётов вполне успешно не падают. Так что мне кажется, что этот сценарий «выстреливания из пушки и падения», которого вы пытаетесь избежать в этой вашей «задаче повторяющихся позиций» — просто не тот вид провала, о котором должны будут беспокоиться реальные проектировщики космосамолётов.

Бет: Мы не беспокоимся о реальных ракетах, выпускаемых из пушек и падающих. Мы не поэтому работаем над задачей повторяющихся позиций. В некотором роде ты чересчур оптимистичен по поводу того, какая часть теории соответствия ракет и цели уже построена! Мы не настолько близки к пониманию того, как нацеливать ракеты, чтобы проекты, о которых говорят сейчас, могли сработать, если бы мы только решили определённый набор оставшихся сложностей вроде «как не позволить ракете упасть». Тебе нужно перейти на мета-уровень, чтобы понять, прогресса какого вида мы добиваемся.

Мы работаем над задачей повторяющихся позиций потому, что мы думаем, что способность выстрелить ядром с определённой мгновенной скоростью так, чтобы оно заняло стабильную орбиту… это такая задача, которую кто-то, кто реально может запустить ракету по конкретной кривой, которая закончится мягкой посадкой на Луну, мог бы решить с лёгкостью. Так что нас тревожит то, что мы её не можем решить. Если мы разберёмся, как решить эту гораздо более простую чётко поставленную задачу повторяющихся позиций с воображаемыми ядрами на идеально-сферической Земле без атмосферы, которую гораздо проще анализировать, чем полёт на Луну, то, может быть, сделаем ещё один шаг к тому, чтобы когда-нибудь стать такими людьми, которые могут спланировать полёт на Луну.

Альфонсо: Если вы не считаете космические пушки в духе Жюля Верна перспективными, то я не понимаю, почему вы продолжаете говорить именно про пушки.

Бет: Потому что уже разработано много сложных математических методов для нацеливания пушек. Люди целились из пушек и проводили траектории ядер с шестнадцатого века. Преимущество этой существующей математики позволяет нам точно сказать, где упадёт идеальное ядро, выпущенное из идеальной пушки в каком-то направлении. Если мы попробуем говорить о ракетах с реалистично изменяющимся ускорением, то мы не сможем даже доказать, что ракета не будет летать вокруг Земли по идеальному квадрату, потому что реалистичные изменения ускорения и реалистичное трение о воздух делают любые точные высказывания невозможными. Нашего текущего понимания не хватает.

Альфонсо: Хорошо, другой вопрос в том же духе. Зачем MIRI финансирует работу по сложению кучи крохотных векторов? Я вообще не вижу, как это связано с ракетами, это выглядит как какая-то странная сторонняя задача из абстрактной математики.

Бет: Это связано с тем… в наших исследованиях мы несколько раз натыкались на задачу перехода от функции изменяющегося во времени ускорения к функции изменяющегося со временем положения. Эта задача становилась камнем преткновения несколько раз, так что мы начали попытки явно проанализировать её отдельно. Поскольку она про чистую математику, не двигающихся дискретно точек, мы назвали её задачей «логической недискретности». Эту задачу можно, например, изучать, пытаясь сложить кучу маленьких меняющихся векторов в один большой вектор. Потом мы рассуждаем о том, как сумма меняется всё медленнее и медленнее, приближаясь к пределу, если вектора становятся всё меньше и меньше, но складываем мы их всё больше и больше… По крайней мере, это один из подходов.

Альфонсо: Мне просто трудно представить, как люди в будущих ракетных космосамолётах смотрят в иллюминаторы и «О нет, у нас недостаточно маленьких векторов, чтобы скорректировать курс! Если бы только был способ сложить побольше ещё меньших векторов!». Я ожидаю, что будущие вычислительные машины будут делать это достаточно хорошо.

Бет: Ты опять слишком напрямую связываешь работу, которой мы заняты сейчас, и применения для будущих проектов ракет. Мы не думаем, будто спроектированная ракета почти что будет работать, но пилот не сможет сложить много крохотных векторов достаточно быстро, так что нам нужен алгоритм побыстрее, и тогда ракета попадёт на Луну. Это фундаментальная математическая работа, которая, как мы считаем, может помочь с основными концепциями, необходимыми для понимания небесных траекторий. Когда мы пытаемся провести траекторию вплоть до мягкой посадки на движущуюся Луну, мы чувствуем себя в замешательстве и тупике. Мы думаем, часть замешательства происходит из нашей неспособности перейти от функций ускорения к функциям положения, так что так мы и пытаемся его разрешить.

Альфонсо: Это подозрительно похоже на задачу откуда-то из философии математики. Не думаю, что можно продвинуться в проектировании космосамолётов, занимаясь философией. Область философии — застойная трясина. Некоторые философы всё ещё верят, что полёт на Луну невозможен. Они говорят, что небесный план фундаментально отделён от земного и потому недосягаем, что откровенно глупо. Проектирование космосамолётов — инженерная проблема, и продвигаются в ней инженеры.

Бет: Я согласна, что проектированием ракет занимаются инженеры, а не философы. Также я разделяю часть твоего огорчения по поводу философии в целом. Именно поэтому мы занимаемся хорошо определёнными математическими вопросами, которые скорее всего имеют настоящие ответы. Например, вопросом о том, как выстрелить пушечным ядром на идеально сферической планете без атмосферы так, чтобы оно вышло на стабильную орбиту.

Для этого часто нужен новый математический аппарат. К примеру, для задачи логической недискретности мы разработали методы для перехода от изменяющихся во времени ускорений к изменяющихся во времени положениям. Ты, если хочешь, можешь называть разработку нового математического аппарата «философией» — но тогда помни, что это совсем другой вид философии, чем «спекулятивные предположения о небесных и земных планах».

Альфонсо: Итак, с точки зрения общественного блага, что хорошего произойдёт, если вы решите эту задачу про логическую недискретность?

Бет: В общих чертах: мы больше не будем настолько в замешательстве, наши исследования не будут в тупике, а человечество может когда-нибудь и доберётся до Луны. Если попытаться сказать это менее размыто — хотя без знания конкретного решения это тяжело — мы сможем научиться говорить о всё более реалистичных ракетных траекториях, потому что у нас будет математика, которая не ломается сразу же, как только мы перестаём предполагать, что ракеты двигаются по прямым. Наша математика сможет рассуждать о точных кривых, вместо последовательностей аппроксимирующих отрезков.

Альфонсо: Точная кривая, которой следует ракета? Это приводит к главной проблеме, которую я вижу в вашем проекте. Я просто не верю, что будущие ракеты можно будет анализировать с абсолютной идеальной точностью и посылать её на Луну по заранее точно проведённой траектории без нужды поправлять её по дороге. Это выглядит для меня так, будто математики, не имеющие понятия о том, как работает реальный мир, хотят, чтобы всё было идеально вычисляемым. Посмотри, как Венера двигается по небу; она обычно движется в одном направлении, но иногда становится ретроградной и двигается в другую сторону. Иногда по дороге нам придётся просто рулить.

Бет: Когда я говорила про точные кривые, я подразумевала не совсем это… Смотри, я соглашусь, что даже если мы решим логическую недискретность, бесполезно будет пытаться заранее предсказать точные траектории со всеми ветрами, которые встретит ракета на своём пути. Отмечу, впрочем, что когда ракета поднимется достаточно высоко, всё может стать спокойнее и предсказуемее…

Альфонсо: Почему?

Бет: Давай пока не будем этого касаться, раз мы и так согласны, что положение ракеты сложно предсказать точно в атмосферной части её траектории, из-за ветров и подобного. И да, если нельзя точно предсказать раннюю траекторию, то нельзя точно предсказать и позднюю траекторию. Так что мы вовсе не предлагаем спроектировать ракету так идеально, чтобы можно было просто направить её с абсолютно точным углом и обойтись без пилота. Цель ракетной математики не в том, чтобы заранее предсказать точное положение ракеты в каждую микросекунду.

Альфонсо: Тогда зачем вы так одержимы чистой математикой, которая слишком проста, чтобы описать большой сложный реальный мир, где иногда идёт дождь?

Бет: Это правда, что настоящая ракета — не простое уравнение на доске. Это правда, что многие аспекты формы и внутреннего устройства настоящей ракеты не будут иметь компактного математического описания. Мы в MIRI пытаемся создать не математику для всех ракетостроителей на все времена, а математику, которую мы будем использовать прямо сейчас (как мы надеемся).

Чтобы с каждым шагом понимать нашу область всё лучше и лучше, нам нужно говорить об идеях, последствия которых можно определить достаточно точно. Это нужно, чтобы у людей был общий контекст для анализа сценариев. Нам нужно достаточно точности, чтобы кто-нибудь мог сказать: «В сценарии X, я думаю, Y приведёт к Z», а кто-то мог ответить: «Нет, в сценарии X, Y на самом деле приведёт к W», а первый мог ответить: «Чёрт, ты прав. Что ж, подумаем, как изменить Y, чтобы он всё же приводил к Z?».

Если же попытаться сделать что-то реалистично сложное на текущей стадии исследований, получится просто пустая болтовня. Когда у кого-то есть огромная схема с шестерёнками и рулями, которая якобы является проектом ракеты, а мы пытаемся объяснить, почему ракета, направленная на Луну, не обязательно прилетит на Луну, нам просто отвечают: «О, моя ракета обязательно прилетит». Идеи подобных изобретателей так размыты, и гибки, и недоопределены, что никто не может доказать им, что они неправы. Становится невозможно добавить хоть что-то к общему знанию.

Наша цель — постепенно создавать коллекции инструментов и идей, с помощью которых можно будет обсуждать траектории формально. Некоторые ключевые инструменты формализации и анализа интуитивно-правдоподобных траекторий ещё не выражены в чистой математике. Пока мы можем с этим жить. Мы всё ещё пытаемся найти способы математически чётко отобразить столько ключевых идей, сколько сможем. Не потому, что математика такая изящная и престижная, а для того, чтобы продвинуть споры о ракетах дальше, чем «А я говорю, да!» и «А я говорю, нет!».

Альфонсо: Мне всё ещё кажется, что вы пытаетесь спрятаться в тепле и комфорте строгих математических обоснований там, где они просто невозможны. Мы не можем совершенно строго математически доказать, что наши космосамолёты точно доберутся до Луны и ничего не пойдёт не так. Так что не стоит делать вид, что математика позволит нам получить абсолютную гарантию касательно космосамолётов.

Бет: Поверь мне, у меня точно не будет полной уверенности в результате вне зависимости от того, какую математику разработают в MIRI. Да, конечно, никакое физическое высказывание нельзя доказать математически, и нельзя назначить вероятность 1 любому эмпирическому утверждению.

Альфонсо: Но ты говоришь о доказательстве теорем — типа того, что ядро будет бесконечно летать кругами вокруг Земли.

Бет: Доказательство теоремы о траектории ракеты не даст нам достаточно комфортную уверенность в том, где она в итоге окажется. Но если доказать теорему, которая заявляет, что запущенная в идеальном вакууме ракета прилетит на Луну, то может быть, что если присоединить к ней какие-нибудь маневровые двигатели, то она долетит до Луны и в реальности. С вероятностью не в 100%, но выше нуля.

Суть нашей работы не в том, чтобы довести текущие идеи о нацеливании ракеты от 99% до 100% вероятности успеха. Она в том, чтобы превзойти текущий шанс успеха в приблизительно 0%.

Альфонсо: Ноль процентов?!

Бет: С точностью до правила Кромвеля, да, ноль процентов. Если направить нос ракеты на Луну и запустить её, она не прилетит на Луну.

Альфонсо: Если прямое нацеливание на Луну не работает, то вряд ли будущие инженеры космосамолётов будут на самом деле настолько глупы, что это не поймут. Они отследят текущее движение Луны по небу и прицелятся в ту часть неба, где Луна будет в день, когда космосамолёт пролетит расстояние до Луны. Меня тревожит, что вы так долго обсуждаете эту проблему и не рассмотрели такую очевидную идею.

Бет: Мы давно уже её рассмотрели и вполне уверены, что это не приведёт нас на Луну.

Альфонсо: Что если мы добавим стабилизаторы, чтобы ракета двигалась по более искривлённой траектории? Можешь доказать, что никакая версия ракеты из этого класса не долетит до Луны, сколько бы мы не старались?

Бет: Можешь набросать траекторию, по которой, с твоей точки зрения, полетит ракета?

Альфонсо: Она полетит от Земли к Луне.

Бет: А можно поподробнее?

Альфонсо: Нет, потому что в реальном мире всегда есть меняющаяся скорость ветра, а у нас нет бесконечного топлива, а космосамолёты не двигаются по идеально прямым линиям.

Бет: Можешь набросать траекторию, которой, как ты думаешь, будет следовать упрощённая версия твоей ракеты, чтобы мы могли понять, каких допущений требует твоя идея?

Альфонсо: Я просто не верю в общую методологию, которую ты предлагаешь для проектирования космосамолётов. Мы устанавливаем стабилизаторы, рулим, пока летим и держим курс на Луну. Если мы сбиваемся с курса, мы его поправляем.

Бет: Вообще-то мы несколько беспокоимся, что обычные стабилизаторы могут перестать работать, когда ракета поднялась слишком высоко. И получится, что оказавшись в небесных просторах, курс поправить уже нельзя. То есть, если курс уже хороший, то ты сможешь его поправить, но если всё пошло совсем не так, то нельзя просто развернуться как на самолёте.

Альфонсо: Почему нельзя?

Бет: Этот вопрос тоже можно обсудить. Однако для того, чтобы дискуссия продвигалась вперёд, всё равно нужно разбирать последовательность шагов, которые ракета пройдёт по пути к Луне. Даже если это упрощённая модель ракеты, которой можно рулить. Полёты ракет в небесах — это необычайно сложная область — даже если сравнивать с строительством ракет на Земле, что само по себе очень тяжело, потому что обычно они просто взрываются. Не то, что бы всё должно было быть изящным и математичным. Однако это очень сложная задача. И предложения вроде «давайте следовать за Луной в небе», если они не основываются на достаточно надёжных идеях, эквивалентны запуску ракеты в пустоту случайным образом.

Если кажется, что ты точно не уверен, сработает ли твоя идея, но она может сработать, и при этом твоя идея состоит из множества правдоподобно звучащих деталей, и, кажется, ни у кого не получается по-настоящему убедительно объяснить тебе, почему эта идея не сработает, то, на самом деле, шансы, что твоя идея приведёт ракету на Луну, примерно равны нулю.

Если кажется, что идея достаточно надёжно обоснована и полностью понятно, если кажется, что она определённо должна успешно довести ракету до Луны, когда всё пойдёт хорошо, тогда, может быть, в лучшем случае, мы можем быть субъективно уверены в успехе на 85%, или около того.

Альфонсо: То есть неуверенность автоматически означает провал? Если честно, звучит параноидально.

Бет: Идея, которую я стараюсь донести, это что-то вроде: «Если ты можешь строго рассуждать о том, почему ракета в принципе должна работать как надо, то это может на самом деле сработать, но если у тебя что-то меньшее, то это определённо не сработает в реальном мире».

Я не прошу тебя дать мне абсолютное математическое доказательство эмпирического успеха. Скорее набросок того, как упрощённая версия твоей ракеты может двигаться, достаточно определённый, чтобы ты не мог потом просто сказать «О, я имел ввиду вовсе не это» каждый раз, когда кто-то пытается понять, что она на самом деле делает, или указать на возможные причины провала.

Это не надуманное требование, отсекающее вообще любые идеи. Это нижняя планка, которую необходимо преодолеть, чтобы привнести что-то новое в эту область. И если проект ракеты не соответствует даже этой концептуальной планке, то шансы такой ракеты на мягкую посадку на Луну примерно равны нулю.

  • 1. В оригинале «Mathematics of Intentional Rocketry Institute» — сокращается до того же MIRI, что и Machine Intelligence Research Institute — Прим. перев.
  • 2. В оригинале «the rocket alignment problem» с тем же «alignment», что и в «AI-alignment». — Прим. перев.
Перевод: 
Максим Выменец
Оцените качество перевода: 
Средняя оценка: 4 (5 votes)

Руководство по исследованиям в области соответствия ИИ

Команда MIRI

Это руководство написано командой MIRI в первую очередь для групп MIRIx, однако советы отсюда могут оказаться полезны и другим людям, работающим над проблемой соответствия ИИ1 нашим целям.

Введение I. Теория принятия решений

Привет! Возможно, вы обратили внимание, что вы читаете некий текст.

Из этого факта следуют некоторые выводы. Например, зачем вы читаете этот текст? Закончите ли вы чтение? Какие решения вы примете? Что вы сделаете дальше?

Независимо от того, какое решение вы примете, учтите, что, скорее всего, десятки или даже сотни людей, достаточно похожие на вас и находящиеся в схожих условиях, скорее всего примут примерно такие же решения.

Поэтому мы рекомендуем при размышлении над ближайшими решениями задаться вопросом: «Если все агенты, похожие на меня, будут действовать одинаково, какая их политика приведёт к максимальному благу и как эта политика рекомендует поступить в моём случае?» Речь идёт скорее не о попытке решить за всех агентов, достаточно похожих на вас (что может заставить вас принять неверное решение из чувства вины или из ощущения, что на вас давят), а о чём-то вроде «если бы я руководил всеми агентами из моего референтного класса, как бы я относился к кому-то в этом классе, если бы он обладал именно моими особенностями?»

Если эти рассуждения помогут вам продолжить чтение — прекрасно. Если они приведут к тому, что вы создадите группу MIRIx — ещё лучше. Тем временем, мы продолжим, считая, что этот документ читают лишь люди, которые оправданно ожидают, что он окажется им чем-то полезен.

Введение II. Площадь поверхности

Представьте, что вам нужно передвинуть железный куб со стороной в один метр. Поскольку такой куб весит примерно 8 тонн, а среднестатистический человек может поднять примерно 50 килограмм, наивные подсчёты сообщают, что нам понадобится примерно 160 друзей, которые захотят нам помочь.

Однако, конечно же, вокруг метрового куба поместятся лишь примерно 10 человек максимум. Совершенно не важно, есть ли у вас теоретически силы, чтобы его сдвинуть, если вы не можете эффективно приложить эти силы. У задачи есть ограничение: площадь поверхности.

Группы MIRIx — один из лучших способов увеличить «площадь поверхности» для людей, размышляющих и работающих над технической проблемой соответствия ИИ. Указ «десять человек, которые оказались ближайшими к металлическому кубу — единственные, кому разрешается думать над этой задачей» был бы плохой идеей. И точно также мы не хотим, чтобы MIRI оказался узким местом или авторитетом в вопросах, как следует рассуждать и что нужно делать в вопросах внедрённой агентности2 и смежных областях.

Мы надеемся, что вы и другие люди, похожие на вас, на самом деле решат эту задачу, а не будут просто следовать указаниям или читать написанное кем-то другим. Этот текст создан, чтобы поддержать тех, кому интересно самому совершить прорыв.

Вы и ваши исследования

Нам часто задают вопрос: «Даже летняя стажировка, кажется, слишком коротка, чтобы всерьёз продвинуться в решении настоящей задачи. Как кто-нибудь может всерьёз что-то исследовать за одну встречу?»

На эту тему можно выразиться в стиле Зенона: вы не продвинетесь в своих исследованиях и за миллион лет, если не можете продвинуться в них за пять минут. Очень легко попасть в ловушку (явного или неявного) представления исследований как чего-то вроде: «сначала изучаем всё, что нужно изучить, а затем пытаемся раздвинуть границы и внести свой вклад».

Проблема такого представления (с нашей точки зрения) в том, что она подталкивает людей в сторону поглощения информации как некоего необходимого условия для понимания, а не как необходимого инструмента. (Помните, что именно вы оптимизируете во время своей работы!)

Всегда будет существовать ещё какой-нибудь материал, который стоит изучить. Сложно предсказать заранее, сколько именно вам нужно знать, чтобы получить право на собственные мысли и взгляд. И легко пасть жертвой синдрома Даннинга-Крюгера или синдрома самозванца, а также начать излишне полагаться на существующие авторитеты.

Вместо этого мы рекомендуем выбросить вопрос авторитетов из головы. Просто следуйте за рассуждениями, которые кажутся живыми и интересными. Не думайте об исследованиях как о процессе «сначала изучаем, потом вносим свой вклад». Сосредоточьтесь на собственном понимании задачи, и пусть ваши вопросы сами определяют, какие статьи вам нужно прочитать и какие доказательства изучить.

Такой подход к исследованиям решает вопрос: «Что можно осмысленного сделать за день?» Кажется очень сложно достичь существенного прогресса, если вы меряте себя какой-то объективной внешней меркой. Но гораздо проще, если вас ведёт вперёд ваш собственный вкус.

Никакая процедура не подойдёт абсолютно всем. Однако далее приведены шаги, которые вы можете попробовать самостоятельно или в группе (например, MIRIx), чтобы попрактиковаться в описанном выше исследованиях, питаемых любопытством.

  1. Выпишите список вопросов.
    • Если вы работаете в группе, прикрепите этот список туда, где все смогут его видеть, например, на доску.
    • Сосредоточьтесь на том, о чём вы не знаете, как это делать, или по поводу чего испытываете замешательство.
    • Если в голову не приходят никакие вопросы, скажите себе (или группе): «Прекрасно, я должен понять, как решить всю эту задачу целиком» и попробуйте описывать подробности решения, пока не застопоритесь.
    • Совершенно нормально включать в список не только вопросы, но и идеи, которые вы хотите развить, или мысли, критику которых вы хотите получить от группы.
  2. Выберите один из вопросов, чтобы сконцентрироваться на нём. Выбирайте то, что кажется наиболее интересным.
    • Если в вашей группе больше трёх человек, подумайте о том, чтобы разделиться. Каждая подгруппа может обсуждать как свой собственный вопрос, так и независимо обсуждать один общий. Определитесь, через какое время вы опять соберётесь вместе и обсудите, к чему вы пришли.
    • Рекомендуем сохранять полный перечень вопросов где-то на виду, чтобы он напоминал вам о других интересных темах, на которые можно переключиться, если мысли по поводу первого выбранного вопроса иссякнут.
  3. Сформулируйте собственное любопытство. Чего хочется достичь? Чего, по-вашему, можно достичь?
    • При работе в группе обычно человеку, который предлагает тему, стоит рассказать что-нибудь о ней, чтобы все одинаково понимали, о чём речь.
    • При работе самостоятельно рекомендуем с самого начала записывать всё, что, по-вашему, вы знаете и что, по-вашему, вы не знаете. Записывайте всё, что имеет хоть какое-то отношение к делу. На этом этапе не беспокойтесь, истинны ли ваши утверждения и осмысленны ли ваши вопросы. Затем пересмотрите написанное и придайте ему смысл. Переформулируйте ваши утверждения до тех пор, пока они не превратятся во что-то определённо либо истинное, либо ложное.
  4. Продолжайте формулировать и уточнять.
    • Продолжайте формулировать вспомогательные вопросы и делать утверждения (возможно, истинные, возможно, нет), двигаясь от расплывчатых к чётким и формальным.
    • Обращайте внимание, когда ваше любопытство растёт, а когда падает. Избегайте стремления завершить работу из чувства долга. Ищите самые простейшие случаи, по поводу которых вы до сих пор испытываете замешательство, и пробуйте работать с ними.
    • Позвольте себе отвлекаться. Позвольте себе играть. Пока все участники дискуссии сохраняют любопытство и вовлечённость, это способствует лучшему пониманию. Не бойтесь залипнуть в какой-нибудь «неважный» математический вопрос, не исключено, что они окажутся более важными, чем кажется на первый взгляд. Вы развиваете свои способности, пусть даже это не помогает напрямую решать вашу задачу.
    • Если вы получили конкретные математические результаты, в которых есть что-то интересное, или даже конкретный математический вопрос, запишите это. Подробные отчёты в письменном виде помогают не только обмениваться идеями с другими людьми. Они ещё способствуют тому, что вы сами начинаете лучше понимать изучаемый вопрос.

Прогресс в MIRI достигается примерно таким же образом. Наша работа очень сильно отличается от «просто читаем множество статей» и очень сильно отличается от «попытаться сформулировать от начала до конца, что именно нужно сделать в этой области».

Естественная ошибка: считать свою работу попыткой внести вклад в мировое коллективное знание и из-за этого перестать ставить на первое место собственные знания и понимание. На первый взгляд, «просто читать статьи» выглядит, как будто мы ставим собственные знания на первое место, но такой подход часто является следствием неявного убеждения, что какие-то другие люди точно знают, что именно нам нужно знать. Подход же «оптимизировать собственное понимание» порождает быструю обратную связь.

В том, чтобы читать статьи нет ничего самого по себе плохого — даже если вы просто читаете произвольные статьи по соответствующей тематике, чтобы получить общее представление о состоянии дел. Однако вам стоит всегда пытаться представлять, что именно вы знаете или не знаете, как делать, и что именно вам нужно узнать, чтобы решить задачу. Это сложно. Не исключено, что вы уверены, что первые пять идей, которые вы запишете, окажутся неверными. Тем не менее, всё же запишите их и попробуйте заставить их работать. Так вы сможете увидеть, что получится, и понять, что идёт не так.

Мы не хотим, чтобы сотни талантливых людей задавали одни и те же вопросы и принимали один и тот же набор допущений. Нам нужно много исследователей, а не пользователей. С нашей точки зрения, лучший способ стать исследователем — это с самого начала тренироваться независимо мыслить, а не прокачивать навык «сижу и впитываю информацию ради информации».

Поэтому не спрашивайте: «Какие есть открытые вопросы?» Спрашивайте: «Какие вопросы интересуют меня?»

Как начать

Предположим, вы попробовали что-то из написанного выше, вам понравилось и вы хотите перейти к созданию вашей собственной группы MIRIx.

Мы рекомендуем в первую очередь найти ОДНОГО или ДВУХ людей (но не трёх и больше), и попробовать заняться исследованиями пару раз вместе с ними. Ниже будет раздел про социальную динамику, в котором описано, как именно это может выглядеть, но смысл в том, что, вероятно, лучше попробовать отладить атмосферу и рабочий процесс при малом количестве участников. Если вы начнёте с большого количества людей, договариваться о работе группы, скорее всего, будет гораздо сложнее.

Ещё в случае большого количества людей сложно договориться о расписании. Найти время и место, которые устраивали бы всех, становится невозможно, и процесс согласования каждой новой встречи может демотивировать. Составляйте расписание так, чтобы оно подходило основному ядру группы. Какой день недели подходит вам? Как часто вы хотите встречаться? Сколько времени будет длиться встреча? Мы рекомендуем устраивать встречи раз в месяц, раз в неделю или раз в две недели. Длина встречи может варьироваться от часа до целого дня, в зависимости от того, что подходит лично вам.

Когда вы найдёте одного или двух партнёров, с которыми вам действительно комфортно работается, следующий шаг: запланировать и организовать первую большую встречу. «Большая» — означает примерно «от трёх до шести человек». Определённо не «двадцать-тридцать слушателей».

Попытайтесь найти тихое, звукоизолированное место, где можно удобно расположиться, есть на чём писать (в том числе, есть большие маркерные доски на стенах). Часто подобные места есть в университетах и публичных библиотеках, но подойдёт и чья-нибудь гостиная, если вы сможете свести к минимуму количество посторонних вмешательств. Не забудьте запастись чистой бумагой, ручками, планшетами, а также выберите кого-нибудь, кто будет отвечать за еду и питьё.

(Примечание по поводу еды и питья. Люди почти всегда недооценивают важность качества и количества еды и сваливаются к чему-нибудь вроде: «Не знаю, может просто купим чипсы баксов на десять или что-то в этом духе?» Лучше спросите себя: сколько я потратил бы на то, чтобы способность думать для всей группы, общее настроение и удовлетворённость от встречи повысилась бы на 15%? Именно от такой суммы вам стоит отталкиваться (/ попросить у MIRI) при расчёте стоимости еды, особенно на первую встречу. Не покупайте только фаст-фуд. Возможно, на какое-то время он вам даст больше энергии, но вам будет сложнее думать потом. Здоровая еда довольно важна — особенно для длинных встреч. Большая встреча должна включать в себя достаточно серьёзный приём пищи, возможно в ближайшем ресторане. Это также послужит неплохим перерывом.)

На первой большой встрече, возможно, вы захотите выбрать руководителя группы. Это важная часть культуры общего знания — в большинстве случаев руководитель ничем не отличается от остальных, однако крайне полезно, чтобы в наличии был человек, у которого есть моральное право устанавливать повестку, выбирать между различными хорошими вариантами и не давать группе отвлекаться. Возможно, вы также захотите выбрать секретаря/ответственного за записи, или, быть может, координатора, отвечающего за выбор места и еду, или создать какие-нибудь ещё должности (впрочем, этим можно заняться и на следующих встречах).

Затем вы, вероятно, захотите смоделировать процесс, который уже работает для вас. Возможно, это означает поделиться списком уже существующих вопросов и посмотреть, какие из них привлекут интерес участников. Возможно, это означает сначала обсудить направление ваших исследованиях в общих чертах, а уж затем перейти к отдельным темам. В любом случае вы захотите перейти к серьёзным размышлениям, записям, доказательствам и обсуждениям как можно быстрее. Если на встрече присутствует больше четырёх человек, лучше разбиться на подгруппы. Если вы так и поступите, запланируйте, в какое время вы соберётесь обратно для обсуждения.

Постарайтесь не забывать о перерывах. Когда работа вовсю кипит, вспоминать о них сложно, поэтому стоит их запланировать заранее. Короткий перерыв каждый час, во время которого люди встают и выходят прогуляться, очень помогает.

Имеет смысл сохранять общедоступный список (на маркерной доске или в общем гугл-документе) накопившихся вопросов, необходимых понятий и многообещающих идей. Из такого списка легко почерпнуть новую тему, если разговор зашёл в тупик.

Возможная структура встречи, включающая в себя советы выше и исследовательскую процедуру из предыдущего раздела:

  1. В начале каждой встречи все перечисляют свои вопросы/темы/замешательства, и всё это записывается в общедоступный список.
  2. Собравшиеся определяют наиболее интересные им вопросы и делятся на подгруппы.
  3. Подгруппы обсуждают свои вопросы 45 минут.
  4. Все собираются вместе и несколько минут обсуждают, что происходило в подгруппах.
  5. Перерыв на 5-10 минут, в зависимости от того, как все себя чувствуют.
  6. На доску добавляются новые вопросы/идеи, и процесс повторяется нужное число раз. (Если вы планируете несколько циклов, также запланируйте длинный перерыв на то, чтобы поесть.)

В конце встречи запланируйте следующую. Возможно, вы уже сошлись на каком-то расписании, которое работает для ядра группы, но всё же его стоит подстраивать на случай праздников, отпусков и других обстоятельств. Важно, чтобы все согласились с временем следующей встречи, даже если у вас уже твёрдо устоявшееся расписание. Постарайтесь с самого начала принять, что вы не пытаетесь добиться постоянного всеобщего присутствия: будет лучше, если люди поймут, что иногда пропускать встречи — это нормально (при условии, что на каждую встречу приходит примерно 70-90% участников). Если один или два человека не могут прийти две встречи подряд, постарайтесь узнать у них подробности, чтобы, возможно, подстроиться под их расписание при планировании третьей.

Модели социальной динамики

В этой секции собраны несколько довольно «сырых» моделей о том, как получается хорошая исследовательская группа или вообще хорошее совместное предприятие. Здесь стоит обращать внимание скорее на общий дух, а не на букву. Также стоит попытаться определить ваши собственные ценности, а не считать, что вы обязаны следовать именно этим.

Передатчики и приёмники

Во время наших исследований мы обнаружили, что разговоры, в которых в основном участвует лишь два человека, идут лучше. Мы не хотим сказать, что не должно быть разговоров, в которых участвует три и более человека, однако в течении любого пятиминутного отрезка времени, разговаривать в основном должны только два человека — тот, кто пытается донести какую-то информацию, и тот, кто пытается её понять.(При этом именно понимание стоит оптимизировать в первую очередь. Обсуждение какой-либо темы на таком уровне, что четыре или пять разных людей способны отслеживать все нюансы, обычно приносит меньше пользы)

Назовём эти две роли «передатчик» и «приёмник». Вы можете передавать:

  • Конкретный вопрос или замешательство.
  • Модель или цепочку рассуждений.
  • Кусок важной информации, которая необходима, чтобы по-настоящему понимать идущее обсуждение.

«Приёмник» может:

  • Пересказывать «передатчику» то, что тот сказал, другими словами. Это позволяет «передатчику» понимать, успешно ли передана информация.
  • Делать заметки на маркерной доске или рисовать диаграммы, и просить «передатчика» проверять, что получается. Делайте это настолько строго, насколько возможно. Пытайтесь записывать утверждения на языке логики и превращать нестрогие аргументы в доказательства. Для подобного понимания информации хорошо подходит теория типов. Даже просто точно записывать типы данных, соответствующие обсуждаемым сущностям, может быть очень полезно.
  • Подавлять желание прервать «передатчика», когда тот говорит что-то уже понятное. Для этого подходит следующий приём: попытайтесь придумать как минимум две интерпретации и спросите, как их различить.
  • Придерживаться гипотезы, что «передатчик» пытается рассказать о чём-то интересном. Избегайте режима «критика», который приведёт к тому, что «передатчику» будет сложнее думать и выражать свои мысли. Даже если в том, что явно сказал «передатчик» зияет дыра, ваша задача — помочь ему найти ту крупицу интуиции, которая позволит продолжить рассуждение и по-возможности превратить его в полезную идею.
  • Обращать внимание на замешательство и говорить, если что-то в вашей картине не стыкуется. Задавать уточняющие вопросы. Ваша задача как «приёмника» не просто кивать или создавать у «передатчика» чувство, что его понимают. Будьте мягче, когда необходимо, чтобы помочь «передатчику» нащупать то, что он пытается сообщить. Но когда он это нащупал, ваша задача вытащить из него всё в подробностях!
  • Если идея «передатчика» выглядит вполне чёткой, «приёмник» может начать искать в ней уязвимые места. Критика неоформившейся идеи часто мешает делу, однако, если речь идёт о ясном осмысленном предложении, критика вполне имеет смысл.
  • Искать следствия того, что говорит «передатчик». («А, но тогда получается X!» или «Из этого ведь следует Х?», и так далее.) Это служит как минимум трём целям. Во-первых, это позволяет «передатчику» понять, что вы видите, почему эта идея окажется совершенно потрясающей, если она работает. Ведь вы с её помощью уже делаете что-то полезное. Это стимулирует. Во-вторых, это позволяет понять, успеваете ли вы за мыслью. В-третьих, совершенно абсурдный вывод позволит предположить, что вы зашли куда-то не туда, и стоит вернуться назад, чтобы понять, где ошибка.
  • Играть роль доброго тролля - когда у «передатчика» ничего не получается или их вообще нет, потому что ни у кого нет идей. Сыграйте роль Сократа. Задавайте вопросы о вроде бы базовых штуках и попытайтесь показать, что они все не имеют смысла. Или защищайте нелепую точку зрения. (Тролль иногда кажется «передатчиком», но по сути он «приёмник».)

«Передатчик» должен чувствовать, что в попытках выразить свою интуицию, он может делать любые утверждения, в том числе «абсолютно ложные». Попытайтесь создать нормы, где вы можете попросить «приёмников» помочь вам выделить из того, что вы говорите, ядрышко истины, а не уничтожать полуоформившиеся идеи, потому что они наполовину неверны. Не важно, насколько «приёмники» избегают моральных суждений. Нужно, чтобы «передатчик» время от времени мог сказать что-то вроде «всё, что я собираюсь сказать, полностью неверно, но …»

«Передатчик» при этом должен руководствоваться своей интуицией и любопытством. Направлять разговор в наиболее интересное русло, а не пытаться создать хорошее впечатление или развлечь. «Передатчик» не обязан отвечать на вопросы «приёмника», сказать: «прямо сейчас я не хочу об этом думать» — вполне нормально.

Смысл в том, что «приёмник» помогает «передатчику» породить идею. Поэтому именно «передатчик» решает, что в данный момент более важно, а «приёмник» работает усилителем, поставщиком интуиции, а также источником (небольшого) хаоса.

Тем временем, всем остальным присутствующим стоит попробовать себя в роли посредников/переводчиков. Они должны наблюдать одновременно и за «передатчиком», и за «приёмником», и строить модели, что происходит в их диалоге. Где они упускают мысль собеседника? Где они не понимают, что именно хочет узнать собеседник? Может быть, у них срабатывает эффект подтверждения или двойная иллюзия прозрачности? Может, они соглашаются, что какое-то утверждение разумно, не понимая его до конца?

Остальным присутствующим имеет смысл вбрасывать в разговор важные мысли, модели, вопросы (но их вмешательство не должно превышать 10% от всех слов в беседе). Иногда вмешательство приведёт к смене ролей: кто-нибудь из слушателей станет «передатчиком» или «приёмником» или «передатчик» и «приёмник» поменяются местами.

Высокие стандарты

После одной или двух встреч довольно неловко не приглашать кого-то в следующий раз и, тем более, напрямую запрещать придти. Но разрушить всю группу MIRIx из-за чрезмерной застенчивости или неуверенности — ещё хуже.

Явно обозначьте разницу между «добро пожаловать на встречу» и «теперь ты в нашей команде». Позаботьтесь о том, чтобы все знали, кто именно принимает решения. Пусть он/она/они будут не обязаны объяснять своё решение. (Если вы не доверяете чьим-то суждениям без объяснений, этот человек не должен принимать решения.) Доверяйте своей интуиции. Если вам кажется, что некто не сочетается с атмосферой, которую вы хотите создать, не приглашайте его. Подумайте о том, чтобы требовать несколько рекомендаций или устраивать собеседование. Возможно, вам кажется, что это излишне, но исключать людей обычно тяжело, а формальный процесс приёма воспринимается как более справедливый.

Также подумайте, не стоит ли записать в явном виде этические правила или совместные обязательства, под которыми люди будут подписываться, когда они становятся частью команды. Убедитесь, что вы действительно хотите всерьёз поддерживать именно эти стандарты (например, «нужно посещать не меньше половины встреч» или «всё обсуждаемое на встречах не следует разглашать, если явно не сказано об обратном»).

Возрастание требований и вознаграждений

Представьте модель школы боевых искусств. Когда туда приходит новичок, инструкторы его мало о чём просят (например, ударь цель ногой с громким криком). Вскоре за это его вознаграждают поясом и некоторым статусом.

После этого требования возрастают. Ученика с жёлтым поясом уже могут попросить пару минут наблюдать за учениками с белыми и поправлять их. В ответ те должны кланяться и говорить «сэр» или «мэм».

Дальше требования растут дальше и соответственно растёт награда. Такой цикл поощряет обязательства и вложения: человек постоянно получает доказательства: «если я что-то вложил, то я что-то получу, и чем больше я вложил, тем больше я получу». В какой-то момент ученик получает чёрный пояс и его могут пригласить в штат инструкторов или предложить основать свой филиал школы.

В большинстве групп и организаций происходит примерно то же самое. Если группа ничего не просит (или просит мало) от своих членов, они не платят ей верностью. Люди вовлекаются в группу в той мере, в которой группа позволяет им рассказывать приятные (или эпические) истории о себе.

Для групп MIRIx это тоже может быть верным. Подумайте, не стоит ли завести небольшие примерно одинаковые задания для большинства новичков (например, прочитать такие-то и такие-то статьи или на третьей встрече сделать десятиминутный доклад на интересную им тему). Попробуйте построить последовательность просьб и вознаграждений дальше (например, на пятой встрече ты будешь управлять повесткой дня и делить всех на группы).

Структура и свободное пространство

Этот пункт связан с предыдущим. Важно уметь уравновешивать в своей группе MIRIx нисходящие и восходящие структуры коммуникации. Если никто не понимает, «как мы тут работаем», новички путаются и им становится неуютно. Вам нужна уже существующая структура, которую люди могут оценить и определить, будет ли им с ней комфортно. Вам нужно, чтобы с самого начала было понятно «на что похожа» ваша группа. Чтобы люди, которым она подойдёт, и люди, которым она не подойдёт, могли точно определить, к какой они категории относятся.

Тем не менее, вряд ли вы хотите, чтобы ваша структура мешала вам развиваться в долгосрочной перспективе. Мастера боевых искусств рано или поздно получают право вносить изменения в собственные тренировки, а также что-то менять при обучении новых учеников. Наверняка вы тоже захотите когда-нибудь получить что-то от своей группы MIRIx. Обычно люди огорчаются, когда не могут удовлетворить какие-нибудь свои потребности. Если ваша структура будет мешать им развиваться, они уйдут искать другое место, чтобы расти.

Социальные нормы

Нормальным и принятым становится то, против чего никто не возражает. Если какое-то поведение вам не нравится и выхотите снизить его количество на встречах, вам нужно не только самим возражать против него, но также открыто и публично поддерживать других, кто тоже против него возражает. Задача группы - сделать так, чтобы каждый, кто соблюдает правила / пытается поступать правильно, никогда не оставался один против тех, кто правила нарушает.

Заранее обдумайте и публично озвучьте вопросы вида «когда можно перебивать» или «насколько допустимы значительные отступления от темы». Создавайте культуру разногласия, но стройте её на основе вежливости и поддержки, чтобы разногласия делали группу сильнее, а не превращались в перепалки. Защищайте структуры принятия решений, которые вы придумали. Будьте последовательны в вопросах полномочий и в том, когда решения становятся окончательными.

Прочие мысли и вопросы

  1. Чтобы встречи не становились однообразными, пытайтесь чередовать различные темы и активности. Читайте статьи, устраивайте презентации, проводите дискуссии, пишите формальные доказательства и статьи, и так далее. Постарайтесь, чтобы чтению или обсуждению уже существующего материала уделялось не более 50% ваших встреч. (В идеале — не более 33%.)
  2. Подумайте о том, чтобы строить долгосрочные планы вида: шесть месяцев (или год) встречи посвящаются работе над какой-то конкретной областью вопросов, чтобы группа смогла построить какой-то комплекс знаний.
  3. Однако, если вы строите долгосрочные планы, предусмотрите возможность от них отклоняться. Например, пусть каждая третья встреча будет посвящена чему-то, не связанному с основной изучаемой областью.
  4. Подумайте о том, чтобы вести протоколы встреч и сохранять их на будущее. Так вы сможете оценить свою деятельность по прошествии нескольких месяцев или года. Подумайте над идеей, стоит ли пробегаться по протоколу предыдущей встречи в начале следующей.
  5. В конце встречи назначьте кого-нибудь, чтобы он собрал список вопросов, над которыми люди хотели бы подумать, и разослал их всем. Сюда же можно добавить мысли для обсуждения на следующих встречах. Подумайте о том, чтобы заранее определяться, кто будет вести следующую встречу, чтобы он мог подготовиться.
  6. Убедитесь, что у вас есть актуальная контактная информация для всех полноценных членов команды и прочих заинтересованных лиц. Подумайте заранее о способах коммуникации: будете вы пользоваться е-мэйл рассылками, группами в фейсбуке или чем-то ещё.
  7. Подумайте о том, как вы хотите взаимодействовать с другими группами MIRIx: хотите ли вы обмениваться с ними протоколами, вопросами, или, например, посылать кого-нибудь на встречу в другую группу или принимать людей из других групп у себя. Если вы хотите взаимодействовать, предпринимайте для этого активные действия. Помните: вы такой же представитель класса, как и другие. Если вы хотите что-то делать, но ничего не делаете, вероятно, тоже самое можно будет сказать и об остальных.
  8. Подумайте, хотите ли вы проводить какие-то мероприятия для обычных людей или для потенциальных новобранцев (например, на факультетах математики или информатики). Подумайте, хотите ли вы попробовать более амбициозные проекты, например, устроить летнюю школу, и пригласить людей, у которых есть знания и ресурсы, чтобы не изобретать колесо.
  9. Если ваша группа MIRIx существует в вузе, постарайтесь подумать над вопросом, как вы будете искать студентов младших курсов, которые займут место старшекурсников, когда те закончат вуз. Если вы не связаны с академической средой, подумайте, откуда вы будете брать новых людей. Заметим, что большой приток новичков редко бывает полезен и создаёт культурные проблемы. Лучше добавлять новых людей по одному или по двое, чтобы они могли привыкнуть к группе и группа к ним.
  10. Помните, что качество исследований, дискуссий и всей группы MIRIx в целом зависит от действий участников группы и от того, как их действия сочетаются между собой. Позаботьтесь о том, чтобы это понимали все — ваша группа будет настолько хороша, насколько каждый из вас захочет таковой её сделать.

Эпилог

Вы почти дочитали до конца текста! Надеемся, вы в нём встретили какую-то полезную информацию, а также здоровую пищу для размышлений. Перед тем, как вы перейдёте к другим делам, мы советуем потратить секунд 30 на размышления над следующими вопросами:

  • Почему мы решили написать этот текст? Что мы ожидали получить, и что подтолкнуло нас выбрать из всех возможностей именно такой формат и содержание?
  • Что вас огорчило или не устроило? Чего в этом тексте не хватает? Что мы упустили? Откуда вы узнали о тех вещах, которые мы упустили?
  • Какой текст написали бы вы? Как бы вы поняли, что написать такой текст - хорошая идея? Как бы вы определяли, что в нём стоит упомянуть?
  • Как, чёрт побери, вообще достигается прогресс?

Счастливой охоты.

— Команда исследователей MIRI.

  • 1. В оригинале «AI alignment». Пока у этого термина нет устоявшегося перевода на русский язык. — Прим.перев.
  • 2. В оригинале «embedded agency». — Прим.перев.
Перевод: 
Alaric
Оцените качество перевода: 
Средняя оценка: 5 (3 votes)

Дискуссия Нго и Юдковского про сложность задачи согласования

Элиезер Юдковский, Ричард Нго

Примечание редактора сайта: Под «согласованием» в заголовке и далее в тексте подразумевается англоязычное «[AI] alignment». В некоторых других статьях на этом сайте этот термин переводился как «соответствие [ИИ целям оператора]». Пока перевод этого термина на русский в сообществе не устоялся.

* * *

Этот пост – первое из серии обсуждений в Discord между Ричардом Нго и Элиезером Юдковским, под модерацией Нейта Соареса. Ричард и Нейт так же резюмировали ход разговора и ответы собеседников в Google Docs, это также добавлено сюда.

В позднейших обсуждениях принимали участие Аджейя Котра, Бет Барнс, Карл Шульман, Холден Карнофски, Яан Таллинн, Пол Кристиано, Роб Бенсингер и Робин Шах.

Это полные записи нескольких созданных MIRI для дискуссий каналов в Discord. Мы пытались как можно меньше редактировать записи сверх исправления опечаток и вводящих в замешательство формулировок, разбивания на параграфы и добавления ссылок. МЫ не редактировали значимое содержание, за исключением имён людей, которые предпочли, чтобы их не упоминали. Мы поменяли порядок некоторых сообщений для ясности и непротиворечивого потока обсуждения (в таких случаях время особо отмечено), и скомбинировали разные логи, когда обсуждение переключалось между каналами.

Предварительные комментарии

[Yudkowsky][8:32] (6 ноября)

(По просьбе Роба, я постараюсь быть кратким, но это экспериментальный формат и некоторые всплывшие проблемы выглядят достаточно важными, чтобы их прокомментировать)

Главным образом в ранней части этого диалога у меня были некоторые уже сформированные гипотезы на тему “Что будет главной точкой несогласия и что мне говорить по этому поводу”, что заставляло меня отклоняться от чистой линии обсуждения, если бы я просто пытался отвечать на вопросы Ричарда. Перечитывая диалог, я заметил, что это выглядит уклончиво, будто я странным образом упускаю суть, не отвечая напрямую на вопросы.

Зачастую ответы даны позднее, по крайней мере, мне так кажется, хотя, может, и не в первой части диалога. Но в целом вышло так, что я пришёл высказать некоторые вещи, а Ричард пришёл задавать вопросы, и получилось небольшое случайное несовпадение. Выглядело бы лучше, если бы, скажем, мы оба сначала выставили свои позиции без знаков вопроса, или если бы я ограничил себя ответами на вопросы Ричарда. (Это не катастрофа, но читателю стоит учитывать это как небольшую неполадку, проявившуюся на ранней стадии экспериментов с этим новым форматом.)

[Yudkowsky][8:32] (6 ноября)

(Подсказано поздними попытками резюмировать диалог. Резюмирование выглядит важным способом распространения для такого большого диалога, и следующая просьба должна быть особо указана, чтобы к ней прислушивались – встроенные в диалог указания не работают.)

Пожалуйста, не резюмируйте этот диалог, говоря “и ГЛАВНАЯ идея Элиезера такая” или “и Элиезер думает, что КЛЮЧЕВОЙ МОМЕНТ в том” или “ОСНОВНОЙ аргумент таков” и.т.д. Мне кажется у всех свои наборы камней преткновения и того, что считается очевидным, и обсуждение с моей стороны сильно меняется в зависимости от них. Когда-то камнями преткновения были Тезис Ортогональности, Инструментальная Конвергенция и возможность суперинтеллекта в принципе; сейчас у большинства связанного с Open Philanthropy народа они уже другие.

Пожалуйста, преобразуйте:

  • “Основной ответ Элиезера в том…” -> “Элиезер ответил, что…”
  • “Элиезер считает, что ключевой момент в том…” -> “Элиезер в ответ указал, что…”
  • “Элиезер считает, что основная проблема в том…” -> “Элиезер ответил, что есть проблема в том…”
  • “Главный аргумент Элиезера против этого был…” -> “Элиезер возразил тем…”
  • “Элиезер считает, что основной сценарий тут…” -> “В обсуждении в сентябре 2021, Элиезер обрисовал гипотетический сценарий, где…”

Замечу, что преобразованные утверждения говорят о том, что вы наблюдали, тогда как изначальные - это (зачастую неправильные) выводы о том, что я думаю.

(Однако, “различать относительно ненадёжные выводы от более надёжных наблюдений” – не обязательно ключевая идея или главная причина, по которой я этого прошу. Это просто моё замечание – один аргумент, который, я надеюсь, поможет донести больший тезис.)

Обсуждение 5 сентября

Глубокие и поверхностные шаблоны решения задач

[Ngo][11:00]

Всем привет! С нетерпением жду дискуссии.

[Yudkowsky][11:01]

Привет и добро пожаловать. Моё имя Элиезер и я думаю, что согласование ИИ на самом деле довольно невероятно очень сложно. Кажется, некоторые люди так не думают! Это важная проблема, которую нужно как-то решить, надеюсь, мы сегодня это сделаем. (Однако, я хочу сделать перерыв через 90 минут, если это столько продлится и если суточный цикл Нго позволит продолжать после этого.)

[Ngo][11:02]

Перерыв через 90 минут или около того звучит хорошо.

Вот как можно начать? Я согласен, что согласование людьми произвольно мощного ИИ выглядит очень сложной задачей. Одна из причин, по которым я более оптимистичен (или, по крайней мере, не уверен, что нам придётся столкнуться с полноценной очень сложной версией этой задачи) – это то, что с определённого момента ИИ возьмёт на себя большую часть работы.

Когда ты говоришь о том, что согласование сложное, о согласовании каких ИИ ты думаешь?

[Yudkowsky][11:04]

В моей модели Других Людей, зачастую когда они думают, что согласование не должно быть таким уж сложным, они считают, что есть какая-то конкретная штука, которую можно сделать, чтобы согласовать СИИ, и она не очень сложная. И их модель упускает одну из фундаментальных сложностей, из-за которой не получится выполнить (легко или совсем) какой-то шаг их метода. Так что одно из того, что я делаю в обсуждении – это попытаться расковырять, про какой же именно шаг собеседник не понимает, что он сложный. Сказав это, я теперь попробую ответить на твой вопрос.

[Ngo][11:07]

Я не думаю, что уверен в какой-нибудь конкретной штуке, позволяющей согласовать СИИ. Однако я чувствую неуверенность по поводу того, в насколько большом диапазоне возможностей эта задача может оказаться сложной.

И по некоторым важным переменным, кажется, что свидетельства последнего десятка лет склоняют к тому, чтобы посчитать задачу более простой.

[Yudkowsky][11:09]

Я думаю, что после того, как станет возможным СИИ вообще и его масштабирование до опасного сверхчеловеческого уровня, будет, в лучшем случае, если будут решены многие другие социальные сложности, период от 3-х месяцев до 2-х лет, когда лишь у нескольких действующих лиц есть СИИ, что означает, что этим действующим лицам будет социально-возможно просто решить не масштабировать его до уровня, на котором он автоматически уничтожает мир.

В течении этого периода, чтобы человечество выжило, кто-то должен произвести некое действие, из-за которого мир не будет уничтожен через 3 месяца или 2 года, когда уже у слишком многих будет доступ к коду СИИ, уничтожающего мир, если повернуть рубильник его интеллекта достаточно сильно. Это требует того, чтобы кто-то из первых действующих лиц, создавших СИИ сделал с помощью него что-то, что предотвратит уничтожение мира. Если бы это не требовало суперинтеллекта, мы могли бы сделать это сейчас, но, насколько мне известно, никакого такого доступного людям действия нет.

Так что мы хотим наименее опасное, наиболее легко согласовываемое действие-при-помощи-СИИ, но при этом достаточно мощное, чтобы предотвратить автоматическое разрушение Земли через 3 месяца или 2 года. Оно должно “опрокинуть игровую доску”, не позволив начаться суицидальной игре. Мы должны согласовать СИИ, который осуществит это ключевое действие, чтобы он мог его осуществить, не убив всех.

Замечу в скобках, ни одно достаточно мощное и доскоопрокидывающее действие не умещается в Окно Овертона политики, или, возможно, даже эффективного альтруизма, что представляет отдельную социальную проблему. Я обычно обхожу эту проблему, приводя пример достаточно мощного для опрокидывания доски, но не самого согласовываемого, потому что оно требует слишком много согласованных частей: создать самовоспроизводящиеся в воздухе наносистемы и использовать их (только), чтобы расплавить все GPU.

Поскольку любой такой наносистеме придётся действовать в целом открытом мире, включающем множество сложных деталей, это потребует очень много работы по согласованию, так что это ключевое действие согласовать сложно, и нам стоит сделать что-то другое. Но другая штука, которая есть у меня в мыслях, точно так же за пределами Окна Овертона. Так что я использую “расплавить все GPU”, чтобы указать на требуемую мощность действия и проблему с Окном Овертона, и то и другое мне кажется приблизительно правильного уровня, но то, что я держу в голове проще согласовать. Таким образом, на “Как ты смеешь?” я всегда могу ответить “Не беспокойся, я не собираюсь на самом деле это делать.”

[Ngo][11:14]

Мы могли бы продолжить обсуждение, обсудив ключевое действие “работать над проблемой согласования быстрее, чем могут люди.”

[Yudkowsky][11:15]

Для меня это звучит как что-то требующее высочайшего уровня согласованности и действующее в очень опасном режиме, так что, если можно сделать это, разумнее сделать какое-нибудь другое ключевое действие, использующее меньший уровень технологии согласования.

[Ngo][11:16]

Окей, тут, кажется, трудности с пониманием с моей стороны.

[Yudkowsky][11:16]

В частности, я надеюсь, что – в маловероятном случае нашего выживания – мы сможем выжить, использовав суперинтеллект в смертельно опасном, но всё же менее смертельно опасном режиме “проектирования наносистем”.

А вот “реши для нас согласование” кажется действующим в ещё более опасных режимах “пиши для нас код ИИ” и “очень точно смоделируй человеческую психологию”.

[Ngo][11:17]

Что делает эти режимы такими опасными? То, что людям очень сложно за ними присматривать?

Эти режимы кажутся мне менее опасными в частности потому, что они попадают скорее в область “решения интеллектуальных задач”, а не “достижения последствий в мире”.

[Yudkowsky][11:19][11:21]

Любой вывод ИИ приводит к последствиям в мире. Если выводы исходят от мощного несогласованного разума, то они могут начать причинно-следственную цепочку, приводящую к чему-нибудь опасному, независимо от того, стоит ли в коде комментарий “интеллектуальная задача”.

“Решать интеллектуальные задачи” опасно, когда для этого необходим мощный разум, рассуждающий об областях, которые, будучи решёнными, предоставляют когнитивно-доступные стратегии как сделать что-то опасное.

Я ожидаю, что первое решение согласования, которым можно будет на самом деле пользоваться, в том маловероятном случае, что мы его получим, будет выглядеть на 98% как “не думай обо всех тех темах, которые нам не строго необходимы, и которые близки к способности легко изобрести очень опасные выводы” и на 2% как “всё-таки думай про эту опасную тему, но, пожалуйста, не приходи к стратегиям в ней, которые нас всех убьют”.

[Ngo][11:21][11:22]

Позволь мне попытаться уточнить разделение. Мне кажется, что системы, изначально натренированные делать предсказания о мире, не будут по умолчанию иметь когнитивный аппарат, позволяющий людям совершать действия для преследования своих целей.

Наверное, можно переформулировать мою точку зрения так: мне не кажется неправдоподобным, что мы создадим ИИ значительно умнее (в смысле способности понимать мир), чем люди, но значительно менее агентный.

Есть ли у тебя с этим проблемы?

(очевидно, “агентный” тут довольно недоопределено, может, стоит это пораскапывать)

[Yudkowsky][11:27][11:33]

Я бы точно узнал совсем новые и удивительные факты про интеллект, действительно противоречащие моей модели того, как работают интеллекты, могущие появиться в рамках текущей парадигмы, если ты покажешь мне… как бы это выразить в общем случае… что задачи, которые я считал задачами про поиск состояний, получающих высокую оценку при скармливании их в функцию результатов, а затем в функцию оценки результатов, на самом деле задачи про что-то другое. Я иногда даю более конкретные названия, но, думаю, люди приходят в замешательство от моих обычных терминов, так что я их обошёл.

В частности, так же как в моей модели Убеждений Других Людей они считают, что согласование простое, потому что они не знают про сложности, которые я вижу как очень глубокие и фундаментальные и сложноизбегаемые, так же в этой модели они думают “почему бы просто не создать ИИ, который будет делать X, но не Y?” потому что они не осознают, что у X и Y общего, потому что для этого нужно иметь глубокую модель интеллекта. И этот глубокий теоретический разрыв сложно перешагнуть.

Но вообще можно найти неплохие практические подсказки на то, что эти штуки куда более скоррелированны, чем, скажем, считал Робин Хансон во время нашего FOOM-спора. Робин не думал, что может существовать что-то вроде GPT-3; он считал, что потребуется проводить обучение на множестве узких областей, которые не будут обобщаться. Я тогда возразил, что у людей есть зрительная кора и мозжечок, но нет Коры Проектирования Автомобилей. Потом оказалось, что реальность на более Элиезеровской стороне оси Элиезер-Робин, чем я, и что штуки вроде GTP-3 менее архитектурно сложны и больше обобщаются, чем я тогда доказывал Робину.

Иногда я использую метафору о том, что очень сложно создать систему, которая будет уметь водить красные машины, но не будет очень похожа на систему, которая, с небольшими изменениями, будет уметь водить синие. Задача “водить красную машину” и задача “водить синюю машину” имеют слишком много общего. Ты можешь предложить: “Согласуй систему так, чтобы у неё была возможность водить красные машины, но чтобы она отказывалась водить синие”. Ты не можешь создать систему, которая будет очень хороша в вождении красных машин, но совершенно не умеет водить синие из-за ненатренированности на это. Градиентный спуск, генетический алгоритм или любой другой правдоподобный метод оптимизации обнаружит очень похожие шаблоны для вождения красных и синих машин. Оптимизируя для красных машин, ты получишь способность водить синие, хочешь ты того или нет.

[Ngo][11:32]

Отвергает ли твоя модель интеллекта возможность создания ИИ, сильно продвигающего математику без убийства нас всех?

[Yudkowsky][11:34][11:39]

Если бы было возможно совершить какое-нибудь ключевое действие для спасения мира с ИИ, который может лишь доказывать математические теоремы, без необходимости, например, объяснять доказательства людям, я был бы невероятно заинтересован в этом как в потенциальном ключевом действии. Я не достиг бы полной ясности, и всё ещё не знал бы, как создать ИИ, не убив всех, но такое действие немедленно стало бы очевидным первоочередным направлением разработок.

Кстати, моя модель интеллекта отвергает очень-очень мало возможностей. Я думаю, что мы все умрём, потому что у нас не получится сделать правильно некоторые опасные вещи с первого раза в опасном режиме, где одна ошибка уже фатальна, причём сделать их до того, как нас убьёт распространение куда более простых технологий. При наличии Учебника Из Будущего Через Сто Лет, в котором для всего приведены простые надёжные действительно работающие решения, вполне можно было бы воспользоваться методами из него, чтобы написать суперинтеллект, который думает, что 2 + 2 = 5.

(В учебнике есть эквивалент “используйте ReLu вместо сигмоид” для всего и нету всех по-умному звучащих штук, которые работают на дочеловеческих уровнях, и лажают, если применить их для суперинтеллекта.)

[Ngo][11:36][11:40]

Хм-м-м, предположим, что мы натренировали ИИ доказывать теоремы, возможно, с помощью какого-нибудь состязательного обучающего процесса “составить задачу - решить задачу”.

Моя интуиция говорит, что по умолчанию этот ИИ сможет научиться очень хорошо – далеко за пределами человеческого уровня – доказывать теоремы, не имея целей касательно реального мира.

Я так понял, что в твоей модели интеллекта способность к решению математических или сходных задач плотно связана с попытками достижения результатов в реальном мире. Но для меня GPT-3 является свидетельством против такой позиции (хотя всё ещё и свидетельством в пользу твоей позиции относительно позиции Хансона), ведь она кажется способной к некоторым рассуждениям, будучи не особо агентной.

В альтернативном мире, в котором у нас не получилось натренировать языковую модель на некоторые рассудительные задачи, не натренировав её вначале на выполнение задач в сложном RL-окружении, я был бы значительно менее оптимистичен.

[Yudkowsky][11:41]

Я скажу, что в твоих оценках есть предсказуемое искажение из-за того, что ты, не зная о Глубоких Штуках, нужных для доказательства теорем, представляешь, что они менее похожи на иные когнитивные способности, чем на самом деле. Зная о том, как именно люди используют свою способность рассуждать о каменных топорах и других людях для доказательства математических теорем, ты бы считал более правдоподобным обобщение способности доказывать теоремы до топоров и манипуляции людьми.

Моё мнение о GPT-3… сложно соотносится с моими взглядами на интеллект. Там взаимодействует огромное количество выученных неглубоких паттернов. Крайне маловероятно, что GPT-3 похожа на то, как естественный отбор создал людей.

[Ngo][11:44]

С последним я соглашусь. Но это и есть одна из причин, почему я заявил, что ИИ может быть умнее людей, будучи менее агентным, ведь есть систематические различия между тем, как естественный отбор создал людей, и тем, как мы обучаем ИИ.

[Yudkowsky][11:45]

Я подозреваю, что просто “Больше Слоёв” будет недостаточно, чтобы привести нас к GPT-6, являющейся настоящим СИИ; потому, что GPT-3, по твоей терминологии, не агентна, и, по моей терминологии, градиентный спуск от GPT-3 не обнаружит достаточно глубоких шаблонов решения задач.

[Ngo][11:46]

Окей, это помогло мне лучше понять твою позицию.

Есть одно важное различие между людьми и нейросетями: у людей есть проблема низкой пропускной способности генома, что означает, что каждый индивид должен перевывести знания о мире, которые уже были у его родителей. Если бы это ограничение не было таким жёстким, отдельные люди были бы значительно менее способны к решению новых задач.

[Yudkowsky][11:50]

Согласен.

[Ngo][11:50]

В моей терминологии, это причина, по которой люди “более агентны”, чем были бы иначе.

[Yudkowsky][11:50]

Звучит бесспорно.

[Ngo][11:51]

Другое важное различие: обучение людей проходило в условиях, где нам надо было целыми днями заниматься выживанием, а не решать математические задачи и тому подобное.

[Yudkowsky][11:51]

Я продолжаю кивать.

[Ngo][11:52]

Предположим, я соглашусь, что достижение некоторого уровня интеллекта потребует у ИИ “глубоких паттернов решения задач”, о которых ты говоришь, и поэтому ИИ будет пытаться достичь целей в реальном мире. Всё ещё кажется, что может быть много пространства между этим уровнем интеллекта и человеческим.

И если так, то можно создать ИИ, который поможет нам решить задачу согласования до ИИ с достаточно глубокими паттернами решения задач для того чтобы задумать захватить мир.

А ещё причина, по которой люди хотят захватить мир, кажется не связанной с глубинными фактами про наш интеллект. Скорее мне видится, что люди хотят захватить мир в основном потому, что это очень похоже на штуки, для которых мы эволюционировали (вроде захвата власти в племени).

[Yudkowsky][11:57]

Вот часть, с которой я соглашусь: если бы была одна теорема, лишь слегка за пределами человеческих возможностей, вроде гипотезы-ABC (если ты не считаешь её уже доказанной), и получение машинно-читаемого доказательства этой теоремы немедленно спасало бы мир – скажем, инопланетяне дали бы нам согласованный суперинтеллект, как только мы дадим им это доказательство – тогда существовал бы правдоподобный, хоть и не очень надёжный путь к спасению мира через попытку создать поверхностный разум для доказательства гипотезы-ABC, запомнивший через игру с самим собой кучу относительно поверхностных шаблонов математических доказательств, но так и не дошедший до человеческих уровней математической абстракции, просто обладающий достаточным объёмом памяти и глубиной поиска для этой задачи. Для ясности – я не уверен, что это могло бы сработать. Но моя модель интеллекта не отвергает такой возможности.

[Ngo][11:58]

(Я скорее думал о разуме, который понимает математику глубже, чем люди – но только математику, или, может, ещё некоторые науки.)

[Yudkowsky][12:00]

Части, с которыми я не согласен: что “помоги нам решить согласование” в достаточной степени похоже на “предоставь нам машинно-читаемое доказательство гипотезы-ABC, не думая о ней слишком глубоко”. Что люди хотят захватить мир только потому, что это напоминает штуки, для которых мы эволюционировали.

[Ngo][12:01]

Я определённо согласен, что люди хотят захватить мир не только потому, что это напоминает штуки, для которых мы эволюционировали.

[Yudkowsky][12:02]

Увы, но отбрасывание 5 причин, почему что-то пойдёт не так, не слишком поможет, если есть 2 оставшиеся причины, от которых куда сложнее избавиться.

[Ngo][12:02]

Но если мы представим интеллект человеческого уровня, который не эволюционировал для штук, напоминающих захват мира, то я ожидаю, что мы могли бы довольно безопасно задавать ему вопросы.

И что это также верно для интеллекта заметно выше человеческого уровня.

Так что вопрос: насколько выше человеческого уровня мы можем забраться прежде, чем система, обученная только штукам вроде ответов на вопросы и пониманию мира, решит захватить мир?

[Yudkowsky][12:04]

Я думаю, что это один из редких случаев, когда разрыв в интеллекте между “деревенским дурачком” и “Эйнштейном”, который я обычно считаю очень узким, имеет важное значение! Я думаю, ты можешь получать выводы от СИИ-уровня-деревенского-дурачка, обученного исключительно на математике, и это навееееерное не уничтожит мир (если ты не ошибаешься, с чем имеешь дело). Уровень Эйнштейна беспокоит меня куда больше.

[Ngo][12:05]

Давай тогда сосредоточимся на уровне Эйнштейна.

Человеческий мозг довольно слабо оптимизирован для занятия наукой.

Можно предположить, что создать ИИ, который занимается наукой на уровне-Эйнштейна значительно проще, чем создать ИИ, который захватывает мир на уровне-Эйнштейна (или делает что-то ещё, для чего эволюционировали люди).

[Yudkowsky][12:08]

Я думаю, что соглашусь с буквальной истинностью сказанного в некотором широком смысле. Но ты будешь систематически переоценивать, насколько проще, или как далеко ты можешь продвинуть научную часть, не получив захватывающую мир часть, пока твоя модель игнорирует, сколько между ними общего.

[Ngo][12:08]

Тогда, может, самое время рассмотреть детали того, что между ними общего.

[Yudkowsky][12:09][12:11]][12:13]

Мне кажется, у меня не очень получалось объяснить это в прошлые разы. Не тебе, другим людям.

Есть поверхностные темы, вроде того, почему философские зомби не могут существовать, и как работает квантовая механика, и почему наука должна использовать функции правдоподобия вместо p-критериев, и я едва могу объяснить их некоторым людям. А есть вещи, которые объяснить намного сложнее, они находятся за пределами моих способностей к объяснениям.

Поэтому я пытаюсь указать, что даже если ты не знаешь конкретики, ты можешь признать существование искажения твоей оценки.

Конечно, я не был очень успешен и говоря людям “Ну, даже если ты не знаешь правды про X, которая позволила бы тебе увидеть Y, разве не понятно тебе из абстрактных размышлений, что любая правда о X предсказуемо сдвинет твои убеждения в сторону Y?”, люди, кажется, такое не очень понимают. Не ты, в других дискуссиях.

[Ngo][12:10][12:11][12:13]

Осмысленно. Могу ли я сделать это проще? Например, могу попробовать изложить то, как я вижу твою позицию.

Учитывая то, что ты сказал, я не очень рассчитываю, что это сильно поможет.

Но раз уж это основные источники твоих заявлений, стоит попробовать.

Другой подход – сосредоточиться на предсказаниях развития способностей ИИ в ближайшие пять лет.

Я приму твоё предупреждение про искажение оценки. Мне кажется, что есть и обратное искажение от того, что, пока мы не знаем механизмы работы разных человеческих способностей, мы склонны представлять их одной и той же штукой.

[Yudkowsky][12:14]

Ага. Если не знать про зрительную кору и слуховую кору, или про глаза и уши, то можно было бы предположить, что любое сознание невозможно без зрения и слуха.

[Ngo][12:16]

Так что моя позиция такая: люди преследуют цели из-за эволюционно вложенных эмоций и сигналов подкрепления, и без них мы были бы куда безопаснее, но не особо хуже в распознавании паттернов.

[Yudkowsky][12:17]

Если бы было ключевое действие, которое можно выполнить с помощью всего лишь сверхчеловеческого распознавания паттернов, это точно так же как “ключевое действие только из математики” мгновенно стало бы основным направлением разработок.

[Ngo][12:18]

Мне кажется, что математика куда в большей степени про распознавание паттернов, чем, скажем, управление компанией. Управление компанией требует последовательности на протяжении длительных промежутков времени, долговременной памяти, мотивации, осознанности, и т.д.

[Yudkowsky][12:18][12:23]

(Одно направление исследований можно было приблизительно описать как “как насчёт ключевого действия, состоящего исключительно из предсказания текста”, и моим ответом было “вы пытаетесь получить полноценные способности СИИ, предсказывая текст про глубокое/“агентное“ мышление, так что это ничем не лучше”.)

Человеческая математика очень даже про достижение целей. Люди хотят доказать леммы, чтобы потом доказать теоремы. Может и можно создать не такого математика, чья опасная непонятная часть, состоящая из векторов вещественных чисел, действует скорее как GPT-3. Но и тогда снаружи потребуется что-то больше похожее на Alpha-Zero для выбора направления поиска.

Возможно, эта наружная оболочка может быть достаточно мощной и не будучи рефлексивной. Так что правдоподобно, что куда проще создать математика, способного к сверхчеловеческому доказательству теорем, но не агентного. Реальность может сказать нам “лол, нет”, но моя модель интеллекта её не обязывает. Поэтому, если ты дашь мне ключевое действие, состоящее исключительно из “вывести машиночитаемое доказательство такой-то теоремы, и мир спасён”, то я бы выбрал его! Это и правда выглядит куда проще!

[Ngo][12:21][12:25]

Окей, попробую перефразировать твой аргумент:

Твоя позиция: существует фундаментальное сходство между задачами вроде математики, исследования согласования и захвата мира. Для того, чтобы хорошо обучиться чему-то из этого, агенту, основанному на чём-то похожем на современное машинное обучение, надо будет усвоить глубокие паттерны решения задач, включающие мышление, ориентированное на достижение целей. Так что хоть и возможно превзойти людей в какой-то одной из этих задач без этих общих компетенций, люди обычно переоценивают степень, в которой это возможно.

[Yudkowsky][12:25]

Напомню, я беспокоюсь в основном о том, что произойдёт первым, особенно если это произойдёт достаточно скоро, чтобы этот будущий СИИ был хоть сколько-нибудь похож на современные системы машинного обучения. Не о том, что возможно в принципе.

[Soares][12:26]

(Замечу: прошло 85 минут, мы планировали перерыв через 90, так что сейчас, кажется, подходящий момент, чтобы ещё немного прояснить резюмирование Ричарда перед перерывом)

[Ngo][12:26]

Я исправлю на, скажем, “правдоподобно для техник машинного обучения?”

(и “степень, в которой это правдоподобно”)

[Yudkowsky][12:28]

Я думаю, что очевидное-для-меня будущее развитие современных парадигм ML по дороге к значительно сверхчеловеческому X крайне вероятно придёт к обобщениям, приводящим к захвату мира. Насколько быстро это произойдёт, зависит от X. Правдоподобно, что это произойдёт относительно медленно, если взять как X доказательство теорем, использовать архитектуру, запоминающую осторожным градиентным спуском сеть поверхностных архитектур для распознавания паттернов, и убрать часть, отвечающую за поиск (типа того, это не безопасно в общем, это не универсальная формула для безопасных штук). Медленнее, чем если ввести что-то вроде генетического бутылочного горлышка, на которое ты правильно указал, как на причину, почему люди научились обобщать. Выгодные X и любые X, которые я могу представить подходящими для спасения мира, кажутся куда более проблематичными.

[Ngo][12:30]

Окей, с удовольствием возьму перерыв сейчас.

[Soares][12:30]

Как раз вовремя!

[Ngo][12:30]

Мы можем потом немного пообсуждать на метауровне; у меня возник порыв удариться в вопрос о том, насколько Элиезер считает исследования согласования похожими на доказательства теорем.

[Yudkowsky][12:30]

Ага. У меня сейчас полдник (на самом деле, первая еда за день на 600-калорийной диете), так что я могу вернуться через 45 минут, если тебе это подходит.

[Ngo][12:31]

Конечно.

Ещё, если нас читают в реальном времени, и у вас есть предложения или комментарии, мне было бы интересно их выслушать.

[Yudkowsky][12:31]

Я тоже приветствую предложения и комментарии от наблюдателей во время перерыва.

[Soares][12:32]

Звучит неплохо. Я объявляю перерыв на 45 минут, после чего мы продолжим (по умолчанию на ещё 90).

Открыты к предложениям и комментариям.

Требования для науки

[Yudkowsky][12:50]

Я освобожусь пораньше, если всем (в основном Ричарду) удобно, можно продолжить через 10 минут (после 30 минут перерыва)

[Ngo][12:51]

Да, с удовольствием

[Soares][12:57]

Немного быстрых комментариев от меня:

  • Мне кажется, главный камень преткновения тут что-то вроде “стоит ли ожидать, что системы, способные к исполнению ключевого действия, будут, по умолчанию, без значительных технических усилий по согласованию, использовать свой вывод для оптимизации будущего”.
  • Мне любопытно, согласитесь ли вы, что он именно такой (но плз не отвлекайтесь слишком на ответы мне.)
  • Мне нравится, как идёт обсуждение в целом.
    • В частности, ура-ура за отчётливые аккуратные усилия по сосредоточению на ключевых моментах.

[Ngo][13:00]

Я думаю, что таков камень преткновения для конкретного ключевого действия “лучше исследовать согласование”, и может, ещё некоторых, но не для всех (и не обязательно большинства)

[Yudkowsky][13:01]

Мне стоит явно сказать, что я немного работал с Аджейей, пытаясь передать понимание того, почему склонны выучиваться глубокие обобщённые паттерны, для чего пришлось рассмотреть кучу вопросов. Это научило меня тому, сколько вопросов приходится рассматривать, и из-за этого я теперь относительно менее охотно пытаюсь перерассмотреть те же вопросы тут.

[Ngo][13:02]

Пара вещей, о которых я хотел бы спросить Элиезера в дальнейшем:

  • Чем наиболее полезные для исследования согласования задачи похожи и чем различаются с доказательством математических теорем (которое, как мы согласились, может довольно медленно обобщаться до захвата мира)?
  • Что из себя представляют стоящие за этими задачами глубокие паттерны?
  • Можешь ли ты пересказать мою позицию?

Я собирался заявить, что второй пункт кажется самым перспективным для вынесения идей на публику.

Но раз это всё равно произойдёт благодаря работе с Аджейей, то не так уж важно.

[Yudkowsky][13:03]

Я всё равно могу быстренько попробовать и посмотреть, как получится.

[Ngo][13:03]

Выглядит полезно, если тебе хочется.

В то же время, я попробую просуммировать мои собственные относящиеся к делу интуитивные рассуждения об интеллекте.

[Yudkowsky][13:04]

Я не уверен, что я смогу пересказать твою позицию в не-соломенном виде. Для меня есть огромное видимое различие между “решать для нас согласование” и “выводить машинно-читаемые доказательства теорем”, и я не могу толком понять, почему ты считаешь, что рассуждения о втором скажут нам что-то важное про первое. Я не знаю и какое ещё ключевое действие по твоему мнению может быть проще.

[Ngo][13:06]

Вижу. Я рассматривал “решать научные задачи” как альтернативу для “доказывать теоремы”, ведь согласование – это (особенно сложный) пример научной задачи.

Но решил начать с обсуждения доказательства теорем, поскольку это выглядит яснее.

[Yudkowsky][13:07]

Можешь ли ты предсказать заранее, почему Элиезер считает “решать научные задачи” значительно более рискованным случаем? (А согласование – это точно не “особенно сложный пример научной проблемы”, кроме как разве что в смысле того, что в нём вообще есть какая-то наука; возможно, именно это настоящий камень преткновения; и это более сложная тема)

[Ngo][13:09]

Основываясь на твоих предыдущих комментариях, я сейчас предсказываю, что ты думаешь, что шаг, на котором решения должны стать понятными и оцениваемыми людьми, делает науку более рискованным случаем, чем доказательство теорем, в котором решения можно проверять автоматически.

[Yudkowsky][13:10]

Это один из факторов. Следует ли мне выложить основной, или лучше ты сам попробуешь его сформулировать?

[Ngo][13:10]

Требование многих знаний о реальном мире для науки?

Если не то, то выкладывай.

[Yudkowsky][13:11]

Это возможная формулировка. Я обычно формулирую через формулирование гипотез о реальном мире.

Как бы в этом тогда и есть задача ИИ.

Фактор 3: Многие интерпретации занятий наукой требуют придумывания экспериментов. Это включает в себя планирование, придание информации ценности, поиск способов проведения эксперимента для различения гипотез (что означает поиск начальных условий, приводящих к определённым последствиям).

[Ngo][13:12]

Для меня “моделирование реального мира” – это довольно плавный параметр. На одном конце мы имеем физические уравнения, которые едва отличимы от математических задач, а на другом что-то делающих людей с физическими телами.

Для меня выглядит правдоподобным создание агента, который будет решать научные задачи, но будет слабо осведомлён о себе (в смысле знания, что он ИИ, что он обучен, и т.д.).

Я ожидаю, что твой ответ будет о том, что моделирование себя – это один из глубоких паттернов решения задач, которые скорее всего будут у СИИ.

[Yudkowsky][13:15]

Перед сознанием-занимающимся-наукой стоит задача выяснения причин сенсорного опыта. (Она, на самом деле, встаёт и при человеческих занятиях математикой, и, возможно, неотделима от математики в целом; но это скорее говорит: “Упс, кажется, вы получили всё же науку” - а не что наука менее опасна, потому что похожа на математику.)

Ты можешь создать ИИ, который водит только красные машины, и которому никогда не приходилось водить синие. Это не означает, что его способности вождения-красных-машин не окажутся чрезвычайно близки к способностям вождения-синих-машин, если в какой-то момент внутренние рассуждения направятся на задачу вождения синей машины.

Факт существования глубокого паттерна вождения-машин, общего для красных и синих машин, не означает, что ИИ обязательно водил синие машины, или что ему обязательно водить синие машины, чтобы научиться водить красные. Но если синие машины – это огонь, то ты точно играешь с этим огнём.

[Ngo][13:18]

Для меня “сенсорный опыт” как “видео и аудио, приходящее от тела, которым я управляю” и “сенсорный опыт” как “файл, содержащий последние результаты от Большого Адронного Коллайдера” довольно сильно различаются.

(Я не говорю, что второго хватит для обучения ИИ-учёного, но, возможно, хватит чего-то, что ближе к второму, чем к первому)

[Yudkowsky][13:19]

Обязательно ли СИИ нужно моделировать себя в мире, чтобы заниматься наукой” и “не создали ли мы что-то, что может наткнуться на моделирование себя из-за случайности, произошедшей где-то в непонятных векторах чисел, особенно если это окажется хоть чуть-чуть полезно для решения внешних задач” – это два отдельных вопроса.

[Ngo][13:19]

Хмм, понимаю

[Yudkowsky][13:20][13:21][13:21]

Если попробовать создать ИИ, который занимается наукой буквально только через сбор наблюдений и никак каузально не связан с этими наблюдениями, то это, пожалуй, “опаснее математики, но может и менее опасно, чем активная наука”.

Всё ещё можно будет наткнуться на активного учёного, потому что это окажется простым внутренним решением для чего-нибудь, но внешняя задача будет лишена этого важного структурного свойства так же, как и чистая математика, не описывающая настоящие земные объекты.

И, конечно, моя реакция будет: “Нет ключевого действия, использующего только такие когнитивные способности.”

[Ngo][13:20][13:21][13:26]

Моя (довольно уверенная) априорная догадка такова, что что-то вроде самомоделирования, которое очень глубоко встроено в почти любой организм, это очень сложная (при отсутствии значительного оптимизационного давления в этом направлении) для случайного натыкания ИИ штука.

Но я не уверен, как это обосновать, кроме как вкапываясь в твои взгляды на то, чем являются глубокие паттерны решения задач. Так что, если ты всё ещё хочешь быстро попробовать это объяснить, было бы полезно.

“Каузальная связь” опять же выглядит плавным параметром – кажется, что количество связи, необходимое для науки, куда меньше, чем, скажем, для управления компанией.

[Yudkowsky][13:26]

Ключевая штука, кажется – не столько количество, сколько внутреннее устройство, необходимое для неё.

[Ngo][13:27]

Согласен.

[Yudkowsky][13:27]

Если ты вернёшься во времени в 16-й век и захочешь получить всего одну дозу mRNA-вакцины, это не особо отличается от получения миллиона сотни.

[Ngo][13:28]

Ладно, тогда дополнительная используемая мной предпосылка в том, что способность рассуждать о каузальном влиянии на мир для достижения целей – это что-то, чего можно иметь всего чуть-чуть.

Или много, и зависеть это может от обучающих данных.

Я ожидаю, что с этим ты не согласишься.

[Yudkowsky][13:29]

Если ты сведёшь ключевое действие к “просмотри данные от этого адронного коллайдера, который ты не строил и не запускал”, то это действительно важный шаг от “занимайся наукой” или “создай наносистемы”. Но я не вижу таких ключевых действий, так что так ли это важно?

Если есть промежуточные шаги, можно их описать как “мышление о каузальном воздействии только в этой заранее заданной, не изученной в общем области, в отдельной части когнитивной архитектуры, отделяемой от всех остальных частей”.

[Ngo][13:31]

Может, по-другому можно сформулировать как то, что у агента есть поверхностное понимание того, как оказывать влияние.

[Yudkowsky][13:31]

Что для тебя “поверхностное”?

[Ngo][13:31]

В духе того, как ты утверждаешь, что у GPT-3 есть поверхностное понимание языка.

[Yudkowsky][13:32]

То есть, он запомнил кучу поверхностных паттернов оказания-каузального-воздействия из большого набора данных, и это может быть подтверждено, например, предоставлением ему случая из-за пределов этого набора и наблюдением за тем, как он проваливается. Что, как мы думаем, подтвердит нашу гипотезу о том, что он не научился из набора данных глубоким обобщениям.

[Ngo][13:33]

Грубо говоря, да.

[Yudkowsky][13:34]

К примеру, нас совсем бы не удивило, если бы GPT-4 научился предсказывать “27 * 18”, но не “какова площадь прямоугольника 27 метров на 18 метров”… хотел бы я сказать, но Codex уверенно продемонстрировал, что от одного до другого довольно-таки близко.

[Ngo][13:34]

Один способ, как это можно было бы сделать: представь агента, быстро теряющего связность действий, когда он пытается действовать в мире.

К примеру, мы натренировали его проводить научные эксперименты, длящиеся несколько часов или дней.

И он очень хорош в понимании экспериментальных данных и вычленении из них паттернов

Но если его запустить на неделю или месяц, то он теряет связность похожим образом на то, как GTP-3 теряет связность, т.е. забывает, что он делает.

Как это так получилось: есть специфический навык обладания долговременной памятью, и мы никогда не тренировали агента в этом навыке, вот он его и не приобрёл (хоть он и может очень мощно и обобщённо рассуждать в короткие промежутки времени).

Это кажется схожим с моим аргументом о том, как агент может не моделировать себя, если мы его специально на это не тренировали.

[Yudkowsky][13:39]

Есть набор очевидных для меня тактик для осуществления ключевого действия с минимальной опасностью (я не думаю, что они делают задачу безопасной), и одна из них это, действительно “Ограничить ‘окно внимания“ или какой-нибудь ещё внутренний параметр, повышать его медленно и не повышать выше необходимого для решения задачи.”

[Ngo][13:41]

Это можно делать вручную, но я ожидаю, что это может быть сделано автоматически, через обучение агентов в окружении, где они не будут получать выгоду от длительного поддержания внимания.

[Yudkowsky][13:42]

(Каждый раз, когда кто-нибудь достаточно осторожный представляет тактику такого рода, он должен представить множество способов, которыми всё может пойти не так; к примеру, если в предоставленных данных или внутреннем состоянии агента есть что-то, зависящее от прошлых событий таким образом, что оно выдаёт о них информацию. Но, в зависимости от того, насколько суперинтеллектуальны иные части, иногда может и прокатить.)

[Ngo][13:43]

И если ты поместишь агентов в окружения, где им надо отвечать на вопросы, не особо взаимодействую с внешним миром, то у них не будет множества качеств, необходимых для достижения целей в реальном мире, потому что они не будут получать особого преимущества от оптимизации этих качеств.

[Yudkowsky][13:43]

Замечу, что TransformerXL обобщил своё окно внимания, он был натренирован на, кажется, 380 токенов или около того, а потом оказалось, что оно у него около 4000 токенов.

[Ngo][13:43]

Ага, обобщение на порядок меня не удивляет.

[Yudkowsky][13:44]

Наблюдав обобщение на один порядок, я лично теперь не удивился бы и двум.

[Ngo][13:45]

Я был бы несколько удивлён, но, полагаю, такое случается.

Настройка возможностей

[Yudkowsky][13:46]

Мне кажется, это всё крутится вокруг вопроса “Но что ты сделаешь с настолько ослабленным интеллектом?”. Если ты можешь спасти мир с помощью булыжника, я могу тебе обеспечить очень безопасный булыжник.

[Ngo][13:46]

Верно.

До сих пор я говорил “исследование согласования”, но был не очень конкретен.

Я полагаю, что тут должен быть контекст того, что первые вещи, которые мы делаем с таким интеллектом, это улучшаем общее благосостояние, продвигаем науку, и т.д.

И после этого мы в мире, где люди воспринимают перспективу СИИ куда серьёзнее

[Yudkowsky][13:48]

Я в целом ожидаю – хотя с какими-то шансами реальность может сказать: “Ну и что?” и удивить меня, это не настолько твёрдо определено как многие другие штуки – что у нас не будет длинной фазы “странного СИИ ~человеческого уровня” перед фазой “если ты разгонишь этот СИИ, он уничтожит мир”. Говоря в числах, скажем, меньше пяти лет.

Меня совершенно не удивит, если мир закончится до того, как беспилотные автомобили станут продаваться на массовом рынке. В некоторых вполне правдоподобных сценариях, которым я сейчас приписываю >50% вероятности, компании, разрабатывающие СИИ, смогут предоставить прототипы управляющего автомобилем ИИ, если потратят на это время, и это будет близкий-к-концу-света уровень технологий; но будет Много Очень Серьёзных Вопросов о свободном выпускании на дороги этого относительно нового недоказанного достижения машинного обучения. И их технология СИИ уже будет иметь свойство “можно разогнать до уничтожения мира” до того, как Земля получит свойство “беспилотные автомобили разрешены на массовом рынке”, просто потому, что на это не хватит времени.

[Ngo][13:52]

Тогда я ожидаю, что другая штука, которую можно сделать – это собрать очень большой объём данных, вознаграждающий ИИ за следование указаниям людей.

[Yudkowsky][13:52]

В других сценариях, конечно, беспилотное вождение становится возможным с ограниченным ИИ задолго до прорыва к СИИ. И в некоторых сценариях СИИ будет получен с помощью прорыва в чём-то уже довольно быстро масштабируемом, так что к моменту, или вскоре после него, когда технологию можно будет использовать для беспилотных автомобилей, она уже уничтожит мир по повороту рубильника.

[Ngo][13:53]

Когда ты говоришь о “разгонке СИИ”, что ты имеешь в виду?

Использовать больше вычислительных мощностей на тех же данных?

[Yudkowsky][13:53]

Запустить с увеличенными границами циклов for, или наибольшем количестве GPU, если точнее.

[Ngo][13:53]

В режиме обучения с подкреплением, или обучении с учителем, или без учителя?

Ещё: можно поподробнее про циклы for?

[Yudkowsky][13:56]

Я не думаю, что просто градиентный спуск на Большем Количестве Слоёв – как, скажем, сделали OpenAI с GPT-3, в противоположность Deepmind, которые создают более сложные артефакты вроде Mu Zero или AlphaFold 2, будет первым путём, который приведёт к СИИ. Я избегаю письменно высказывать предположения об умных путях к СИИ, и, я думаю, любой умный человек, если он действительно умный, а не просто приукрашенно-глупый, не будет говорить о том, чего, как ему кажется, не хватает в стратегии Большего Количества Слоёв или как на самом деле можно получить СИИ. С учётом этого, то, что нельзя просто запустить GPT-3 с большей глубиной поиска так, как можно с Mu Zero – это часть того, почему я считаю, что СИИ маловероятно будет устроен в точности как GPT-3; штука, которая нас всех убьёт, скорее будет чем-то, становящимся опаснее, если провернуть его рубильник, не чем-то, в чём в принципе нет рубильников, делающих это более опасным.

Консеквенциалистские цели против деонтологических целей

[Ngo][13:59]

Хм-м-м, окей. Давай быстренько вернёмся назад и подумаем, что полезного было в последние полчаса.

Я хочу отметить, что мои интуитивные рассуждения о ключевых действиях не очень конкретны; я довольно неуверен в том, как работает в такой ситуации геополитика, и в промежутке времени между СИИ-примерно-рядом-с-человеческим-уровнем и СИИ, предоставляющим экзистенциальные риски.

Так что мы можем продолжить обсуждать это, но я ожидаю, что буду часто говорить “ну, мы не можем исключить, что произойдёт X”, что, наверное, не самый продуктивный вид дискуссии.

Другой вариант – повкапываться в твои рассуждения о том, как работает мышление.

[Yudkowsky][14:03]

Ну, очевидно, в предельном случае, когда согласование недоступно нашей цивилизации, получится, что я успешно построил более благосклонную модель, всё же правильно отвергающую возможность успешного согласования для нашей цивилизации. В этом случае, я мог бы потратить короткий остаток своей жизни, споря с людьми, чьи модели достаточно благосклонны, чтобы включать невежество в какой-то области, из которой следует, что согласовать ничего не получится. Но предсказуемо именно так идут обсуждения на возможных мирах, где Земля обречена; так что кто-то помудрее на мета-уровне, будучи всё ещё невежественным на объектном уровне, предпочёл бы спросить: “Где, как ты думаешь, твоё знание, а не твоё невежество, говорит, что согласование должно быть осуществимым, и ты бы удивился, если бы оно не было?”.

[Ngo][14:07]

Справедливо. Хотя, кажется, концепция “ключевого действия” строится на обречённости по умолчанию.

[Yudkowsky][14:08]

Можно поговорить об этом, если тебе кажется, что это важно. Хотя я не думаю, что это обсуждение закончится за один день, так что, может, для удобства публикации нам стоит попробовать сфокусироваться на одной линии дискуссии?

Но мне кажется, что оптимизм многих людей основан на предположении, что мир можно спасти с помощью наименее опасных применений СИИ. Так что это большое ключевое расхождение в предпосылках.

[Ngo][14:09]

Согласен, что одна линия дискуссии лучше; готов сейчас принять концепцию ключевого действия.

Третий вариант в том, что я выскажу, как по-моему работает мышление, и посмотрим, насколько ты согласишься.

[Yudkowsky][14:12]

(Повторюсь, причина, по которой я не пишу “вот мои соображения, как работает мышление” в том, что прошлый опыт показал мне, что передача этой информации Другому Разуму, чтобы он мог её воспринять и ею оперировать, весьма сложна для моей текущей способности На Самом Деле Объяснять Что-Либо; такие вещи требуют долгих обсуждений и последующих домашних заданий, чтобы понять, как одна и та же структура возникает в разных случаях, в противоположность просто безрезультатному получению этого знания в готовом виде, и я пока не придумал подходящее домашнее задание.)

С радостью выслушаю твои заявления о мышлении и не соглашусь с ними.

[Ngo][14:12]

Отлично.

Окей, первое утверждение в том, что нечто вроде деонтологии – это довольно естественный способ работы разума.

[Yudkowsky][14:14]

(“Если бы это было так”, - подумал он, - “бюрократия и многотомные инструкции были бы куда эффективнее, чем на самом деле”)

[Ngo][14:14]

Хмм, наверно это была не лучшая формулировка, дай подумать, как сказать по другому.

Ладно, в нашей ранней дискуссии по email мы говорили о концепции “послушания”.

Мне кажется, что для разума столь же естественно иметь “послушание” в качестве приблизительной цели, как и максимизацию скрепок.

Если мы представим обучение агента на большом объёме данных, которые указывают в приблизительном направлении вознаграждения послушания, к примеру, то я представляю, что по умолчанию послушание будет ограничением, сравнимым с, скажем, человеческим инстинктом самосохранения.

(Который, очевидно, не настолько силён, чтобы остановить людей от кучи штук, которые ему противоречат – но всё равно это неплохое начало.)

[Yudkowsky][14:18]

Ха. Ты хотел сказать, сравнимым с человеческим инстинктом явной оптимизации совокупной генетической приспособленности?

[Ngo][14:19]

Генетическая приспособленность не была для наших предков понятной концепцией, так что, конечно, они не были направлены прямо на неё.

(И они не понимали, как её достичь)

[Yudkowsky][14:19]

Даже так, если ты не ожидаешь, вопреки общему мнению, что градиентный спуск будет работать совсем не так, как генная оптимизация, то суровая оптимизация X даст тебе лишь что-то, коррелировавшее с X в контексте обучения.

Это, конечно, одна из Больших Фундаментальных Проблем, которых я ожидаю в согласовании.

[Ngo][14:20]

Ладно, главный коррелят, обсуждения которого я встречал, это “делать то, что заставит человека поставить тебе высокую оценку, не то, чего он на самом деле хочет”

Мне любопытно, насколько ты обеспокоен этим конкретным коррелятом по сравнению с коррелятами в целом.

[Yudkowsky][14:21]

Ещё я вижу структурные причины, по которым натренировать на скрепки куда проще, чем на “послушание”. Даже если бы мы могли магически внушить простые внутренние желания, идеально отражающие простой внешний алгоритм, мы всё равно исполняем много отдельных экземпляров награждающей функции.

[Ngo][14:22]

Интересно было бы об этом послушать.

[Yudkowsky][14:22]

Ну, в первую очередь, почему книга с инструкциями настолько менее удобна и естественна, чем поведение охотника-собирателя?

ну знаешь, если деонтология столь же хороша, как консеквенциализм

(попробуешь ответить, или просто сказать?)

[Ngo][14:23]

Валяй

Мне, наверное, стоит прояснить, что я согласен, что нельзя просто заменить консеквенциализм деонтологией

Я скорее заявляю вот что: когда речь идёт о высокоуровневых концептах, мне не ясно, почему высокоуровневые консеквенциалистские цели естественнее высокоуровневых деонтологических целей.

[Yudkowsky][14:24]

Я отвечу, что реальность сложная, так что, когда ты пытаешься достичь в ней простой цели, ты получаешь сложное поведение. Если думать о реальности как о сложной функции Ввод->Вероятность(Вывод), то даже для простого Вывода, или простого набора Выводов, или высокого ожидаемого значения какой-нибудь простой функции от Вывода, может потребоваться очень сложный Ввод.

Люди не доверяют друг другу. Они представляют: “Ну, если я просто дам этому бюрократу цель, то он не будет честно рассуждать о том, чего будет стоить её достижение! О, нет! Потому, вместо этого, я, будучи аккуратным и достойным доверия человеком, сам придумаю ограничения и требования для действий бюрократа, такие, что я ожидаю, что, если он будет им следовать, результат его действий будет таким, как мне хочется.”

Но (в сравнении с сильным интеллектом, который наблюдает и моделирует сложную реальность и сам выбирает действия) действительно эффективная книга инструкций (исполняемая неким нечеловеческим разумом с достаточно большой и точной памятью, чтобы её запомнить) будет включать огромное (физически невозможное) количество правил “наблюдая то, делай это” для всех заковырок сложной реальности, которые можно выяснить из наблюдений.

[Ngo][14:28]

(Повторюсь, причина, по которой я не пишу “вот мои соображения как работает мышление” в том, что прошлый опыт показал мне, что передача этой информации Другому Разуму, чтобы он мог её воспринять и ею оперировать, весьма сложна для моей текущей способности На Самом Деле Объяснять Что-Либо; такие вещи требуют долгих обсуждений и последующих домашних заданий, чтобы понять, как одна и та же структура возникает в разных случаях, в противоположность просто безрезультатному получению этого знания в готовом виде, и я пока не придумал подходящее домашнее задание.)

(Отойдя от темы: нет хотя бы грубой оценки, когда твоя работа с Аджейей станет достоянием публики? Если ещё нескоро, то, может, полезно всё же выложить приблизительное описание этих соображений, пусть даже и в форме, в которой мало кто сможет их усвоить)

[Yudkowsky][14:30]

(Отойдя от темы: нет хотя бы грубой оценки, когда твоя работа с Аджейей станет достоянием публики? Если ещё нескоро, то, может, полезно всё же выложить приблизительное описание этих соображений, пусть даже и в форме, в которой мало кто сможет их усвоить)

Готов поверить в полезность, но, наверное, не сегодня?

[Ngo][14:30]

Согласен.

[Yudkowsky][14:30]

(Мы сейчас заходим за установленное время, мне нормально, но у тебя 11:30 (вроде), так что прервёмся, когда скажешь.)

[Ngo][14:32]

Да, 11:30. Я думаю, лучше всего прерваться тут. Я согласен с тем, что ты сказал про сложность реальности и с тем, что поэтому консеквенциализм ценнее. Моё заявление про “деонтологию” (бывшее в изначальной формулировке слишком общим, приношу извинения за это) было призвано прощупать твои соображения о том, какие типы мышления естественны или неестественны. Мне кажется, мы много ходили кругами вокруг этой темы.

[Yudkowsky][14:33]

Ага, и возобновить, наверное, стоит с того, почему я считаю “послушание” неестественным по сравнению с “скрепками” концептом – хоть это, наверное, и потребует затронуть тему того, что стоит за поверхностными умениями.

[Ngo][14:34]

Верно. Я думаю, что даже расплывчатое указание на это было бы довольно полезным (если этого пока нет онлайн?)

[Yudkowsky][14:34]

Насколько я знаю, пока нет, и я не хочу перенаправлять тебя на материалы Аджейи, даже если её это устраивает, потому что в таком случае наше обсуждение будет лишено нужного контекста для других.

[Ngo][14:35]

С моей стороны, мне стоит больше подумать о конкретных ключевых действиях, которые я захочу защищать.

В любом случае, спасибо за дискуссию :)

Дай мне знать, если знаешь, когда лучше продолжить; иначе определим это потом.

[Soares][14:37]

(вы тут делаете за меня мою работу)

[Yudkowsky][14:37]

Можно во вторник в то же время – хотя я могу быть не в такой хорошей форме из-за диеты, но стоит попробовать.

[Soares][14:37]

(сойдёт)

[Ngo][14:39]

Вторник не идеален, другие варианты есть?

[Yudkowsky][14:39]

Среда?

[Ngo][14:40]

Да, среда подойдёт

[Yudkowsky][14:40]

Тогда ориентировочно так

[Soares][14:41]

Здорово! Спасибо за разговор.

[Ngo][14:41]

Спасибо!

[Yudkowsky][14:41]

Спасибо, Ричард!

Последующее

Резюмирование Ричарда Нго

[Tallinn][0:35] (6 сентября)

Застрял здесь и хочу поблагодарить Нейта, Элиезера и (особенно) Ричарда, что они это делают! Здорово увидеть модель Элиезера настолько подробно. Я узнал несколько новых штук (как то, что ограничение информации в генах может быть важным фактором в развитии человеческого разума). Стоит добавить, маленький комментарий по деонтологии (пока не забыл): мне кажется, деонтология больше про координацию, чем про оптимизацию: деонтологическим агентам проще доверять, потому что об их действиях куда проще рассуждать (так же, как функциональный/декларативный код проще анализировать, чем императивный). Потому вот мой сильнейший аргумент в пользу бюрократии (и социальных норм): люди просто (и правильно) предпочитают, чтобы другие оптимизаторы (в том числе нечеловеческие) были деонтологическими для лучшего доверия/координации, и согласны платить за это компетенцией.

[Ngo][3:10] (8 сентября)

Спасибо, Яан! Я согласен, что большее доверие – хорошая причина хотеть от агентов, чтобы они на некотором высоком уровне были деонтологическими.

Я попробую просуммировать основные затронутые штуки; комментарии приветствуются: [ссылка на GDocs]

[Ngo] (8 сентября Google Doc)

1-я дискуссия

(В основном обобщения, а не цитаты)

Элиезера, по описанию Ричарда: “Чтобы избежать катастрофы, те, кто первыми создадут СИИ, должны будут а) в какой-то мере его согласовать, б) решить не разгонять его до уровня, на котором их техники согласования перестанут работать, и в) исполнить какое-то ключевое действие, которое помешает всем остальным разогнать его до такого уровня. Но наши техники согласования не будут достаточно хороши наши техники согласования будут очень далеки от подходящих на нашей текущей траектории наши техники согласования будут очень далеки от подходящих для создания ИИ, который безопасно выполнит такое ключевое действие.”

[Yudkowsky][11:05] (8 сентября комментарий)

“не будут достаточно хороши”

Сейчас не на пути к тому, чтобы быть достаточно хорошими, с большим разрывом. “Не будут достаточно хороши” – это буквально объявление о намерении лечь и помереть.

[Yudkowsky][16:03] (9 сентября комментарий)

Будут очень далеки от подходящих

Та же проблема. Я не делаю безусловные предсказания о будущем провале, как предполагает слово “будут”. При условии текущего или соседних с ним курсов, мы будем на порядок отставать от уровня выживания, если не произойдёт какого-нибудь чуда. Но это не предопределено; это всё ещё результат того, что люди будут делать то, что они, кажется, делают, а не неизбежность.

[Ngo][5:10]  (10 сентября комментарий)

А, вижу. Подойдёт ли добавление “на нашей текущей траектории”?

[Yudkowsky][10:46]  (10 сентября комментарий)

Да.

[Ngo] (8 сентября Google Doc)

Ричард, по описанию Ричарда: «Рассмотрим ключевое действие “совершить прорыв в исследовании согласования”. Вероятно, до момента, когда СИИ будет сильно сверхчеловеческим в поиске власти, он будет уже некоторое время сильно сверхчеловеческим в понимании мира и в выполнении ключевых действий вроде исследования согласования, не требующих высокой агентности (под которой я примерно подразумеваю: наличие крупных мотиваций и способность следовать им долгие промежутки времени).»

Элизер, по описанию Ричарда: “Есть глубокая связь между решением интеллектуальных задач и захватом мира – решение задач требует, чтобы мощный разум думал об областях, которые, будучи понятыми, предоставляют опасные когнитивно-доступные стратегии. Даже математические исследования включают в себя задачу постановки и преследования инструментальных целей – и если мозг, эволюционировавший в саванне, может быстро научиться математике, то так же правдоподобно, что ИИ, натренированный на математику, может быстро выучить множество других навыков. Так как почти никто не понимает глубинное сходство мышления, необходиомого для разных задач, расстояние между ИИ, который может проводить научные исследования, и опасно агентным СИИ меньше, чем почти все ожидают.”

[Yudkowsky][11:05] (8 сентября комментарий)

Есть глубокая связь между решением интеллектуальных задач и захватом мира.

По умолчанию есть глубокая связь между обтачиванием каменных топоров и захватом мира, если научиться обтачивать топоры в очень общем виде. “Интеллектуальные” задачи в этом отношении ничем не отличаются. Может и можно избежать положения по умолчанию, но это потребует некоторой работы, и её надо будет выполнить до того, как более простые техники машинного обучения уничтожат мир.

[Ngo] (8 сентября Google Doc)

Ричард, по описанию Ричарда: “Наш недостаток понимания того, как работает интеллект, склоняет нас к предположению, что черты, совместно проявляющиеся у людей, также будут совместными у ИИ. Но человеческий мозг плохо оптимизирован для задач вроде научных исследований и хорошо оптимизирован для поиска власти в окружающем мире, по причине, в том числе:

а) эволюции в жестоком окружении;

б) ограничения пропускной способности генома;

в) социальном окружении, вознаграждающем стремление к власти.

Напротив, нейросети, натренированные на задачи вроде математических или научных исследований, куда меньше оптимизированы для стремления к власти. К примеру, GPT-3 обладает знаниями и способностями к рассуждениям, но при этом обладает низкой агентностью и теряет связность действий на больших промежутках времени.”

[Tallinn][4:19] (8 сентября комментарий)

[хорошо оптимизирован для] поиска власти

Можно посмотреть на межполовые различия (хоть и не хочется полагаться на Пинкера :))

[Yudkowsky][11:31] (8 сентября комментарий)

Я не думаю, что женская версия Элиезера Юдковского не пыталась бы спасти / оптимизировать / захватить мир. Мужчины могут делать это по глупым причинам; умные мужчины и женщины используют одинаковые рассуждения, если они достаточно умны. К примеру, Анна Саламон и многие другие.

[Ngo] (8 сентября Google Doc)

Элиезер, по описанию Ричарда: “Во-первых, есть большая разница между большинством научных исследований и таким родом ключевых действий, о которых мы говорим – тебе потребуется объяснить, как ИИ с тем или иным навыком можно на самом деле использовать, чтобы предотвратить создание опасного ИИ. Во-вторых, GPT-3 обладает низкой агентностью, потому что она запомнила множество поверхностных паттернов таким способом, который непосредственно не масштабируется до обобщённого интеллекта. Интеллект состоит из глубоких паттернов решения задач, что фундаментально связывает его с агентностью.”

Обсуждение 8 сентября

Байка про бразильский университет

[Yudkowsky][11:00]

(Я тут.)

[Ngo][11:01]

Тоже.

[Soares][11:01]

Добро пожаловать!

(Я, в основном, просто не буду мешать.)

[Ngo][11:02]

Круто. Элиезер, ты прочитал резюмирование – и, если да, согласен ли с ним в общих чертах?

Ещё я думал про лучший способ подобраться к твоим соображениям о мышлении. Мне кажется, что начинать с темы про послушание против скрепок, наверное, не так полезно, как с чего-то ещё – к примеру, с определения, которое ты выдал ближе к началу предыдущей дискуссии про «поиск состояний, получающих высокую оценку при скармливании их в функцию результатов, а затем в функцию оценки результатов».

[Yudkowsky][11:06]

Сделал пару комментариев про формулировки.

Итак, с моей перспективы, есть такая проблема, что… довольно сложно учить людей некоторым общим вещам, в противоположность более конкретным. Вроде как, когда пытаются создать вечный двигатель, и хоть ты и убедил их, что первый проект неправильный, они просто придумывают новый, и новый достаточно сложен, что ты не можешь их убедить, что они неправы, потому что они сделали более сложную ошибку и теперь не могут уследить за её обличением.

Учить людей смотреть на стоящую за чем-то структуру часто очень сложно. Ричард Фейнман приводил пример в истории про «Смотрите на воду!», где люди в классе научились тому, что «среда с индексом преломления» должна поляризовать свет, отражённый от неё, но не осознавали, что солнечный свет, отражённый от воды будет поляризован. Моя догадка, что правильно это делается с помощью домашних заданий, и, к сожалению, тут мы в той области, где у меня особый математический талант, также как, например, Марселло талантливее меня в формальном доказательстве теорем. И людям без этого особого таланта приходится делать куда больше упражнений, чем мне, и я не очень понимаю, какие именно упражнения надо им дать.

[Ngo][11:13]

Сочувствую этой проблеме, могу попробовать выйти из скептического спорящего режима и войти в обучащийся режим, если думаешь, что это поможет.

[Yudkowsky][11:14]

Есть общее озарение о коммутативности в арифметике, и некоторым людям достаточно показать, что 1 + 2 = 2 + 1, чтобы они сами обобщили за пределы единицы и двойки и любых других чисел, которые можно туда поместить, и поняли, что строку чисел можно перемешать, и это не поменяет их сумму. Кому-то ещё, обычно детям, нужно показать, как на стол кладут два яблока и одно яблоко в разном порядке, и получается одно и то же число, а потом показать ещё, скажем, сложение купюр разного достоинства, если они не обобщили с яблок на деньги. Я припоминаю, что, когда я был достаточно маленьким ребёнком, я пытался прибавить 3 к 5, считая «5, 6, 7», и думал, что есть достаточно умный способ получить 7, если хорошенько постараться.

Быть в состоянии увидеть «консеквенциализм» это, с моей перспективы, что-то похожее.

[Ngo][11:15]

Другая возможность: можешь ли ты проследить источники этого убеждения, как оно вывелось из предшествующих?

[Yudkowsky][11:15]

Я не знаю, какие упражнения задавать людям, чтобы они смогли увидеть «консеквенциализм» повсюду, а не изобретали немножко отличающиеся формы консеквенциалистского мышления и не заявляли: «Ну, вот это же не консеквенциализм, правильно?».

Формулировка «поиск состояний, получающих высокую оценку при скармливании их в функцию результатов, а затем в функцию оценки результатов» была одной из попыток описать опасную штуку достаточно абстрактным способом, чтобы у людей, может быть, лучше получилось её обобщить.

[Ngo][11:17]

Другая возможность: можешь описать ближайшую к настоящему консеквенциализму штуку в людях, и как мы её получили?

[Yudkowsky][11:18][11:21]

Ок, так, часть проблемы в том… что прежде, чем ты выполнил достаточно упражнений для своего уровня таланта (и я, однажды, был выполнившим слишком мало, чтобы не думать, что может быть умный способ сложить 3 и 5, чтобы получить 7), ты будешь склонен считать, что только очень жёсткая формальная описанная тебе штука – «настоящая».

С чего бы твой двигатель должен подчиняться законам термодинамики. Это же не один из тех двигателей Карно из учебника!

В людях есть фрагменты консеквенциализма, или кусочки, чьё взаимодействие порождает частично неидеальное подобие консеквенциализма, и критично увидеть, что «выводы» людей в некотором смысле «работают» потому, что они подобны консеквенциалистским, и только пока это так.

Помести человека в одну среду, и он раздобудет еду. Помести человека в другую среду, и он опять раздобудет еду. Вау, разные изначальные условия, но один результат! Должно быть, внутри человека есть штуки, которые, что бы они ещё не делали, заодно эффективно ищут, какие моторные сигналы приведут в итоге к получению еды!

[Ngo][11:20]

Ощущается, что ты пытаешься вытолкнуть меня (и любого, кто будет это читать) из конкретного заблуждения. Догадываюсь, что из какого-то вроде «Я понимаю, что Элиезер говорит, так что теперь я вправе с этим не согласиться» или, может «Объяснения Элиезера не кажутся мне осмысленными, так что я вправе считать, что его концепции не осмысленны». Правильно?

[Yudkowsky][11:22]

Скорее… с моей точки зрения, даже после того, как я разубеждаю людей в возможности одного конкретного вечного двигателя, они просто пытаются придумать более сложный вечный двигатель.

И я не уверен, что с этим делать; это, кажется, происходит уже очень долго.

В конце концов, многое, что люди извлекают из моих текстов – это не глубокие принципы объектного уровня, на которые я пытался указать; они не понимают, скажем, байесианство как термодинамику, не начинают видеть байесовские структуры каждый раз, когда кто-нибудь видит что-то и меняет своё убеждение. Вместо этого они получают что-то более метауровневое, более обобщённое, приблизительный дух того, как рассуждать и спорить, потому что они потратили много времени под воздействием именно этого снова, и снова, и снова, на протяжении многих постов в блоге.

Может, нет способа заставить кого-то понять, почему исправимость неестественна, кроме как много раз проводить этого кого-то через задачу попробовать изобрести структуру агента, который позволяет тебе нажать кнопку выключения (но не пытается заставить тебя нажать кнопку выключения), и показывать, как каждая попытка проваливается. А потом ещё демонстрировать, почему попытка Стюарта Расселла с моральной неуверенностью порождает проблему полностью обновлённого (не-)уважения; и надеяться, что это приведёт к пониманию общего паттерна того, почему исправимость в целом противоречит структуре штук, которые хороши в оптимизации.

Только вот чтобы нормально делать упражнения, это надо делать из модели ожидаемой полезности. И тогда тебе просто скажут: «А, ну ладно, тогда я просто создам агента, который хорош в оптимизации, но не использует эти явные ожидаемые полезности, из-за которых все проблемы!»

И получается, если я хочу, чтобы кто-то поверил в те вещи, в которые верю я, по тем же причинам, что и я, мне придётся научить их, почему некоторые структуры мышления – это действительно неотъемлемые части агента, который хорошо что-то делает, а не конкретная формальная штука, предназначенная для манипуляции бессмысленными числами, а не существующими в реальном мире яблоками.

И я пару раз пытался написать об этом (к примеру «последовательные решения подразумевают непротиворечивую полезность»), но этого оказалось недостаточно, потому что люди не решали на дому даже столько же задач, сколько я, а пришлось бы больше, потому что это именно та конкретная область, в которой я талантлив.

Я не знаю, как решить эту проблему, поэтому я отступил на мета-уровень, чтобы говорить о ней.

[Ngo][11:30]

Я вспомнил о посте на LW, который назывался «Напиши тысячу дорог в Рим», емнип, он агитировал пытаться объяснять одно и то же как можно большим числом способов, в надежде, чтобы один из них сработал.

[Soares][11:31]

(Предложение, не обязательно хорошее: обозначив проблему на мета-уровне, попытаться обсуждать объектный уровень, отмечая проявления проблемы, когда они будут всплывать.)

[Ngo][11:31]

Поддерживаю предложение Нейта.

И буду пытаться держать в голове сложность метауровневой проблемы и отвечать соответственно.

[Yudkowsky][11:33]

Наверно, предложение Нейта правильное. Я напрямую высказал проблему, потому что иногда если тебе говорят о мета-проблеме, это помогает с объектным уровнем. Кажется, это помогает мне довольно сильно, а другим не так сильно, но всё же многим как-то помогает.

Мозговые функции и помпы исходов

[Yudkowsky][11:34]

Итак, есть ли у тебя конкретные вопросы про ищущее вводы мышление? Я попытался рассказать, почему я это упомянул (это другая дорога к Риму «консеквенциализма»).

[Ngo][11:36]

Сейчас посмотрим. Зрительная кора даёт нам впечатляющий пример мышления в людях и многих других животных. Но я бы назвал это «распознаванием паттернов», а не «поиском высокоцениваемых результатов».

[Yudkowsky][11:37]

Ага! И не совпадение, что нет животных, состоящих исключительно из зрительной коры!

[Ngo][11:37]

Окей, круто. Так ты согласишься, что зрительная кора делает что-то качественно иное, чем животное в целом.

Тогда другой вопрос: можешь ли ты охарактеризовать поиск высокооцениваемых результатов в животных (не в человеке)? Делают ли они это? Или это в основном про людей и СИИ?

[Yudkowsky][11:39]

К моменту, когда появляются височные доли или что-то подобное, внутри должно происходить достаточное количество чего-то вроде «что я такое вижу, что выдаёт мне такую картинку?» – это поиск правдоподобных вариантов в пространстве гипотез. И на человеческом уровне люди уже думают: «Могу ли я видеть это? Нет, у этой теории есть такая-то проблема. Как я могу её исправить?». Но правдоподобно, что у обезьяны нет низкоуровневого аналога этого; и ещё правдоподобнее, что части зрительной коры, которые делают что-то такое, делают это относительно локально и уж точно только в очень конкретной узкой области.

О, ещё есть мозжечок и моторная кора и всё такое, если мы говорим, скажем, о кошке. Им надо искать планы действий, которые приведут к поимке мыши.

Только то, что зрительная кора (очевидно) не выполняет поиск, не значит, что он не происходит где-то ещё в животном.

(На метауровне я заметил, что думаю «Но как ты можешь не видеть этого, просто смотря на кошку?», интересно, какие упражнения нужны, чтобы этому научиться.)

[Ngo][11:41]

Ну, смотря на кошку, я вижу что-то, но я не знаю, насколько хорошо оно соответствует твоим концептам. Так что просто помедленнее пока.

Кстати, мне интуитивно кажется, что моторная кора в каком-то смысле делает что-то похожее на зрительную – только наоборот. То есть вместо принимания низкоуровневых вводов и выдачи высокоуровневых выводов, она принимает высокоуровневые вводы и выдаёт низкоуровневые выводы. Согласишься ли ты с этим?

[Yudkowsky][11:43]

Это не интерпретируется напрямую в мою онтологию, потому что (а) я не знаю, что ты имеешь в виду под «высоким уровнем» и (б) картезианских агентов в целом можно рассматривать как функции, что не означает, что их можно рассматривать как не выполняющих поиск распознавателей паттернов.

С учётом этого, все части коры имеют на удивление схожую морфологию, так что не было бы особо удивительно, если бы моторная кора делала что-то похожее на зрительную. (А вот мозжечок…)

[Ngo][11:44]

Сигнал из зрительной коры, сообщающий «это кошка» и сигнал, входящий в моторную кору, сообщающий «возьми эту чашку» – это то, что я называю высокоуровневым.

[Yudkowsky][11:45]

Всё ещё не естественное разделение в моей онтологии, но есть неформальная штука, на которую это смахивает, так что, надеюсь, я могу принять и использовать это.

[Ngo][11:45]

Активация клеток сетчатки и активация моторных нейронов – это низкоуровневое.

Круто. Так, в первом приближении, мы можем думать о происходящем между тем, как кошка распознаёт мышь и тем, как моторная кора кошки производит конкретные сигналы, необходимые для поимки мыши, как о той части, где происходит консеквенциализм?

[Yudkowsky][11:49]

Весь агент-кошка находится между глазами кошки, которые видят мышь, и лапами кошки, двигающимися, чтобы поймать мышь. Агент-кошка, безусловно, является зачатком консеквенциалиста / ищет мышеловительные моторные паттерны / получает высоко оцениваемые конечные результаты, даже при изменении окружения.

Зрительная кора – это конкретная часть этой системы-рассматриваемой-как-однонаправленная-функция; эта часть, предположительно, без уверенности, не особо что-то ищет, или осуществляет только поиск в маленькой локальной очень конкретной области, не направленный сам по себе на поимку мыши; по своей природе эпистемический, а не планирующий.

С некоторой точки зрения можно заявить «ну, большая часть консеквенциализма происходит в оставшейся кошке, уже после того, как зрительная кора послала сигналы дальше». И это в целом опасный настрой рассуждений, склонный к провалам в духе безуспешного исследования каждого нейрона на наличие консеквенциализма; но в данном конкретном случае, есть значительно более консеквенциалистские части кошки, чем зрительная кора, так что я не буду против.

[Ngo][11:50]

А, более конкретная штука, которую я имел в виду: большая часть консеквенциализма находится строго между зрительной корой и моторной корой. Согласен/Не согласен?

[Yudkowsky][11:51]

Не согласен, мои знания нейроанатомии несколько устарели, но, мне кажется, моторная кора может посылать сигналы мозжечку.

(Я, может, ещё не соглашусь с глубинным смыслом, на который ты пытаешься указать, так что, наверное, проблема не решится просто через «ладно, включим ещё мозжечок», но, наверное, стоит сначала дать тебе ответить.)

[Ngo][11:53]

Я недостаточно разбираюсь в нейроанатомии, чтобы уточнять на этом уровне, так что я хотел попробовать другой подход.

Но, на самом деле, может, проще заявить «ладно, включим ещё мозжечок» и посмотреть, куда, по-твоему, приведёт нас несогласие.

[Yudkowsky][11:56]

Так как кошки (очевидно) (насколько я читал) не являются универсальными консеквенциалистами с воображением, то их консеквенциализм состоит из мелких кусочков, вложенных в них более чисто псевдо-консеквенциалистской петлёй генетической оптимизации, которая их создала.

У не поймавшей мышь кошки могут подправиться мелкие кусочки мозга.

И потом эти подправленные кусочки занимаются анализом паттернов.

Почему этот анализ паттернов без очевидного элемента поиска в итоге указывает в одном и том же направлении поимки мыши? Из-за прошлой истории анализов и поправок, направленных на поимку.

Получается, что сложно указать на «консеквенциалистские части кошки», посмотрев, какие части её мозга совершают поиск. Но с учётом этого, пока зрительная кора не поправляется при провале поимки мыши, она не входит в консеквенциалистскую петлю.

И да, это относится и к людям, но люди также делают и более явные поисковые штуки, и это часть причин, почему у людей есть ракеты, а у кошек нет.

[Ngo][12:00]

Окей, это интересно. То есть в биологических агентах три уровня консеквенциализма: эволюция, обучение с подкреплением и планирование.

[Yudkowsky][12:01]

В биологических агентах есть эволюция + локальные эволюционировавшие правила, в прошлом увеличивавшие генетическую приспособленность. Два вида таких локальных правил – это «оперантное обусловливание от успеха или провала» и «поиск среди визуализированных планов». Я бы не называл эти два вида правил «уровнями».

[Ngo][12:02]

Окей, понял. И когда ты говоришь о поиске среди визуализированных планов (так, как делают люди), то что значит, что это «поиск»?

К примеру, если я представляю, как пишу стихотворение строку за строкой, то я могу планировать только на несколько слов вперёд. Но каким-то образом стихотворение в целом, может быть довольно длинное, получается высокооптимизированным. Это типичный пример планирования?

[Yudkowsky][12:04][12:07]

Планирование – это один из способов преуспеть в поиске. Думаю, что, чтобы понять сложность согласования, лучше думать на том уровне абстракции, на котором видно, что в каком-то смысле опасность исходит от самого достаточно мощного поиска, а не от деталей процесса планирования.

Одним из ранних способов успешного обобщения моего представления об интеллекте, позже сформулированного как «вычислительно-эффективный поиск действий, приводящих к результатам, стоящим высоко в порядке предпочтений», была (неопубликованная) история о путешествиях во времени в глобально непротиворечивой вселенной.

Требование глобальной непротиворечивости означает, что все события между началом и концом Парадокса должны отображать исходные условия Парадокса в конечную точку, которая создаст эти же самые исходные условия в прошлом. Оно задаёт сильные и сложные ограничения на реальность, которые Парадокс должен соблюсти, используя свои исходные условия. Путешественник во времени должен пройти через определённый опыт, вызывающий состояние разума, в котором он совершит действия, которые подтолкнут прошлого его к получению того же опыта.

Парадокс в итоге, к примеру, убил создателей машины времени, потому что иначе они бы не позволили путешественнику вернуться во времени, или как-нибудь ещё не позволили бы временной петле сойтись, если бы были живы.

Для обобщения понятия мощной консеквенциалистской оптимизации мне было недостаточно всего двух примеров – человеческого интеллекта и эволюционной биологии. Иметь три примера – это было одно из упражнений, над которыми я работал – и с людьми, эволюцией и вымышленным Парадоксом у меня наконец «щёлкнуло».

[Ngo][12:07]

Хмм. Для меня, одна из специфических черт поиска – это рассмотрение множества возможностей. Но в примере стихотворения, я могу явно рассмотреть не так много вариантов, потому что я заглядываю вперёд только на несколько слов. Это кажется похожим на проведённое Абрамом разделение между отбором и контролем (https://www.alignmentforum.org/posts/ZDZmopKquzHYPRNxq/selection-vs-control). Разделяешь ли ты их так же? Или «контроль» системы (например, футболист, ведущий мяч по полю) в твоей онтологии тоже считается за поиск?

[Yudkowsky][12:10][12:11]

Я ещё попытаюсь говорить людям «представьте, что максимизатор скрепок – это вообще не разум, представьте, что это что-то вроде неисправной машины времени, которая выдаёт результаты, приводящие к существованию большего количества скрепок в итоге». Я не думаю, что это щёлкнет, потому что люди не выполняли тех же упражнений, что и я, и не испытывали того же «Ага!» при осознании того, как заметить часть самой концепции и опасности интеллекта в таких чисто материальных терминах.

Но конвергентные инструментальные стратегии, антиисправимость, эти штуки исходят из истинного факта о вселенной, заключающегося в том, что некоторые выводы машины времени на самом деле приведут к созданию большего количества скрепок в итоге. Опасность исходит не из деталей процесса поиска, а просто из того, что он достаточно сильный и эффективный. Опасность в самой территории, не просто в какой-то причудливой её карте; то, что создание наномашин, которые убьют программистов, приведёт к созданию большего количества скрепок – это факт про реальность, не про максимизатора скрепок!

[Ngo][12:11]

Ладно, я вспомнил про очень похожую идею в твоём тексте про Помпу Исходов (Скрытая сложность желаний).

[Yudkowsky][12:12]

Ага! Правда, история писалась в 2002-2003, когда я писал хуже, так что настоящий рассказ про Помпу Исходов никогда не был опубликован.

[Ngo][12:14]

Окей, тогда, думаю, естественный следующий вопрос: почему ты думаешь, что сильный эффективный поиск вряд ли будет как-нибудь ограничен или сдержан?

Что в поисковых процессах (как человеческий мозг) делает сложным их обучение с слепыми пятнами, деонтологическими указаниями, или чем-то в таком роде?

Хммм, это ощущается как вопрос, ответ на который я могу предсказать. (А может и нет, я не ожидал путешествий во времени.)

[Yudkowsky][12:15]

В каком-то смысле, они ограничены! Максимизирующий скрепки суперинтеллект и близко не так могущественен, как максимизирующая скрепки машина времени. Машина времени может делать что-то эквивалентное покупке лотерейных билетов из термодинамически рандомизированных лотерейных машин; суперинтеллект – нет, по крайней мере, без того, чтобы напрямую обдурить лотерею, или чего-то такого.

Но максимизирующий скрепки сильный обобщённый суперинтеллект эпистемологически и инструментально эффективен по сравнению с тобой, или со мной. Каждый раз, когда мы видим, что он может получить как минимум X скрепок, сделав Y, нам следует ожидать, что он получит X или больше скрепок, сделав Y или что-то, что приведёт к получению ещё большего количества скрепок, потому что он не пропустит стратегию, которую мы видим.

Обычно, когда мы представляем, что бы делал максимизатор скрепок, наш мозг представляет его несколько глупым, этого ограничения можно избежать, спрашивая себя, как бы скрепки получала машина времени, какого количества скрепок можно добиться в принципе и как. Рассказывать людям о машине времени вместо суперинтеллекта имеет смысл в частности затем, чтобы преодолеть представление о суперинтеллекте как о чём-то глупом. Это, конечно, не сработало, но попытаться стоило.

Я не думаю, что это в точности то, о чём ты спрашивал, но я хочу дать тебе возможность переформулировать что-нибудь прежде, чем я попытаюсь ответить на твои переформулированные мной вопросы.

[Ngo][12:20]

Ага, я думаю, то, что я хотел спросить – это что-то такое: почему нам следует ожидать, что из всего пространства возможных разумов, созданных оптимизационными алгоритмами, сильные обобщённые суперинтеллекты встречаются чаще, чем другие типы агентов, высокооцениваемых нашими обучающими функциями?

[Yudkowsky][12:20][12:23][12:24]

Это зависит от того, насколько сильно оптимизировать! И может ли градиентный спуск на конкретной системе оптимизировать достаточно сильно! Многие нынешние ИИ обучены градиентным спуском и всё ещё вовсе не стали суперинтеллектами.

Но ответ в том, что некоторые задачи сложны, и требуют решения множества подзадач, и простой способ решения всех этих подзадач – это использование перекрывающихся совместимых паттернов, обобщающихся по всем подзадачам. Чаще всего поиск будет натыкаться на что-то такое до того, как наткнётся на отдельные решения всех этих задач.

Я подозреваю, что этого нельзя достичь не очень большим градиентным спуском на мелкомасштабных трансформерах, так что я считаю, что GPT-N не достигнет суперинтеллектуальности до того, как мир закончат по-другому выглядящие системы, но я могу ошибаться.

[Ngo][12:22][12:23]

Предположим, мы достаточно сильно оптимизировали, чтобы получить эпистемическую подсистему, которая может планировать куда лучше любого человека.

Догадываюсь, что ты скажешь, что это возможно, но куда вероятнее сначала получить консеквенциалистского агента, который будет это делать (чем чисто эпистемического).

[Yudkowsky][12:24]

Я озадачен тем, что, по-твоему, значит иметь «эпистемическую подсистему», которая «может планировать лучше любого человека». Если она ищет пути во времени и выбирает высокооцениваемые для вывода, что делает её «эпистемической»?

[Ngo][12:25]

Предположим, например, что она не исполняет планы сама, только записывает их для людей.

[Yudkowsky][12:25]

Если она фактически может делать то же, что и скрепочная машина времени, как называние её «эпистемической» или как-то ещё делает её безопаснее?

По какому критерию она выбирает планы, на которые посмотрят люди?

Почему имеет значение, что её вывод пройдёт через причинно-следственные системы, называемые людьми, прежде чем попадёт в причинно-следственные системы, называемые синтезаторами белков, или Интернет, или ещё как-то? Если мы создали суперинтеллект для проектирования наномашин, нет очевидной разницы, посылает ли она строки ДНК сразу в синтезатор белков, или сначала люди читают её вывод и вручную перепечатывают его. Предположительно, ты тоже не думаешь, что безопасность исходит из этого. Тогда откуда?

(замечу: через две минуты у меня время полдника, предлагаю продолжить через 30 минут после этого)

[Ngo][12:28]

(перерыв на полчаса звучит неплохо)

Если мы рассмотрим зрительную кору в конкретный момент времени, как она решает, какие объекты распознавать?

Если зрительная кора может быть не-консеквенциалистской в том, какие объекты распознавать, почему планирующая система не может быть не-консеквенциалистской в том, какие планы выдавать?

[Yudkowsky][12:32]

Мне это кажется чем-то вроде очередного «смотрите на воду», предскажешь, что я скажу дальше?

[Ngo][12:34]

Предсказываю, что ты скажешь, что-то вроде этого: чтобы получить агента, который может создавать очень хорошие планы, надо применить на нём мощную оптимизацию. И если мы оптимизируем его через канал «оцениваем его планы», то у нас нет способа удостовериться, что агент действительно оптимизировался для создания по-настоящему хороших планов, а не для создания планов, которые получают хорошую оценку.

[Soares][12:35]

Кажется неплохим клиффхенгером?

[Ngo][12:35]

Ага.

[Soares][12:35]

Здорово. Давайте продолжим через 30 минут.

Гипотетически-планирующие системы, наносистемы и эволюционирование обобщения

[Yudkowsky][13:03][13:11]

Так, ответ, который ты от меня ожидал, в переводе на мои термины – это «Если ты совершаешь отбор для того, чтобы люди тыкнули «одобрить», прочитав план, то ты всё ещё исследуешь пространство вводов в поисках путей во времени к вероятным исходам (конкретно, к тому, что человек нажмёт «одобрить»), так что это всё ещё консеквенциализм.»

Но допустим, что у тебя получилось этого избежать. Допустим, ты получил именно то, чего хотел. Тогда система всё ещё выдаёт планы, которые, когда люди им следуют, идут по пути во времени к исходам, которые высоко оцениваются какой-то функцией.

Мой ответ: «Какого чёрта значит для планирующей системы быть не-консеквенциалистской? Это как не мокрая вода! Консеквенциалист – это не система, выполняющая работу, это сама работа! Можно представить, как её выполняет не мыслящая система вроде машины времени, и консеквенциализм никуда не денется, потому что вывод – это план, путь во времени!»

И это в самом деле такой случай, когда я чувствую чувство беспомощности от того, что я не знаю, как можно переформулировать, какие упражнения надо кому-то дать, через какой вымышленный опыт провести, чтобы этот кто-то начал смотреть на воду и видеть материал с индексом преломления, начал смотреть на фразу «почему планирующая система не может не быть консеквенциалистской по поводу того, какой план выдавать» и думать «Чёёё».

Мой воображаемый слушатель теперь говорит: «Но что, если наши планы не приводят к результатам, высоко оцениваемым какой-то функцией?», и я отвечаю: «Тогда ты лежишь на земле, хаотично дёргаясь, потому что если ты хотел какой-то другой результат больше, это значит, что ты предпочитал его выводу случайных моторных сигналов, что означает оптимизацию значения функции предпочтений, что, в свою очередь, означает выбор пути во времени, который скорее ведёт в определённом направлении, чем к случайному шуму

[Ngo][13:09][13:11]

Ага, это звучит как хороший пример той штуки, которую ты пытался объяснить в начале.

Всё ещё кажется, что здесь есть какое-то разделение по уровням, давай попробую поиграться с этим ощущением.

Окей, допустим, у меня есть планирующая система, которая для данной ситуации и цели выдаёт план, ведущий от ситуации к цели.

И допустим, что в качестве ввода мы ей даём ситуацию, в которой на самом деле не находимся, и она выдаёт соответствующий план.

Мне кажется, что есть разница между тем, как система является консеквенсциалистской, потому что создаёт консеквенциалистские планы (то есть, планы, которые, будучи применёнными в ситуации из ввода, привели бы к достижению некой цели), и другим гипотетическим агентом, который просто напрямую пытается достигать целей в ситуации, в которой на самом деле находится.

[Yudkowsky][13:18]

Для начала скажу, что если получится создать такую систему, чьё описание вполне осмысленно (мне кажется), то это, возможно, обеспечило бы некоторый запас безопасности. Она была бы заметно менее (хоть и всё ещё) опасной. Это потребовало бы неких структурных свойств, которые не факт, что можно получить просто градиентным спуском. Точно так же как естественный отбор по генетической приспособленности не даёт тебе явных оптимизаторов этой приспособленности, можно оптимизировать планирование в гипотетических ситуациях и получить что-то, что явно заботится не только строго о гипотетических ситуациях. Но это вполне последовательная концепция, и тот факт, что система не будет оптимизировать нашу вселенную, может сделать её безопаснее.

Сказав это, теперь я обеспокоюсь, что кто-то может подумать, что от того, что агент решает «гипотетические» задачи, возникает некая ключевая разница в агентности, в наличии или отсутствии чего-то, ассоциируемого с индивидуальностью, представлением целей и мотивацией. Если ты возьмёшь такого планировщика и дашь ему реальный мир в качестве гипотетического, та-да, теперь это старый добрый опасный консеквенциалист, которого мы представляли раньше, безо всяких изменений психологической агентности, «заботы» о чём-то или чего-то ещё такого.

Так что, думаю, важным упражнением было бы что-то вроде «Представь выглядящую безопасной систему, рассматривающую только гипотетические задачи. Теперь представь, что если ты возьмёшь это систему, и скармливаешь ей настоящие задачи, то она станет очень опасной. Теперь помедитируй над этим, пока не увидишь, что гипотетический планировщик очень-очень близок к более опасной версии себя, латентно имеет все его опасные свойства, и, вероятно, кучу уже опасных свойств тоже.»

«Видишь, ты думал, что источник опасности в внутреннем свойстве обращения внимания на реальный мир, но он не там, он в структуре планирования!»

[Ngo][13:22]

Я думаю, мы теперь ближе к тому, чтобы быть на одной волне.

Давай ещё немного посмотрим на такого гипотетического планировщика. Предположим, что он был обучен, чтобы минимизировать, скажем, враждебную составляющую его планов.

К примеру, его планы сильно регуляризованы, так что проходят только грубые общие детали.

Хмм, сложновато это описывать, но по сути мне кажется, что в таком сценарии есть компонент плана, кооперативный с его исполнителями, а есть враждебный.

И я согласен, что между ними нет никакой фундаментальной разницы.

[Yudkowsky][13:27]

«Что, если у зелья, которое мы варим, есть Хорошая Часть и Плохая Часть, и мы можем оставить только Хорошую…»

[Ngo][13:27]

Я не считаю, что они разделимы. Но, в некоторых случаях, можно ожидать, что одна часть будет куда больше другой.

[Soares][13:29]

(Моя модель других слушателей сейчас протестует «всё ещё есть разница между гипотетическим планировщиком, применённым к реальным задачам, и Большим Страшным Консеквенциалистом, она в том, что гипотетический планировщик выдаёт описания планов, которые работали бы, если их исполнить, тогда как большой страшный консеквенциалист исполняет их напрямую.»)

(Не уверен, что это полезно обсудить, или что это поможет Ричарду формулировать, но это как минимум то, что я ожидаю, будут думать некоторые читатели, если/когда это будет опубликовано.)

[Yudkowsky][13:30]

(Разница есть! Суть в осознании того, что гипотетический планировщик на расстоянии одной строки внешнего кода от того, чтобы стать Большой Страшной Штукой, так что стоит ожидать, что он тоже много как будет Большим и Страшным.)

[Ngo][13:31]

Мне кажется, что позиция Элиезера примерно такая: «на самом деле, почти что никакие режимы обучения не предоставят нам агентов, которые, определяя, какой план выдать, будут тратить почти всё своё время, думая над задачей объектного уровня, и очень мало времени о том, как манипулировать людьми, которым выдан план.»

[Yudkowsky][13:32]

Моя позиция в том, что у ИИ нет аккуратного разделения внутренних процессов на Части, Которые Ты Считаешь Хорошими и Части, Которые Ты Считаешь Плохими, потому что это отчётливое на твоей карте разделение, вовсе не отчётливо на карте ИИ.

С точки зрения максимизирующей-скрепки-выводящей-действия-машины-времени её действия не делятся на «создание скрепок на объектном уровне» и «манипуляция людьми рядом с машиной времени, чтобы обмануть их по поводу того, что она делает», они все просто физические выводы, проходящие сквозь время и приводящие к скрепкам.

[Ngo][13:34]

Ага, Нейт, это хороший способ сформулировать один из моих аргументов. И я согласен с Элиезером, что эти штуки могут быть очень похожими. Но я заявляю, что в некоторых случаях они могут быть и довольно отличающимися – к примеру, когда мы обучаем агента выдавать только короткое высокоуровневое описание плана.

[Yudkowsky][13:35]

Опасность в том, какую работу совершит агент, чтобы составить план. Я могу, к примеру, создать агента, который очень безопасно выдаёт высокоуровневый план по спасению мира:

echo «Эй, Ричард, спаси мир! «

Так что мне придётся спросить, какого вида «высокоуровневые» выводы планов для спасения мира ты предлагаешь, и почему сложно просто составить такой самим прямо сейчас, раз уж люди могут ему следовать. Тогда я посмотрю на ту часть, которую сложно придумать самим, и скажу, что вот тут для изобретения высокоуровневого плана агент должен понимать множество сложных штук о реальности и уметь точно прокладывать пути через время в области этих сложных штук; следовательно, он будет очень опасен, если он не прокладывает их в точности туда, куда ты надеешься. Или, как вариант, скажу: «Этот план не может спасти мир: тут недостаточно суперинтеллекта, чтобы он был опасен, но одновременно с этим недостаточно суперинтеллекта, чтобы опрокинуть игровую доску нынешнего очень обречённого мира.»

[Ngo][13:39]

Прямо сейчас я не представляю конкретного вывода планов для спасения мира, я просто пытаюсь лучше прояснить проблему консеквенциализма.

[Yudkowsky][13:40]

Смотри на воду; опасен не путь, которым ты хочешь выполнить работу, опасна сама работа. Что именно ты пытаешься сделать, неважно, как именно?

[Ngo][13:41]

Думаю, я соглашусь, что наши нынешние ограничения способностей не позволяют нам сказать многое о том, как работа будет выполняться, так что нам приходится в основном рассуждать о самой работе.

Но я тут говорю только про системы, которые достаточно умны, чтобы составлять планы и проводить исследования, находящиеся за пределами возможностей человечества.

И вопрос такой: можем ли мы подправить способ, которым работают такие системы, чтобы они тратили 99% своего времени на попытки решить задачу объектного уровня, и 1% времени на попытки манипулировать людьми, которые получат план? (Хоть это и не фундаментальные категории для ИИ, лишь грубая категоризация, возникающая из того, как мы его обучили – так же как «двигаться» и «думать» – это не фундаментально различные категории действий для людей, но то, как мы эволюционировали привело к значительному их разделению.)

[Soares][13:43]

(Я подозреваю, что Элиезер не имеет в виду «нам остаётся лишь рассуждать о самой работе, а не способах, которыми она будет выполняться, потому что наших способностей недостаточно для этого». Подозреваю недопонимание. Может быть, Ричарду стоит попытаться перефразировать аргумент Элиезера?)

(Однако, думаю, если Элиезер ответит на аргумент про 99%/1% – это тоже может всё прояснить.)

[Yudkowsky][13:46]

Ну, для начала, замечу, что система, проектирующая наносистемы, и тратящая 1% своего времени, раздумывая, как убить её операторов, смертельна. Это должна быть настолько маленькая доля мыслей, чтобы она никогда не закончила целую мысль «Если я сделаю X, это убьёт операторов.»

[Ngo][13:46]

Спасибо, Нейт. Я попробую перефразировать аргумент Элиезера.

Позиция Элизера (частично в моей терминологии): мы создадим ИИ, который может выполнять очень сложные мыслительные задачи, которые мы можем грубо описать как «искать среди множества вариантов тот, который будет удовлетворять нашим критериям.» ИИ, который может решить эти сложные задачи, должен будет уметь выполнять очень гибкий и обобщённый поиск, так что его будет очень сложно ограничить конкретной областью.

Хмм, это ощущается очень общим описанием, сейчас подумаю о его более конкретных заявлениях.

[Yudkowsky][13:54]

ИИ, который может решить эти сложные задачи, должен будет

Очень-очень мало что в пространстве устройства ИИ универсально необходимо. Первый ИИ, которого сможет создать наша технология, наверняка будет действовать некоторыми проще достижимыми и проще устроенными способами.

[Ngo][13:55]

Принято; спасибо за поимку этой неточности (тут и ранее).

[Yudkowsky][13:56]

Можно ли, в принципе, создать водителя-красных-машин, который совершенно неспособен водить синие машины? В принципе – конечно! Но первый водитель-красных-машин, на которого наткнётся градиентный спуск, наверняка будет и водителем-синих-машин.

[Ngo][13:57]

Элиезер, любопытно, в какой мере наше несогласие исходит из разного мнения о человеческом уровне.

Или, по-другому: мы и сейчас можем создавать системы, которые превосходят людей в некоторых задачах, но не имеют достаточно общих способностей поиска, чтобы даже попытаться захватить мир.

[Yudkowsky][13:58]

Несомненно, это так.

[Ngo][13:59]

Отставив в сторону ненадолго вопрос о ключевых действиях для спасения мира, какая часть твоей модели проводит линию между игроками в шахматы человеческого уровня и колонизаторами галактики человеческого уровня?

И говорит, что мы в состоянии согласовать до того, как они захватят мир, тех, которые превосходят нас на одних задачах, но не на других.

[Yudkowsky][13:59][14:01]

Тут нет очень простого ответа, но один из аспектов – это обобщённость между областями, которая достигается через изучение новых областей.

Люди, заметим, не были агрессивно оптимизированы естественным отбором для дыхания под водой и полётов в космос. Нет явного внешнего знака, что естественный отбор создал этих существ более обобщённо-способными, чем шимпанзе, обучая их на более широком наборе окружений и функций оценки.

[Soares][14:00]

(Прежде чем мы уйдём слишком далеко: спасибо за резюмирование! Мне кажется, это хорошо, я уверился в отсутствии ошибки взаимопонимания.)

[Ngo][14:03]

(Прежде чем мы уйдём слишком далеко: спасибо за резюмирование! Мне кажется, это хорошо, я уверился в отсутствии ошибки взаимопонимания.)

(Рад слышать, спасибо, что присматриваешь. Для ясности, я не интерпретировал слова Элиезера так, будто он заявляет исключительно об ограничении способностей; просто мне показалось, что он думает о значительно более продвинутых ИИ, чем я. Думаю, я плохо сформулировал.)

[Yudkowsky][14:05][14:10]

Есть затруднительные аспекты этой истории с естественным отбором, про который можно метафорически сказать, что он «понятия не имел, что делает». К примеру, после того, как ранний взлёт интеллекта, возможно, был вызван половым отбором по аккуратно обколотым топорам или чему-то такому, накопившаяся оптимизация мозга шимпанзе дошла до точки, где внезапно от сравнительного интеллекта стала сильно (сильнее, чем у шимпанзе) зависеть способность к составлению коварных планов против других людей – подзадача оптимизации генетической приспособленности. Так что продолжение оптимизации «совокупной генетической приспособленности» в той же саванне привело к оптимизации на подзадачу и способность «перехитрить других людей», для чего пришлось сильно оптимизировать «моделирование других людей», что оказалось возможно использовать на самом себе, что обратило систему на себя и сделало её рефлексивной, что сильно вложилось в обобщение интеллекта. До этого дошло несмотря на то, что всё это следовало той же самой функции вознаграждения в той же самой саванне.

Можно задать вопрос: возможен ли суперинтеллектуальный СИИ, который может быстро создать нанотехнологии и обладает некоторой пассивной безопасностью за счёт того, что он решает задачи вида «создать наносистему, которая делает X» примерно так же, как бобёр решает строительство дамб, имея набор специализированных способностей, но не имея обобщённой выходящей за пределы конкретных областей способности к обучению?

И в этом отношении надо заметить, что есть много, много, много штук, которые могу делать люди, но никакие другие животные, которые, думается, хорошо бы вложились в приспособленность этих животных, если бы был животный способ их делать. Они не делают себе железные когти. Так и не эволюционировала тенденция искать железную руду, пережигать дерево в уголь и собирать глиняные печи.

Животные не играют в шахматы, а ИИ играет, так что мы, очевидно, можем заставить ИИ делать штуки, которые животные не делают. С другой стороны, окружающая среда не ставит перед каким-нибудь видом вызов игры в шахматы.

Даже так: если бы какие-нибудь животные эволюционировали способность играть в шахматы, я точно ожидал бы, что нынешние ИИ размазывали бы их, потому что ИИ запущены на чипах, которые работают быстрее нейронов и совершают вычисления, невозможные для зашумлённых медленных нейронов. Так что это ненадёжный аргумент о том, что может делать ИИ.

[Ngo][14:09][14:11]

Да, хотя я замечу, что очень простые с человеческой инженерной точки зрения вызовы могут быть очень тяжёлыми для эволюции (например, колесо).

Так что эволюция животных-с-небольшой-помощью-от-людей могла бы привести к совсем другим результатам, чем эволюция животных-самих-по-себе. И аналогично, способность людей заполнять пробелы для не очень-то обобщённого ИИ может оказаться весьма значительной.

[Yudkowsky][14:11]

Тогда опять можно спросить: возможно ли создать ИИ, который хорош только в проектировании наносистем, которые приводят к сложным, но будем-надеяться-описываемым результатам в реальном мире, но не будет сверхчеловеческим в понимании и манипуляции людьми?

И я в общих чертах отвечу так: «Не исключено, хоть и не по умолчанию, я сейчас не знаю, как это сделать, это не простейший способ получить СИИ, способный создать наносистемы (и убить тебя), тебе потребуется получить водителя-красных-машин, который очень конкретно не способен водить синие машины.» Могу ли я объяснить, откуда я это знаю? Не уверен, обычно получается, что я объясняю X0, а слушатель не обобщает X0 до X и не применяет это для X1.

Это как спрашивать меня, как я вообще мог в 2008 году, до того, как кто-нибудь мог наблюдать AlphaFold 2, знать, что суперинтеллект мог бы решить проблему фолдинга белков; в 2008 году некоторые люди задавали мне этот вопрос.

Хотя та задача оказалась проще, чем нанотехнологии, я не сказал бы тогда, что AlphaFold 2 будет возможен на дочеловеческом уровне в 2021, или что он возникнет через пару лет после уровня обобщённости в области текста как у GPT-2.

[Ngo][14:18]

Какие важнейшие различия между решением фолдинга белков и проектированием наносистем, которые, скажем, самособираются в компьютер?

[Yudkowsky][14:20]

Определённо «Оказалось, использовать запоминание градиентным спуском огромной кучи поверхностных перекрывающихся паттернов и собрать из них большую когнитивную структуру, оказывающуюся консеквенциалистским наноинженером, который может только создавать наносистемы и так и не обзаводится достаточно общей способностью к обучению, чтобы понять общую картину и людей, всё ещё понимая цель ключевого действия, которое ты хочешь выполнить, проще, чем кажется» – это одно из самых правдоподобных заранее сформулированных чудес, которое мы можем получить.

Но это не то, что предсказывает моя модель, и я не верю, что, когда твоя модель говорит тебе, что ты сейчас умрёшь, стоит начать верить в конкретные чудеса. Нужно держать свой разум открытым для любых чудес, в том числе тех, которые ты не ожидал, и о которых не думал заранее, потому что на этот момент наша последняя надежда – на то, что будущее зачастую весьма удивительно – хотя, конечно, когда ты отчаянно пытаешься прокладывать пути с помощью плохой карты, негативные сюрпризы случаются куда чаще позитивных.

[Ngo][14:22]

Возможно, можно использовать такую метрику: сколько дополнительного вознаграждения получает консеквенциалистский наноинженер за то, что он начинает моделировать людей, сравнительно с тем, чтобы стать лучше в наноинженерии?

[Yudkowsky][14:23]

Но люди возникли совсем не так. Мы не добрались до атомной энергии, потому что получали от неё бонус к приспособленности. Мы добрались до атомной энергии, получая бонус к приспособленности от обтачивания кремневых топоров и составления коварных планов. Это довольно простое и локальное направление натренировало нам те же гены, которые позволяют нам строить атомные электростанции.

[Ngo][14:24]

Это в случае дополнительного ограничения необходимости выучиваться к новым целям каждое поколение.

[Yudkowsky][14:24]

А???

[Soares][14:24]

(Я так понял, Ричард имеет в виду «это следствие бутылочного горлышка генома»)

[Ngo][14:25]

Верно.

Хмм, кажется, мы уже об этом говорили.

Предложение: У меня есть пара отвлекающих меня вопросов, продолжим через 20 или 30 минут?

[Yudkowsky][14:27]

ОК

Какие важнейшие различия между решением фолдинга белков и проектированием наносистем, которые, скажем, самособираются в компьютер?

Хочу отметить, что этот вопрос для меня, хотя, может, не для других, выглядит потенциально ключевым. Т.е., если создание белковых фабрик, которые собирают нанофабрики, которые собирают наномашины, которые соответствуют какой-нибудь высокой сложной инженерной цели, не включает когнитивных вызовов, принципиально отличающихся от фолдинга белков, то, может быть, это можно безопасно сделать с помощью AlphaFold 3, такого же безопасного, как AlphaFold 2.

Не думаю, что мы можем так сделать. Хочу заметить для абстрактного Другого, что если для него обе задачи звучат как думательные штуки, и непонятно, почему нельзя просто сделать и другую думательную штуку с помощью думательной программы, то это тот случай, когда обладание конкретной моделью того, почему у нас нет такого наноинженера прямо сейчас, подскажет, что тут присутствуют конкретные разные думательные штуки.

Сонаправленность и ключевые действия

[Ngo][14:31]

В любом порядке:

  • Мне любопытно, как то, о чём мы говорим, относятся к твоему мнению о мета –уровневой оптимищации из AI-foom спора. (где ты говорил о том, как отсутствие какого-либо защищённого уровня оптимизации ведёт к мощным изменениям)

  • Мне любопытно, как твои заявления об «устойчивости» консеквенциализма (т.е. сложности направить мышление агента в нужном нам направлении) относится к тому, как люди полагаются на культуру, и в частности к тому, как люди, выращенные без культуры, получаются очень плохими консеквенциалистами

По первому: если очень сильно упрощать, то кажется, что есть два центральных соображения, которые ты уже долго пытаешься распространить. Одно – это некоторая разновидность рекурсивного улучшения, а другое – некоторая разновидность консеквенциализма.

[Yudkowsky][14:32]

Второй вопрос не очень осмыслен в моей родной онтологии? Люди, выращенные без культуры, не имеют доступа к константам окружения, предполагаемых их генами, ломаются, и оказываются плохими консеквенциалистами.

[Ngo][14:35]

Хмм, разумно. Окей, модифицирую вопрос: то, как люди рассуждают, действуют и т.д., сильно варьируется в зависимости от культуры, в которой они выросли. (Я в основном думаю о разных временах – вроде пещерных людей и современных.) Моя не слишком доверенная версия твоих взглядов на консеквенциалистов говорит, что обобщённые консеквенциалисты вроде людей обладают устойчивыми поисковыми процессами, которые не так просто изменить.

(Извини, если это не особо осмысленно в твоей онтологии, я несколько уставший.)

[Yudkowsky][14:36]

Что именно варьируется, что, как ты думаешь, я бы предсказал, должно оставаться постоянным?

[Ngo][14:37]

Цели, манеры рассуждений, деонтологические ограничения, уровень конформности.

[Yudkowsky][14:39]

А моя первая реакция на твой первый пункт такая: «У меня всего одно мнение об интеллекте, то, о чём именно я спорю, зависит от того, какие части этого мнения люди до странности упрямо отказываются принимать. В 2008, Робин Хансон до странности упрямо отказывался принимать то, как масштабируются способности, и есть ли вообще смысл рассматривать ИИ отдельно от эмов, так что я говорил о том, что видел самыми очевидными аргументами к тому, что Есть Много Места Над Биологией и что за человеческим уровнем начинается вжууууух».

«Потом выяснилось, что способности начали неслабо масшабироваться без самоулучшения. Это пример таких странных сюрпризов, которые кидает в нас Будущее, и может быть, случай, в котором я что-то упустил, потому что спорил с Хансоном, вместо того, чтобы представлять, как я мог бы быть неправ в обоих направлениях, не только в направлении, о котором другие люди хотят со мной спорить.»

«Ещё, люди были не способны понять, почему согласование сложное, застряв на обобщении концепта, который я называю консеквенциализмом. Предполагать, почему я говорил об этих двух штуках вместе – это предполагать, почему люди застревают в этих двух штуках вместе. И я думаю, что такие предположения бы переобъясняли случайные совпадения. Если бы Ян Лекун занимался эффективным альтруизмом, то мне пришлось бы объяснять что-нибудь другое, ведь люди, много контактирующие с EA, застревают в другом.»

Возвращаясь к твоему второму пункту, люди – сломанные штуки; если бы было возможно создать компьютеры на уровне ещё ниже человеческого, мы бы вели этот разговор на том уровне интеллекта.

[Ngo][14:41]

(Отменяю) Я полностью согласен про людей, но не особо важно, насколько поломаны люди, когда ИИ, про который мы говорим, непосредственно над людьми, и, следовательно, всего лишь чуть-чуть менее поломан.

[Yudkowsky][14:41]

Тут стоит держать в голове, что есть много странностей, уникальных для людей, и, если ты хочешь получить те же странности у ИИ, тебе может очень не повезти. Да, даже если ты как-нибудь попытаешься обучить им с помощью функции вознаграждения.

Однако, мне кажется, что, когда мы приближаемся к уровню Эйнштейна вместо уровня деревенского дурачка, хоть обычно и нет особой разницы, мы видим, как атмосфера утоньшается и турбулентность успокаивается. Фон Нейман был довольно рефлексивным парнем, который знал, и, в общем-то, помог определить функции полезности. Великие достижения фон Неймана не были достигнуты каким-нибудь сверхспециализированным гипернёрдом, тратившим весь свой интеллект на формализацию математики, науки и инженерии, но так никогда и не думавшем о политике или о том, имеет ли он сам функцию полезности.

[Ngo][14:44]

Не думаю, что требую той же странности. Но куча явлений, о которых я говорил, странны с точки зрения твоего понятия консеквенциализма. Получается, что у консеквенциалистов-примерно-человеческого-уровня происходит много странностей. Это указывает, что те штуки, о которых я говорил, более вероятны, чем ты ожидаешь.

[Yudkowsky][14:45][14:46]

Я подозреваю, что часть расхождения тут из-за того, что я считаю, что надо быть заметно лучше человека в наноинженерии, чтобы совершить достаточно значительное ключевое действие. Потому я и не пытаюсь собрать самых умных ныне живущих людей, чтобы они выполнили это ключевое действие напрямую.

Я не могу придумать что-то, что можно сделать с помощью чего-то лишь немножко умнее человека, что опрокинет игровую доску. Кроме, конечно, «создай Дружественный ИИ», что я и пытаюсь организовать. И его согласование было бы невероятно сложным, если бы мы хотели, чтобы ИИ сделал это за нас (в чистом виде проблема курицы и яйца, тот ИИ уже должен быть согласован).

[Ngo][14:45]

О, интересно. Тогда ещё вопрос: в какой степени ты думаешь, что именно явные рассуждения о функциях полезности и законах рациональности наделяют консеквенциалистов свойствами, о которых ты говоришь?

[Yudkowsky][14:47, moved up in log]

Явная рефлексия возможна дальше, начало пути просто в оптимизации для выполнения достаточно сложных штук, чтобы надо было перестать наступать себе на ноги и заставить разные части своих мыслей хорошо работать вместе.

У такого пути в конце концов только одно направление, а начать его можно по-разному.

(С поправкой на разные случаи, где разные теории принятия решений выглядят рефлексивно непротиворечивыми, и всё такое; хочется сказать «ты понял, что я имею в виду», но, возможно, поймут не все.)

[Ngo][14:47, moved down in log]

Я подозреваю, что часть расхождения тут из-за того, что я считаю, что надо быть заметно лучше человека в наноинженерии, чтобы совершить достаточно значительное ключевое действие. Потому я и не пытаюсь собрать самых умных ныне живущих людей, чтобы они выполнили это ключевое действие напрямую.

Агаа, я думаю, здесь замешаны и разногласия о геополитике. Например, в моём раннем резюмирующем тексте я упоминал возможные ключевые действия:

  • Отслеживать все потенциальные проекты СИИ в достаточной степени, чтобы США и Китай могли работать над совместным проектом, не беспокоясь о скрытых конкурентах.
  • Предоставить достаточно убедительные аргументы/демонстрации/доказательства надвигающегося экзистенциального риска, чтобы ключевые глобальные принимающие решения фигуры остановили прогресс.

Я предсказываю, что ты думаешь, что этого недостаточно; но не думаю, что вкапываться в геополитическую сторону вопроса это лучшее использование нашего времени.

[Yudkowsky][14:49, moved up in log]

Отслеживание всех проектов СИИ – либо политически невозможно в реальном мире, учитывая, как страны ведут себя на самом деле, либо, на политически-возможных уровнях, недостаточно хорошо сработает, чтобы предотвратить конец света, когда опасная информация уже распространится. ИИ тут не особо поможет; если это возможно, почему не сделать это сейчас? (Отмечу: пожалуйста, не пытайтесь делать это сейчас, это плохо обернётся.)

Предоставить достаточно убедительные аргументы =сверхчеловеческая манипуляция, невероятно опасная область, одна из худших, чтобы пытаться её согласовать.

[Ngo][14:49, moved down in log]

А моя первая реакция на твой первый пункт такая: «У меня всего одно мнение об интеллекте, то, о чём именно я спорю, зависит от того, какие части этого мнения люди до странности упрямо отказываются принимать. В 2008, Робин Хансон до странности упрямо отказывался принимать то, как масштабируются способности, и есть ли вообще смысл рассматривать ИИ отдельно от эмов, так что я говорил о том, что видел самыми очевидными аргументами к тому, что Есть Много Места Над Биологией и что за человеческим уровнем начинается вжууууух».

«Потом выяснилось, что способности начали неслабо масшабироваться без самоулучшения. Это пример таких странных сюрпризов, которые кидает в нас Будущее, и может быть, случай, в котором я что-то упустил, потому что спорил с Хансоном, вместо того, чтобы представлять, как я мог бы быть неправ в обоих направлениях, не только в направлении, о котором другие люди хотят со мной спорить.»

«Ещё, люди были не способны понять, почему согласование сложное, застряв на обобщении концепта, который я называю консеквенциализмом. Предполагать, почему я говорил об этих двух штуках вместе – это предполагать, почему люди застревают в этих двух штуках вместе. И я думаю, что такие предположения бы переобъясняли случайные совпадения. Если бы Ян Лекун занимался эффективным альтруизмом, то мне пришлось бы объяснять что-нибудь другое, ведь люди, много контактирующие с EA, застревают в другом.»

По первому пункту, мне кажется, что в твоих заявления о рекурсивном самоулучшении есть та же проблема, что и, как мне кажется, в твоих заявлениях о консеквенциализме – что слишком многое приписывается одной очень высокоуровневой абстракции.

[Yudkowsky][14:52]

По первому пункту, мне кажется, что в твоих заявления о рекурсивном самоулучшении есть та же проблема, что и, как мне кажется, в твоих заявлениях о консеквенциализме – что слишком многое приписывается одной очень высокоуровневой абстракции.

Я предполагаю, что потенциально именно так ощущается изнутри непонимание абстракции. Робин Хансон всё спрашивал меня, почему я так доверяю своим абстракциям, хотя сам вместо этого доверял своим, худшим, абстракциям.

[Ngo][14:51][14:53]

Явная рефлексия возможна дальше, начало пути просто в оптимизации для выполнения достаточно сложных штук, чтобы надо было перестать наступать себе на ноги и заставить разные части своих мыслей хорошо работать вместе.

Можешь ещё немного пообъяснять, что ты имеешь в виду под «заставить разные части своих мыслей хорошо работать вместе»? Это что-то вроде способности к метамышлению; или глобальный контекст; или самоконтроль; или…?

И я догадываюсь, что нет хорошего способа измерить, насколько важной в сравнении с остальными частью пути ты считаешь явную рефлексию – но можешь хотя бы грубо обозначить, насколько это критичный или некритичный компонент твоих взглядов?

[Yudkowsky][14:55]

Можешь ещё немного пообъяснять, что ты имеешь в виду под «заставить разные части своих мыслей хорошо работать вместе»? Это что-то вроде способности к метамышлению; или глобальный контекст; или самоконтроль; или…?

Нет, это вроде того, как ты, скажем, не будешь платить за что-то пятью яблоками в понедельник, продавать это же за два апельсина во вторник, а потом менять апельсин на яблоко.

Я всё ещё не придумал домашние упражнения для передачи кому-то Слова Силы «сонаправленность», которое позволит смотреть на воду и видеть «сонаправленность» в, например, кошке, гуляющей по комнате, не спотыкаясь о свои же лапы.

Когда ты много и правильно рассуждаешь об арифметике, не делая ошибок, то длинная цепочка мыслей, много раз разделяющаяся и соединяющаяся обратно, приводит к какому-то заявлению, которое… всё ещё истинно и всё ещё про числа! Вау! Как так оказалось, что много отдельных мыслей вместе обладают этим свойством? Разве они не должны убрести куда-то на тему племенной политики, как в Интернете?

Можно посмотреть на это так: хоть все эти мысли происходили в ограниченном разуме, они являются тенями высшей неограниченной структуры – модели, заданной аксиомами Пеано; всё сказанное было правдой про числа. Кто-то ничего не понимающий мог бы возразить, что в человеке нет механизма оценки утверждения для всех чисел, очевидно, человек не может его содержать, так что очевидно, нельзя объяснить успех тем, что каждое из утверждений было правдой на одну и ту же тему чисел, потому что Единственным Способом представить эту структуру (в воображении этого человека) является этот механизм, которого у людей нет.

Но хоть математические рассуждения иногда могут сбиваться с пути, когда они всё же работают, это происходит потому что, на самом деле, даже ограниченные существа иногда могут соответствовать локальным отношениям, помогающим глобальной сонаправленности действий, когда все части рассуждения указывают в одном направлении, как фотоны в лазерном луче. Хоть и нету никакого внутреннего механизма, твёрдо устанавливающего глобальную сонаправленность в каждой точке.

Внешний оптимизатор натренировал тебя не платить за что-то пятью яблоками в понедельник, продавать это же за два апельсина во вторник, а потом менять два апельсина на четыре яблока. И точно так же он натренировал все маленькие кусочки тебя быть локально последовательными так, чтобы это можно было рассматривать неидеальной ограниченной версией высшей неограниченной структуры. И система получается мощной, хоть и неидеальной, из-за мощи последовательности и перекрытия частей, из-за того, как она неидеально отражает высшую идеальную структуру. В нашем случае высшая структура – это Полезность, и домашние упражнения с теоремами о последовательности приводят к признанию того, что мы знаем только одну высшую структуру для нашего класса задач, на эту структуру указывает множество математических указателей «смотреть здесь», хоть некоторые люди и занимались поиском альтернатив.

И когда я пытаюсь сказать это, люди отвечают «Ну, я посмотрел на теорему, и она говорит о возможности выбрать уникальную функцию полезности из бесконечного количества вариантов, но если у нас нет бесконечного количества вариантов, мы не можем выбрать функцию, так какое отношение это имеет к делу» и это такой вид ошибок, которые я не могу вспомнить, чтобы даже близко делал сам, так что я не знаю, как отучить людей их делать, и, может, я и не могу.

[Soares][15:07]

Мы уже превышаем время, так что давайте сворачиваться (после, наверное, ещё пары ответов Ричарда, если у него есть силы.)

[Yudkowsky][15:07]

Да, думал так же.

[Soares][15:07]

Предлагаю клиффхенгер для затравки следующей дискуссии, я так понял, что коммментарий Ричарда:

По первому пункту, мне кажется, что в твоих заявления о рекурсивном самоулучшении есть та же проблема, что и, как мне кажется, в твоих заявлениях о консеквенциализме – что слишком многое приписывается одной очень высокоуровневой абстракции.

  • вероятно, содержит некую важную часть несогласия, и мне интересно, понимает ли Элиезер заявление Ричарда достаточно, чтобы пересказать его удовлетворительным для Ричарда способом.

[Ngo][15:08]

Сворачиваться сейчас осмысленно.

Поддерживаю то, что сказал Нейт.

У меня есть ощущение, что я теперь куда лучше представляю взгляды Элиезера на консеквенциализм (пусть и не слишком детально).

На метауровне, лично я больше склонен сосредотачиваться на штуках вроде «как нам прийти к пониманию мышления», а не «как нам прийти к пониманию геополитики и её влияния на необходимые ключевые действия».

Если дискуссию будет продолжать кто-то ещё, им можно будет попробовать сказать побольше про второе. Я не уверен, насколько это полезно для меня, учитывая, что моё (и, вероятно, Элиезера) сравнительное преимущество над остальным миром лежит в части про мышление.

[Дальше они вперемешку обсуждают, когда продолжать и более содержательные меташтуки. Первое я вырезал, а второе оставил. – прим. переводчика]

[Ngo][15:12]

Можно пересказать эту дискуссию [некоторым людям – вырезано для приватности]?

[Yudkowsky][15:13]

Нейт, потратишь минутку, опишешь, что думаешь?

(Soares ставит «лайк» и знак «Ок»)

[Soares][15:15]

Моя позиция: Я думаю, пересказывать можно, но лучше в целом отмечать, что это всего лишь пересказ (чем каждый раз сверять с Элиезером для одобрения, или что-то такое).

(Нго ставит «лайк»)

[Yudkowsky][15:16]

В целом согласен. Я немного обеспокоен об искажениях при пересказе, и о том, сказал ли я что-то, с чем Роб или кто-то ещё не согласится до публикации, но мы в любом случае собирались это показывать, я держал это в голове, так что, да пожалуйста, пересказывай.

[Ngo][15:17]

Здорово, спасибо

[Yudkowsky][15:17]

Признаюсь, мне любопытно, что из сказанного ты считаешь важным или новым, но на этот вопрос можно ответить и потом, в свободное, более удобное тебе время.

[Ngo][15:17]

Признаюсь, мне любопытно, что из сказанного ты считаешь важным или новым, но на этот вопрос можно ответить и потом, в свободное, более удобное тебе время.

В смысле, что я считаю стоящим пересказа?

[Yudkowsky][15:17]

Ага.

[Ngo][15:18]

Хмм, не уверен. Я не собирался сильно в это вкладываться, но раз я всё равно регулярно болтаю с [некоторыми людьми – вырезано для приватности], то не будет сложно это обдумать.

В твоё свободное время, мне было бы любопытно, насколько направление дискуссии соответствовало твоим целям, тому, что ты хочешь донести, когда это будет опубликовано, и на каких темах ты хотел бы больше сосредоточиться.

[Yudkowsky][15:19]

Не уверен, что это поможет, но попытаться сейчас выглядит лучше, чем ничего не говорить.

[Ngo][15:20]

(В дополнение к тому, что я чувствую себя менее компетентным в геополитике, она также кажется мне более деликатной темой для публичных заявлений, это ещё одна причина, почему я туда не вкапывался)

[Soares][15:21]

(В дополнение к тому, что я чувствую себя менее компетентным в геополитике, она также кажется мне более деликатной темой для публичных заявлений, это ещё одна причина, почему я туда не вкапывался)

(кажется разумным! Замечу, впрочем, что я бы с радостью вырезал деликатные темы из записи, если бы это позволило нам лучше состыковаться, раз уж тема всё равно всплыла)

(Нго ставит «лайк»)

(хоть конечно тратить усилия на приватные дискуссии не столь ценно и всё такое)

(Нго ставит «лайк»)

[Ngo][15:22]

В твоё свободное время, мне было бы любопытно, насколько направление дискуссии соответствовало твоим целям, тому, что ты хочешь донести, когда это будет опубликовано, и на каких темах ты хотел бы больше сосредоточиться.

(этот вопрос и тебе, Нейт)

Ещё, спасибо Нейту за модерацию! Твои вмешательства были полезными и своевременными.

(Соарес ставит «сердечко»)

[Soares][15:23]

(этот вопрос и тебе, Нейт)

(понял, спасибо, вероятно, напишу что-нибудь после того, как у тебя будет возможность выспаться.)

[Yudkowsky][15:27]

(кажется разумным! Замечу, впрочем, что я бы с радостью вырезал деликатные темы из записи, если бы это позволило нам лучше состыковаться, раз уж тема всё равно всплыла)

Мне чуточку не нравится вести обсуждения, которые мы потом намерены вырезать, потому что обсуждение в целом будет иметь меньше смысла для читателей. Давайте лучше по возможности обходить такие темы.

(Нго ставит «лайк»)

(Соарес ставит «лайк»)

[Ngo][15:28]

Отключаюсь

[Yudkowsky][15:29]

Спокойной ночи, героический спорщик!

[Soares][16:11]

В твоё свободное время, мне было бы любопытно, насколько направление дискуссии соответствовало твоим целям, тому, что ты хочешь донести, когда это будет опубликовано, и на каких темах ты хотел бы больше сосредоточиться.

Дискуссия пока что довольно хорошо соответствовала моим целям! (Немного лучше, чем ожидал, ура!) Немного быстрых грубых заметок:

  • Мне понравилось, как ЭЮ объясняет свои модели в области консеквенциализма.
    • Возражения Ричарда, как мне кажется, уже некоторое время витали в воздухе, я рад увидеть их явное обсуждение.
    • Ещё, я признателен за ваши разговорные добродетели при обсуждении. (Предположение доброго намерения, щедрость, любопытство, и т.д.)
  • Я был бы рад повкапываться в ощущение Ричарда, что ЭЮ похожим образом неправ про рекурсивное самоулучшение и про консеквенциализм.
    • И эта критика, как мне кажется, тоже витала в воздухе, предвкушаю её прояснение.
  • Я несколько разрываюсь между прояснением второго пункта или закреплением прогресса в первом.
    • Что я бы хотел увидеть – это заметки от Ричарда с сравнением его модели взглядов ЭЮ до и после обсуждения.
    • Ещё у меня есть неоформленное ощущение, что есть некоторые заявления, которые Элиезер пытался сделать, но которые так и не были восприняты; и, симметрично, некоторые возражения Ричарда, на которые, кажется, не поступило прямого ответа.
      • В ближайшие дни, может быть, составлю список таких мест и посмотрю, могу ли я прояснить что-то сам. (Не обещаю.)
      • Если получится, то, может быть, с радостью пообсуждаю их с Ричардом на отдельном канале в более удобное ему время.

[Ngo][5:40] (на следующий день, 9 сентября)

Дискуссия пока что […]

Что ты имеешь в виду под «первым пунктом» и «вторым пунктом» (у шестой точки списка)?

[Soares][7:09] (на следующий день, 9 сентября)

Что ты имеешь в виду под «первым пунктом» и «вторым пунктом» (у шестой точки списка)?

Первый = закрепить про консеквенциализм, второй = вкопаться в твою критику по рекурсивному самоулучшению и т.д. (Вложенность списков должна была показать это ясно, но оказалось, что она плохо тут отображается, упс.)

Последующее

Резюмирование Ричарда Нго

[Ngo] (10 сентября Google Doc)

2-я дискуссия

(В основном обобщения, а не цитаты; также не было пока оценено Элиезером)

Элиезер, по описанию Ричарда: «Главный Один из главных концептов, с пониманием которого у людей проблемы – это консеквенциализм. Люди пытаются рассуждать о том, как ИИ будет решать задачи, и каким образом это может быть или не быть опасно. Но они не осознают, что способность решать широкий ассортимент сложных задач подразумевает, что агент должен выполнять мощный поиск по возможным решениям, а это главный один из главных навыков, необходимых для совершения действий, сильно влияющих на мир. Сделать безопасным такой ИИ - это как пытаться создать ИИ, который очень хорошо водит красные машины, но не может водить синие – этого никак не получить по умолчанию, потому что вовлечённые навыки слишком похожи. И потому что процесс поиска такой обобщённый по умолчанию такой обобщённый, что я сейчас не вижу, как его можно ограничить какой-то конкретной областью.»

[Yudkowsky][10:48] (10 сентября комментарий)

Главный концепт

Один из главных концептов, с пониманием которого проблемы у некоторых людей. Их, кажется, бесконечный список. Мне не пришлось тратить много времени на раздумия о консеквенциализме, чтобы вывести следствия. Я не успеваю потратить много времени, говоря о нём, как люди начинают спорить.

[Yudkowsky][10:50] (10 сентября комментарий)

главный навык

Один из главных

[Yudkowsky][10:52] (10 сентября комментарий)

процесс поиска такой обобщённый

По умолчанию такой обобщённый. Почему я так давлю на то, что всё это верно лишь по умолчанию – работа над выживанием может выглядеть как много сложных необычных штук. Я не принимаю фаталистическую позицию «так и произойдёт», я оцениваю сложности получения результатов не по умолчанию.

[Yudkowsky][10:52] (10 сентября комментарий)

будет очень сложно

«я сейчас не вижу, как»

[Ngo] (10 сентября Google Doc)

Элиезер, по описанию Ричарда (продолжение): «В биологических организмах эволюция – один из источников основной источник консеквенциализма. Другой Вторичный результат эволюции – это обучение с подкреплением. У животного вроде кошки, когда она ловит мышь (или когда у неё не получается это сделать), много частей мозга немного подправляются, эта петля увеличивает вероятность, что она поймает мышь в следующий раз. (Замечу, однако, что этот процесс недостаточно мощен, чтобы сделать из кошки чистого консеквенциалиста – скорее, он наделяет её многими чертами, которые можно рассматривать как направленные в одну и ту же сторону.) Третья штука, которая в частности делает людей консеквенциалистами – это планирование. Другой результат эволюции, который в частности помогает людям быть в большей степени консеквенциалистами – это планирование, особенно, когда мы осведомлены о концептах вроде функции полезности.»

[Yudkowsky][10:53] (10 сентября комментарий)

один из источников

основной

[Yudkowsky][10:53] (10 сентября комментарий)

второй

Вторичный

[Yudkowsky][10:55] (10 сентября комментарий)

особенно, когда мы осведомлены о концептах вроде функции полезности

Почти всегда оказывает очень маленький эффект на человеческую эффективность, потому что у людей плохо с рефлексивностью.

[Ngo] (10 сентября Google Doc)

Ричард, по описанию Ричарда: «Рассмотрим ИИ, который получив гипотетический сценарий, сообщает, какой лучший план по достижению данной цели в данном сценарии. Конечно, ему необходимы консеквенциалистские рассуждения, чтобы понять, как достичь цели. Но это не то же самое, что ИИ, выбирающий, что сказать, чтобы достичь своих целей. Я утверждаю, что первый совершает консеквенциалистские рассуждения, не будучи консеквенциалистом, тогда как второй действительно им является. Или короче: консеквенциализм = навыки решения задач + использование этих навыков для выбора действий для достижения целей.»

Элиезер, по описанию Ричарда: «Первый ИИ, если получится такой создать, может быть немного безопаснее второго, но я думаю, что люди склонны очень сильно переоценивать, насколько. Разница может быть в одну строку кода: если мы дадим первому ИИ наш нынешний сценарий на ввод, то он станет вторым. В целях понимания сложности согласования лучше думать на том уровне абстракции, где ты видишь, что в каком-то смысле опасен сам поиск, когда он достаточно мощный, а не детали процесса планирования. Особенно помогающий мысленный эксперимент – думать о продвинутом ИИ, как о «помпе исходов», которая выбирает варианты будущего, в которых произошёл некий результат, и производит нужные действия, которые приведут к этим вариантам.»

[Yudkowsky][10:59] (10 сентября комментарий)

особенно помогающий

«попытка объяснения». Я не думаю, что большинство читателей поняло.

Я немного озадачен тем, насколько часто ты описываешь мои взгляды так, будто то, что я сказал, было сказано про Ключевую Штуку. Это кажется похожим на то, как многие эффективные альтруисты проваливают Идеологический Тест Тьюринга MIRI.

Если быть немного грубым и невежливым в надежде на то, что затянувшийся социальный процесс куда-то придёт, два очевидных немилосердных объяснения, почему некоторые люди систематически неправильно считают MIRI/Элиезера верящими в большее, чем на самом деле, и считают, что разные концепты, всплывающие в аргументах – это для нас Большие Идеи, хотя на них просто навело обсуждение:

(А) Это рисует комфортную нелестную картину Других-из-MIRI, до странности одержимых этими кажущимися неубедительными концептами, или в целом представляет Других как кучку чудаков, наткнувшихся на концепции вроде «консеквенциализма» и ставшими ими одержимыми. В общем, изобразить Другого как придающего много значения какой-то идее (или объясняющему мысленному эксперименту) – это привязать его статус к мнению слушателя о том, какой статус заслуживает эта идея. Так что, если сказать, что Другой придаёт много значения какой-то идее, которая не является очевидно высокостатусной, это понижает статус Другого, что комфортно.

(прод.)

(B) Это рисует комфортную льстящую себе картину продолжающегося постоянного несогласия, как несогласия с кем-то, кто считает какой-то случайный концепт более высокостатусным, чем на самом деле; в таком случае нет никакого понимания за пределами должным образом вежливого выслушивания попыток другого человека убедить тебя, что концепт заслуживает своего высокого статуса. В противоположность «хм, может, это не центральная штука, просто другой человек посчитал, что в ней возникли проблемы, и потому пытается её объяснить», что объясняет, почему обсуждение стоит на месте куда менее льстя себе. И, соответственно, куда комфортнее иметь такую точку зрения о нас, чем нам представлять, что кто-то о нас такого мнения.

Ну и, конечно, считать, что кто-то другой зря зацикливается на нецентральных штуках, весьма лестно. Но не значит, что неправильно. Но стоит обращать внимание, что история Другого, рассказанная с точки зрения Другого, скорее всего будет чем-то, что Другой находит осмысленным и, наверное, комфортным, даже если это подразумевает нелестный (и не ищущий истины и, наверное, ошибочный) взгляд на самого тебя. А не чем-то, что заставит Другого выглядеть странным и глупым и про что легко и гармонично представить, что Другой это думает.

[Ngo][11:18] (12 сентября комментарий)

Я немного озадачен тем, насколько часто ты описываешь мои взгляды так, будто то, что я сказал, было сказано про Ключевую Штуку.

В этом случае, я особо выделил мысленный эксперимент про помпу исходов, потому что ты сказал, что сценарий с путешествиями во времени был ключевым для твоего понимания оптимизации, и помпа исходов выглядит довольно похоже и проще к передаче в пересказе, потому что ты про неё уже писал.

Я также особо выделил консеквенциализм, потому что он казался ключевой идеей, которая постоянно всплывала в первом обсуждении под обозначением «глубокие паттерны решения задач». Я приму твоё замечание, что ты склонен выделять штуки, по поводу которых твой собеседник наиболее скептичен, не обязательно главные для твоих взглядов. Но если для тебя консеквенциализм на самом деле не центральный концепт, то интересно было бы услышать, какова его роль.

[Ngo] (10 сентября Google Doc)

Ричард, по описанию Ричарда: «В «нахождении плана для достижения данного исхода» есть компонент, который включает решение задачи объектного уровня о том, как кто-то, кому выдан этот план, может достигнуть исхода. А есть другой компонент – выяснить, как проманипулировать этими людьми, чтобы они сделали то, что тебе хочется. Мне кажется, что аргумент Элиезера в том, что не существует режима обучения, который приведёт ИИ к трате 99% времени мышления на первый, и 1% на второй компонент.»

[Yudkowsky][11:20] (10 сентября комментарий)

не существует режима обучения

…что режимы обучения, к которым мы сперва придём, за 3 месяца или 2 года, которые у нас будут, пока кто-то другой не устроит конец света, не будут обладать этим свойством.

У меня нет довольно сложной или удивительно проницательной теории о том, почему я продолжаю восприниматься как фаталист; мой мир наполнен условными функциями, не константами. Я всегда в курсе, что если бы у нас был доступ к Учебнику из Будущего, объясняющему по-настоящему устойчивые методы – эквивалент знания заранее про ReLu, которые были изобретены и поняты только через пару десятилетий после сигмоид – то мы могли бы просто взять и создать суперинтеллект, который считает, что 2 + 2 = 5.

Все мои предположения о «Я не вижу, как сделать X» всегда помечены как продукт моего незнания и положение по умолчанию, потому что у нас нет достаточного времени, чтобы выяснить, как сделать X. Я постоянно обращаю на это внимание, потому что ошибочность мнения о сложности чего-то – это важный потенциальный источник надежды, что найдётся какая-то идея вроде ReLu, устойчиво снижающая сложность, и о которой я просто не думал. Что, конечно, ещё не значит, что я неправ о какой-то конкретной штуке, и что широкое поле «согласования ИИ», бесконечный источник оптимистических идей, произведёт хорошую идею тем же процессом, сгенерировавшим весь предыдущий наивный оптимизм через незамечание, откуда взялась исходная сложность, или какие другие сложности окружают её очевидные наивные решения.

[Ngo] (10 сентября Google Doc)

Ричард, по описанию Ричарда (продолжение): «Хотя это может быть и так в пределе увеличивающегося интеллекта, самыми важными системами будут самые ранние из превосходящих человеческий уровень. Но люди кучей способов отклоняются от консеквенциалистских абстракций, о которых ты говоришь – к примеру, выращенные в разных культурах люди могут быть более или менее консеквенциалистами. Так что выглядит правдоподобно, что ранние СИИ могут быть сверхчеловеческими, в то же время, сильно отклоняясь от абстракции – не обязательно теми же способами, что и люди, но способами, которые мы в них вложили при обучении.»

Элиезер, по описанию Ричарда: «Эти отклонения начинают спадать уже на уровне Эйнштейна и Фон Неймана. И реалистично работающие ключевые действия требуют навыков значительно выше человеческого уровня. Думаю, что даже один процент мышления способного собирать продвинутые наносистемы ИИ, направленный на мысли о том, как убить людей, погубит нас. Твои другие предложения ключевых действий (надзор для ограничения распространения СИИ; убеждение мировых лидеров ограничить разработку СИИ) политически невозможно выполнить в достаточной степени, чтобы спасти мир, или же требуют согласования в очень опасной области сверхчеловеческой манипуляции.»

Ричард, по описанию Ричарда: «Я думаю, что у нас есть и значительное несогласие по поводу геополитики, влияющее на то, какие ключевые действия мы рассматриваем. Но, кажется, наше сравнительное преимущество лежит в области обсуждения мышления, так что давай сосредоточимся на этом. Мы сейчас можем создать системы, превосходящие людей в некоторых задачах, но не обобщённые настолько, чтобы даже попытаться захватить мир. Отставив ненадолго в сторону вопрос о том, какие задачи могут быть достаточно ключевыми, чтобы спасти мир, какая часть твоей модели проводит линию между шахматистами-человеческого-уровня и колонизаторами-галактики-человеческого-уровня, и говорит, что мы способны согласовать тех, кто значительно превосходит нас в одних задачах, но не в других? »

Элиезер, по описанию Ричарда: «Один аспект – это обобщённость между областями, достигающаяся за счёт изучения новых областей. Можно задать вопрос: возможен ли суперинтеллектуальный СИИ, который может быстро создавать нанотехнологии так же, как бобёр строит дамбы, через обладание кучей специализированных способностей к обучению, но не обобщённой? Но люди делают много, много, много всего, что не делают другие животные, но что, можно подумать, сильно вложилось бы в их приспособленность, если бы был животный способ это делать – к примеру, добывать и плавить железо. (Хотя сравнения с животными в целом не являются надёжными аргументами о том, что может делать ИИ – например, шахматы куда проще для чипов, чем для нейронов.) Так что мой ответ такой: «Возможно, но не по умолчанию; есть куча подзадач; я сейчас не знаю, как это сделать; это не простейший способ получить СИИ, который может создавать наносистемы.» Могу ли я объяснить, откуда я знаю? На самом деле, не уверен.»

[Yudkowsky][11:26] (10 сентября комментарий)

Могу ли я объяснить, откуда я знаю? На самом деле, не уверен.

В оригинальном тексте за этим предложением была длинная попытка всё же объяснить; если удалять её, что выглядит правильно, то стоит удалить и это предложение, иначе оно рисует ложную картину того, как много я пытаюсь объяснять.

[Ngo][11:15] (12 сентября комментарий)

Имеет смысл; удалено.

[Ngo] (10 сентября Google Doc)

Ричард, по описанию Ричарда: «Довольно тривиальные с человечески-инженерной точки зрения вызовы могут быть очень сложными для эволюции (например, колесо). Так что эволюция животных-с-небольшой-помощью-людей может привести совсем к другим результатам, чем эволюция животных-самих-по-себе. И, аналогично, способность людей заполнять пробелы для помощи менее обобщённым ИИ может быть весьма значительной.

Про нанотехнологию: в чём лежат важнейшие различия между решением фолдинга белков и проектированием наносистем, которые, скажем, самособираются в компьютер?»

Элиезер, по описанию Ричарда: «Этот вопрос для меня выглядит потенциально ключевым. Т.е., если создание белковых фабрик, которые собирают нанофабрики, которые собирают наномашины, которые соответствуют какой-нибудь высокой сложной инженерной цели, не включает когнитивных вызовов, принципиально отличающихся от фолдинга белков, то, может быть, это можно безопасно сделать с помощью AlphaFold 3, такого же безопасного, как AlphaFold 2. Я не думаю, что мы сможем это сделать. Но это одно из самых правдоподобных заранее сформулированных чудес, которое мы можем получить. Сейчас наша последняя надежда в том факте, что будущее зачастую довольно неожиданно.»

Ричард, по описанию Ричарда: «Мне кажется, что тут ты делаешь ту же ошибку, что и в рассуждениях про рекурсивное самоулучшение из AI-foom-спора – конкретно, вкладываешь слишком много веры в одну большую абстракцию.»

Элиезер, по описанию Ричарда: «Я предполагаю, что потенциально именно так ощущается изнутри непонимание абстракции. Робин Хансон всё спрашивал меня, почему я так доверяю своим абстракциям, хотя сам вместо этого доверял своим, худшим, абстракциям.»

Резюмирование Нейта Соареса

[Soares] (12 сентября Google Doc)

Консеквенциализм

Ок, вот мои заметки. Извиняюсь, что не выложил до середины воскресенья. В первую очередь хочу закрепить то, что уже обсудили. Надеюсь на поправки и, может быть, комментирование туда-обратно, где осмысленно (как с обобщением Ричарда), но не отвлекайтесь от основной линии обсуждения ради этого. Если время ограничено, то не страшно, даже если заметки не получат почти никакого внимания.

У меня есть ощущение, что пара заявлений Элиезера про консеквенциализм не была успешно передана. Возьмусь за это. Могу быть неправ и по поводу того, что Элиезер имел это в виду, и по поводу того, воспринял ли их Ричард; заинтересован и в опровержениях от Элиезера, и в пересказах от Ричарда.

[Soares] (12 сентября Google Doc)

  1. «Консеквенциализм в плане, не в мышлении»

Думаю, Ричард и Элиезер с очень разных сторон подходят к понятию «консеквенциализм», на что указывает, например, вопрос Ричарда (грубый пересказ Нейта:) «Где, по твоему мнению, консеквенциализм в кошке?» и ответ Элиезера (грубый пересказ Нейта:) «причина очевидного консеквенциализма поведения кошки распределена между её мозгом и её эволюционной историей».

Конкретнее, я думаю, что можно сделать примерно такой аргумент:

  • Заметим, что с нашей точки зрения спасение мира выглядит довольно запутанным, и кажется, что оно, вероятно, будет включать длинные цепочки умных действий, для направления истории по узкому пути (например, потому, что, если бы мы видели короткие цепочки глупых действий, мы бы уже начали).
  • Предположим, что нам выдан план, якобы описывающий длинную цепочку умных действий, которые, если их исполнить, направляют историю по некоему узкому пути.
    • Для конкретики предположим, что это план, якобы направляющий историю по пути, на котором у нас есть богатство и признание.
  • Одно правдоподобное стечение обстоятельств – что план на самом деле не умный, и не оказывает направляющего влияния на историю.
    • К примеру, план описывает основание и менеджмент некоего стартапа в Кремниевой Долине, и этот стартап на практике не сработает.
  • При условии, что у плана есть свойство направления истории, есть смысл, в котором он устрашающий, независимо от его источника.
    • К примеру, план описывает основание и менеджмент некоего стартапа в Кремниевой Долине, и план преуспеет при практически каждом исполнении, посредством того, что в нём есть очень обобщённые описания штук вроде обнаружения и реакции на конкуренцию, включая описания методов сверхчеловечески хорошего психоанализа конкурентов и давления на их слабые места.
    • Заметим, что нам не нужно считать, что план сгенерирован некой «агентной» когнитивной системой, которая внутри себя использует рассуждения, которые мы бы назвали «обладание целями» и «преследование этих целей в реальном мире».
    • Конкретнее, «устрашающий» – это свойство самого плана. К примеру, если план обеспечивает исполнителю богатство и признание в широком диапазоне ситуаций независимо от препятствий, то это подразумевает, что план содержит корректирующие курс механизмы для удержания направления на цель.
    • Другими словами, план, планы, успешно направляющие историю (по этому аргументу) наверняка имеют широкий ассортимент корректирующих курс механизмов, чтобы удерживать направление на какую-то цель. И хоть это свойство скорее всего будет у любого такого плана, цель выбирается, конечно, свободно, отсюда и беспокойство.

(Конечно, на практике не стоит представлять простой План, переданный нам ИИ или машиной времени или ещё чем-то, вместо этого стоит вообразить систему, которая реагирует на экстренные ситуации и перепланирует в реальном времени. Как минимум, такая задача проще, так как позволяет вводить поправки только для реально происходящих ситуаций, а не предсказывать их все заранее и/или описывать обобщённые механизмы реакции. Но, и тут можно предсказать моё заявление до прочтения следующей фразы, «работа ИИ, перепланирующего на лету» и «работа петли ИИ+человек, которая перепланирует+переоценивает на лету» – это всё ещё в каком-то смысле «планы», которые всё ещё скорее всего обладают свойством Элиезер!консеквенциализм, если они работают.

[Soares] (12 сентября Google Doc)

Это часть аргумента, который я ещё нормально не выдавал. Оформляя его отдельно:

  1. «Если план достаточно хорош, чтобы сработать, то он довольно консеквенциалистский на практике».

В попытке собрать и очистить несколько разрозненных аргументов Элиезера:

Если ты попросишь GPT-3 сгенерировать план для спасения мира, у неё не получится сделать очень детальный план. И если ты и помучаешь большую языковую модель до выдачи очень детального плана, этот план не будет работать. В частности, он будет полон ошибок вроде нечувствительности к окружению, предложений невозможных действий, предложений действий, стоящих на пути друг у друга.

Чувствительный к окружению план, описывающий из подходящих друг другу, а не конфликтующих действий – как, в аналогии Элиезера, фотоны в лазере – куда лучше в направлении истории по узкому пути.

Но, по мнению Элиезера, как я его понимаю, свойство «план не наступает постоянно себе на ноги» идёт рука об руку с тем, что он называет «консеквенциализмом». Явный и формальный случай связи можно увидеть, если взять в качестве наступания себе на ноги «обменять 5 апельсинов на 2 яблока, а потом 2 яблока на 4 апельсина». Ясно, что тут план провалился в «лазерности» – произошло что-то вроде того, что какая-то нуждающаяся-в-апельсинах часть плана и какая-то нуждающаяся-в-яблоках часть плана встали друг у друга на пути. Тут заодно и видно, как план может быть подобен лазеру в отношении яблок и апельсинов – если он ведёт себя так, будто им управляют некие последовательные предпочтения.

Как я понял, суть тут не в «всё наступающее себе на ноги похоже на непоследовательные предпочтения», а скорее «у плана получается связать цепочку последовательных сочетающихся действий лишь в той степени, в какой он является Элиезер!консеквенциалистом».

См. аналогию из теории информации, где если ты смотришь на лабиринт и пытаешься построить точное отображения этого лабиринта у себя в голове, то ты преуспеешь лишь настолько, насколько твои процессы Байесианские. И предполагается, что это ощущается как довольно тавтологичное заявление: ты (почти наверняка) не получишь соответствующую реальности картинку лабиринта в своей голове, случайно его себе представляя; тебе нужно добавлять представляемые стены каким-то процессом, коррелирующим с присутствием реальных стен. Твой процесс визуализации лабиринта будет точно работать постольку, поскольку ты имеешь доступ к наблюдениям, коррелирующим с присутствием настоящих стен, и правильно используешь эти наблюдения. Ты можешь заодно визуализировать дополнительные стены в местах, где политически целесообразно верить, что они есть, и можно избегать представлять стены в дальних областях лабиринта, потому что там темно, а у тебя нет целого дня. Но результат будет точным настолько, насколько у тебя всё же получилось действовать по-Байесиански.

Похожим образом, план работает-как-целое и избегает-наступать-себе-на-ноги в точности настолько, насколько он консеквенциалистичен. Это две стороны одной монеты, два взгляда на одно и то же.

И я тут не столько пытаюсь убедить, сколько увериться, что форма аргумента (как я его понял) была понята Ричардом. Я воспринял его так, что «неуклюжие» планы не работают, а «лазерные» планы работаю настолько, насколько они действуют подобно консеквенциалисту.

Перефразируя ещё раз: у нас есть большой набор математических теорем, подсвечивающих с разных сторон, что недостача у плана неуклюжести есть его последовательность.

(«И», – торопится заметить моя модель Элиезера, – «это, конечно, не значит, что все достаточно интеллектуальные разумы должны генерировать очень последовательные планы. Зная, что делаешь, можно было бы спроектировать разум, который выдаёт планы, всегда «спотыкающиеся об себя» в каком-то конкретном месте, так же как с достаточным мастерством можно было бы создать разум, верящий, что 2+2=5 (для какой-то осмысленной интерпретации этого утверждения). Но ты не получишь этого просто так – и при создании когнитивных систем есть что-то вроде «аттрактора», обобщённое обучение будет склонно наделять систему истинными убеждениями и делать её планы последовательными»)

(И, конечно, большинство беспокойства от того, что все эти математические теоремы, предполагающие, что план работает, пока он куда-то последовательно направлен, ничего не говорят о том, в каком направлении он должен быть направлен. Следовательно, если ты покажешь мне план, достаточно умный для направления истории по узкому пути, я смогу быть весьма уверен, что он довольно лазерный, но совсем не смогу быть уверен, в каком направлении.)

[Soares] (12 сентября Google Doc)

У меня есть догадка, что Ричард на самом деле понимает этот аргумент (хотя я бы порадовался его пересказу, для тестирования гипотезы!), и, возможно, даже принимает его, а мнения расходятся на следующем шаге – утверждении, что нам нужен «лазерный» план, потому что другие планы недостаточно сильны, чтобы нас спасти. (Конкретно я подозреваю, что большая часть несогласия в том, насколько далеко можно зайти с планами больше похожими на выводы языковых моделей, чем на лазеры, а не в вопросе, какие ключевые действия положат конец сильным рискам.)

Отставив это пока в сторону, хочу использовать ту же терминологию для переложения другого заявления, которое, как я видел, Элиезер пытался продвинуть: одна большая проблема с согласованием, в случае когда мы хотим «лазерные» планы – это то, что одновременно мы хотим, чтобы они не были «лазерными» в некоторых специфических направлениях.

В частности, план предположительно должен содержать механизмы для перефокусировки лазера, когда окружение содержит туман, и перенаправления лазера, когда окружение содержит зеркала (…аналогия тут немного хромает, извините), чтобы можно было на самом деле попасть в маленькую далёкую цель. Перефокусировка и перенаправление – это неотъемлемая часть планов, которые могут это сделать.

Но люди, выключающие ИИ – это как рассеивание лазера, а люди, исправляющие ИИ, чтобы он планировал в другом направлении – это как установка зеркал на пути лазера; и мы не хотим, чтобы план корректировался под эти вмешательства.

Так что, по мнению Элиезера, как я его понимаю, мы требуем очень неестесвенной штуки – путь-через-будущее, достаточно устойчивый, чтобы направить историю по узкому пути из очень широкого диапазона обстоятельств, но каким-то образом нечувствительный к конкретным разновидностям предпринятых людьми попыток поменять этот самый узкий путь.

Ок. Я продолжал переформулировывать это снова и снова, пока не получил удовлетворяющую меня достаточно дистиллированную версию, извините за повторения.

Я не думаю, что сейчас правильно спорить именно про это заявление (хотя рад был бы услышать возражения). Но неплохо было бы: если Элиезер скажет, соответствует ли написанное выше его точке зрения (и если нет, почему); и если Ричард попробует перефразировать это, чтобы я уверился, что сами аргументы были успешно переданы (ничего не говоря о их принятии Ричардом).

[Soares] (12 сентября Google Doc)

Моя модель Ричарда по поводу написанного выше считает что-то вроде «Это всё выглядит правдоподобно, но пока Элиезер выводит из этого, что нам надо лучше научиться обращаться с лазерами, я считаю это аргументом в пользу того, что лучше бы спасти мир не прибегая к лазерам. Наверное, если бы я считал, что мир нельзя спасти без лазеров, то я бы разделял многие твои беспокойства. Но я так не считаю, и, в частности, недавний прогресс в области ИИ – от AlphaGo и GPT до AlphaFold – кажется мне свидетельством в пользу того, что можно спасти мир без лазеров.»

И я припоминаю, как Элиезер высказал следующее (более-менее там же, емнип, хотя читатели отметили, что я мог неправильно это понять и это может оказаться вырванным из контекста):

Определённо «Оказалось, использовать запоминание градиентным спуском огромной кучи поверхностных перекрывающихся паттернов и собрать из них большую когнитивную структуру, оказывающуюся консеквенциалистским наноинженером, который может только создавать наносистемы и так и не обзаводится достаточно общей способностью к обучению, чтобы понять общую картину и людей, всё ещё понимая цель ключевого действия, которое ты хочешь выполнить, проще, чем кажется» – это одно из самых правдоподобных заранее сформулированных чудес, которое мы можем получить.

По моему мнению, и, я думаю, по мнению Элиезера, ИИ в стиле «огромная куча поверхностных паттернов», которые мы наблюдаем сейчас, не будет достаточно, чтобы спасти мир (и чтобы уничтожить тоже). Есть набор причин, почему GPT и AlphaZero пока не уничтожили мир, и одна из них – «поверхностность». И да, может мы и не правы! Я сам был удивлён тем, как далеко зашло запоминание поверхностных паттернов (и, в частности, был удивлён GPT), и признаю, что могу быть удивлён и в будущем. Но я продолжаю предсказывать, что поверхностных штук не хватит.

У меня есть ощущение, что многие в сообществе в том или ином виде спрашивают: «Почему бы не рассмотреть задачу согласования систем, запоминающих огромные кучи поверхностных паттернов?». И мой ответ: «Я всё ещё не ожидаю, что такие машины убьют или спасут нас, я ожидаю, что есть фазовый переход, который не произойдёт, пока ИИ-системы не станут способны составлять достаточно глубокие и «лазерные» планы, чтобы делать что-то устрашающее, и я всё ещё ожидаю, что настоящий вызов согласования именно там.»

И это мне кажется ближе к основе несогласия. Некоторые (как я!) считают, что довольно маловероятно, что для того, чтобы спасти нас, достаточно выяснить, как получить значительную работу от поверхностных запоминальщиков. А, подозреваю, другим (возможно даже Ричарду!) кажется, что упомянутый «фазовый переход» – это маловероятный сценарий, и что я сосредотачиваюсь на странном неудачном угле пространства возможностей. (Мне любопытно, Ричард, поддержишь ли ты это или какую-то немного исправленную версию этого.)

В частности, Ричард, интересно, примешь ли ты что-то вроде следующего:

  • Я сосредотачиваю ~все мои усилия на случае поверхностных запоминальщиков, потому что я считаю их согласование будет достаточным, а даже если нет, то я ожидаю, что это хороший путь подготовиться к тому, что окажется нужным на практике. В частности, я не поставлю многое на идею, что есть предсказуемый фазовый переход, который заставит нас иметь дело с «лазерными» планировщиками, или что предсказуемые проблемы дают нам большой повод к беспокойству.

(Я подозреваю, что нет, по крайней мере не точно в этой форме, и я жажду поправок.)

Я подозреваю, что что-то неподалёку – ключевая точка несогласия, и я был бы в восторге, если бы у нас получилось дистиллировать её до чего-то такого же точного. И, для записи, лично я принимаю такую обратную позицию:

  • Я сосредотачиваю ~нисколько моих усилий на согласовании поверхностных запоминальщиков, так как ожидаю, что этого и близко не будет достаточно, не ожидаю сингулярности до получения более «лазерных» систем, и думаю, что «лазерный» режим планирования несёт предсказуемые сложности согласования, к которым Земля не выглядит готовой (в отличии, мне кажется, от сложностей согласования поверхностных запоминальщиков), так что я сильно беспокоюсь уже сейчас.

[Soares] (12 сентября Google Doc)

Ок, а теперь немного менее важных пунктов:

Ричард заявил:

О, интересно. Тогда ещё вопрос: в какой степени ты думаешь, что именно явные рассуждения о функциях полезности и законах рациональности наделяют консеквенциалистов свойствами, о которых ты говоришь?

И я подозреваю, что тут есть недопонимание, особенно учитывая это предложение из пересказа Ричарда:

Третья штука, которая в частности делает людей консеквенциалистами – это планирование – особенно, когда мы осведомлены о концептах вроде функции полезности.

В частности, я подозреваю, что модель Ричарда модели Элиезера особенно выделяет (или выделяла, до того, как Ричард прочёл комментарии Элиезера к пересказу) рефлексию системы и её размышления о своих собственных стратегиях, как метод повышения эффективности и/или консеквенциализма. Я подозреваю, что это недопонимание, и с удовольствием расскажу о моей модели по запросу, но, надеюсь, что предыдущая пара страниц это и так проясняет.

В конце концов, я вижу, что есть несколько мест, где Элиезер не ответил на попытки Ричарда пересказать его позицию, я подозреваю, что полезно было бы, если бы Ричард явно перечислил и повторил их, чтобы сверить общее понимание. В частности, стоило бы сверить (если Ричард в это действительно верит, и с возможными поправками Элиезера, я тут могу объединять разные штуки):

  1. Элиезер не считает невозможным создание ИИ с почти любым заданным свойством, включая почти любое свойство безопасности, включая почти любое желаемое свойство «не-консеквенциализма» или «послушания». Но Элиезер считает, что большинство желаемых свойств безопасности не появятся по умолчанию, и требуют мастерства, на приобретение которого скорее всего потребуется беспокояще большое количество времени.
  2. Заявления про консеквенциализм не особенно ключевые для взгляда Элиезера; они для него скорее вроде очевидных фоновых фактов; обсуждение задержалось на них потому, что в сообществе Эффективного Альтруизма многие с ними не соглашаются.

Для записи, я думаю, что Элиезеру стоит признать, что Ричард вероятно понимает пункт (1), и что сокращать «этого не получить по умолчанию и не похоже, что у нас будет достаточно времени» до «не получится» вполне осмысленно при резюмировании. (А Ричарду, может быть, стоит наоборот признать, что в данном контексте различие на самом деле довольно важное, так как оно означает разницу между «описывать текущее игровое поле» и «лечь и помереть».) Не думаю, что что-то из этого высокоприоритетно, но, если не сложно, может быть полезным :-)

Наконец, заявлю очевидное-для-меня: ничто из этого не предполагается как критика любой из сторон, и все участники продемонстрировали выдающиеся добродетели-согласно-Нейту в процессе обсуждения.

[Yudkowsky][21:27] (12 сентября)

Из заметок Нейта:

В частности, план предположительно должен содержать механизмы для перефокусировки лазера, когда окружение содержит туман, и перенаправления лазера, когда окружение содержит зеркала (…аналогия тут немного хромает, извините), чтобы можно было на самом деле попасть в маленькую далёкую цель. Перефокусировка и перенаправление – это неотъемлемая часть планов, которые могут это сделать.

Но люди, выключающие ИИ – это как рассеивание лазера, а люди, исправляющие ИИ, чтобы он планировал в другом направлении – это как установка зеркал на пути лазера; и мы не хотим, чтобы план корректировался под эти вмешательства.

–> ХОРОШАЯ АНАЛОГИЯ.

…или, по меньшей мере, передаёт для меня, почему исправимость неконвергентна / непоследовательна / на самом деле сильно противоречит, а не просто является независимым свойством мощного генератора планов.

Но всё же я уже знаю, почему это так, и как это обобщается для неуязвимости к попыткам решить мелкие кусочки более важных аспектов этого – это не просто так по слабому умолчанию, это так по сильному умолчанию, где куча народу может потратить несколько дней на попытки придумать всё более и более сложные способы описать систему, которая позволит себя выключить (но не направит тебя, чтобы ты её выключил), и все эти предложенные способы проваливаются. (И да, люди снаружи MIRI регулярно публикуют статьи, заявляющие, что они только что полностью решили эту задачу, но все эти «решения» – это штуки, которые мы рассмотрели и отбросили как тривиально проваливающиеся на масштабе мощных агентов – они не понимают, что мы считаем проблемами первостепенной важности, так что это не свидетельство, что у MIRI просто недостаточная куча умного народу.)

[Yudkowsky][18:56]  (Nov. 5 follow-up comment)

Вроде «Хорошо, мы возьмём систему, которая училась только на ситуациях, в которых была, и не может использовать воображение, чтобы планировать по поводу чего-то, чего она не видела, и тогда мы обнаружим, что если мы её не обучим ситуации её выключения, то она не будет вознаграждаться для его избегания!»

Перевод: 
Максим Выменец
Оцените качество перевода: 
Средняя оценка: 3.5 (2 votes)

Безопасность СИИ с чистого листа

В этом докладе я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более ранние работы становятся менее актуальными в контексте современного машинного обучения; более недавние работы разрозненны и кратки. Изначально я хотел лишь пересказывать аргументы других людей, но, в процессе написания доклада, он становился всё больше представляющим мои собственные взгляды, и менее представляющим чьи-то ещё. Так что хоть он и покрывает стандартные идеи, я думаю, что он и предоставляет новый подход рассуждений о СИИ – не принимающий какие-то предшествующие заявления как данность, но пытающийся выработать их с чистого листа.

Примечание редактора сайта. Автор также выложил подборку комментариев к своему докладу. Однако она очень велика и на русский её не перевели.

Автор: 
Ричард Нго

Безопасность СИИ с чистого листа. Введение

Ричард Нго

Это первая из шести частей доклада, под названием «Безопасность СИИ с чистого листа», в котором я попытался собрать воедино как можно более полные и убедительные аргументы, почему разработка СИИ может представлять экзистенциальную угрозу. Причина доклада – моя неудовлетворённость существующими аргументами о потенциальных рисках СИИ. Более ранние работы становятся менее актуальными в контексте современного машинного обучения; более недавние работы разрозненны и кратки. Изначально я хотел лишь пересказывать аргументы других людей, но, в процессе написания доклада, он становился всё больше представляющим мои собственные взгляды, и менее представляющим чьи-то ещё. Так что хоть он и покрывает стандартные идеи, я думаю, что он и предоставляет новый подход рассуждений о СИИ – не принимающий какие-то предшествующие заявления как данность, но пытающийся выработать их с чистого листа.

Несмотря на это, ширина темы, которую я пытаюсь рассмотреть, означает, что я включил много лишь торопливо обрисованных аргументов, и, несомненно, некоторое количество ошибок. Я надеюсь, что продолжу полировать этот доклад, и приветствую помощь и обратную связь. Я также благодарен многим людям, уже высказавшим обратную связь и поддержку. Я планирую перепостить некоторые самые полезные комментарии на Alignment Forum, если получу разрешение. Я выложил доклад шестью частями; первая и последняя – короткие обрамляющие, а четыре посередине соответствуют четырём предпосылкам нижеизложенного аргумента.

Безопасность СИИ с чистого листа

Ключевое беспокойство, мотивирующее технические исследования безопасности СИИ – то, что мы можем создать искусственных автономных интеллектуальных агентов, которые будут гораздо умнее людей, и которые будут преследовать цели, конфликтующие с нашими собственными. Человеческий интеллект позволяет нам координировать сложные общественные структуры и создавать продвинутые технологии, и таким образом контролировать мир в куда большей степени, чем любой другой вид. Но ИИ однажды станут способнее нас во всех типах деятельности, которыми мы обеспечиваем и сохраняем этот контроль. Если они не захотят нам подчиняться, человечество может стать лишь вторым по могуществу «видом» и потерять возможность создавать достойное ценное будущее.

Я называю это аргументом «второго вида»; я думаю, что это правдоподобный аргумент, который нужно воспринимать очень серьёзно1 Однако изложенная выше версия полагается на несколько нечётких концепций и соображений. В этом докладе я покажу настолько детальное, насколько смогу, изложение аргумента второго вида, подсвечивая аспекты, по поводу которых я всё ещё в замешательстве. В частности, я буду защищать версию аргумента второго вида, заявляющую, что, без согласованного усилия по предотвращению этого, есть значительный шанс, что:

  1. Мы создадим ИИ куда умнее людей (т.е. суперинтеллектуальные).
  2. Эти ИИ будут автономными агентами, преследующими высокомасштабные цели.
  3. Эти цели будут несогласованы с нашими; то есть, они будут направлены на нежелательные по нашим стандартам исходы и будут противоречить нашим целям.
  4. Разработка таких ИИ приведёт к тому, что они получат контроль над будущим человечества.

Хоть я и использую много примеров из современного глубокого обучения, этот доклад так же относится и к ИИ, разработанным с использованием совершенно иных моделей, обучающих алгоритмов, оптимизаторов или режимов обучения, отличающихся от тех, что мы используем сегодня. Однако, многие аргументы больше не будут актуальны, если поле ИИ перестанет быть сосредоточено на машинном обучении. Я также часто сравниваю разработку ИИ с эволюцией человеческого интеллекта; хоть они и не полностью аналогичны, люди – это лучший пример, который у нас есть, для мыслей об обобщённых ИИ.

  • 1. В своей недавней книге «Совместимость. Как контролировать искусственный интеллект» Стюарт Рассел также называет это «проблемой гориллы».
Перевод: 
Максим Выменец
Оцените качество перевода: 
Голосов пока нет

Безопасность СИИ с чистого листа. Суперинтеллект

Ричард Нго

Чтобы понять суперинтеллект, следует сначала охарактеризовать, что мы имеем в виду под интеллектом. Мы можем начать с хорошо известного определения Легга, как способности хорошо справляться с широким набором когнитивных задач1. Ключевое разделение, которое я проведу в этой части – это разделение между агентами, хорошо понимающими, как справляться с многими задачами, потому что они были специально оптимизированы под каждую из них (я назову это основанным на задачах подходом к ИИ), и агентами, которые могут понимать новые задачи без или практически без специфического для этих задач обучения, обобщая из предыдущего опыта (основанный на обобщении подход).

Узкий и обобщённый интеллект

Основанный на задачах подход аналогичен тому, как люди применяют электричество: хоть электричество – это мощная технология, полезная в широком спектре задач, нам всё ещё надо проектировать специфические способы для его применения к каждой задаче. Похожим образом компьютеры – это мощные и гибкие инструменты, но хоть они и могут обрабатывать произвольно большое количество разных вводов, для каждой программы нужно индивидуально писать детальные инструкции, как совершать эту обработку. Нынешние алгоритмы обучения с подкреплением так же, несмотря на мощность, приводят к появлению агентов, хорошо справляющихся только с конкретными задачами, с которыми у них много опыта – Starcraft, DOTA, Go, и подобное. В «Переосмыслении cуперинтеллекта» Дрекслер отстаивает позицию, что наш текущий основанный на задачах подход отмасштабируется до сверхчеловеческих способностей в некоторых сложных задачах (но я скептически отношусь к этому заявлению).

Пример основанного на обобщении подхода – большие языковые модели вроде GPT-2 и GPT-3. GPT-2 сначала натренировали на задачу предсказывания следующего слова в тексте, а потом она достигла наилучших для своего времени результатов на многих других языковых задачах, без специальной подстройки на каждую! Это было явное изменение по сравнению с предыдущим подходом к обработке естественного языка, которые хорошо проявляли себя только с обучением под конкретную задачу на специальном наборе данных. Её потомок, GPT-3, продемонстрировала ещё более впечатляющее поведение. Я думаю, это хороший пример того, как ИИ может развить когнитивные навыки (в данном случае, понимание синтаксиса и семантики языка), обобщающиеся на большой диапазон новых задач. Поле мета-обучения преследует похожие цели.

Можно также увидеть потенциал основанного на обобщении подхода, посмотрев на развитие людей. Эволюция «обучила» нас как вид когнитивным навыкам, включающим в себя способности к быстрому обучению, обработку сенсорной и выдачу моторной информации, социальные навыки. Индивидуально мы также «обучаемся» в детстве подстраивать эти навыки, понимать устный и письменный язык и обладать подробной информацией о современном обществе. Однако, заметим, что почти всё это эволюционное и детское обучение произошло на задачах, сильно отличающихся от экономически пригождающихся нам во взрослом возрасте. Мы можем справляться с ними только переиспользуя когнитивные навыки и знания, полученные раньше. В нашем случае нам повезло, что эти когнитивные навыки были не слишком специфичны для окружения наших предков, а оказались весьма обобщёнными. В частности, навык абстрагирования позволяет нам извлекать общую структуру из разных ситуаций, что позволяет нам понимать их куда эффективнее, чем если бы мы отдельно изучали их одну за другой. Наши навыки коммуникации и понимания чужого сознания позволяют нам делиться своими идеями. Поэтому люди могут достигать мощного прогресса на масштабе лет и десятилетий, а не только через эволюционные адаптации на протяжении многих поколений.

Мне следует заметить, что я думаю об основанном на задаче и основанном на обобщении подходах как о частях спектра, а не как о бинарной классификации, в частности потому, что разделение на отдельные задачи довольно произвольно. К примеру, AlphaZero обучалась, играя сама с собой, но тестировалась, играя против людей, использующих другие стратегии и стили игры. Можно думать об игре против двух разных типов оппонентов как о двух случаях одной задачи, а можно – как двух разных задачах, таких, что AlphaZero смогла обобщить первую на вторую. Но в любом случае, они явно очень похожи. Для контраста, я ожидаю, что ИИ будут справляться хорошо с многими экономически важными задачами в первую очередь за счёт обобщения опыта совершенно других задач – что означает, что этим ИИ придётся обобщать намного лучше, чем могут нынешние системы обучения с подкреплением.

Уточню, про какие именно задачи я ожидаю, что они потребуют режима обобщения. В той мере, в которой мы можем разделять два подхода, мне кажется правдоподобным, что основанный на задачах подход сможет далеко зайти в областях, в которых мы можем собрать много данных. Например, я довольно сильно убеждён, что этот подход предоставит нам сверхчеловеческие беспилотные автомобили задолго до того основанного на обобщении подхода. Он может также позволить нам автоматизировать большинство задач, входящих в очень когнитивно-требовательные области вроде медицины, законов и математики, если мы сможем собрать правильные обучающие данные. Однако, некоторые занятия критически зависят от способности анализировать очень разнообразную информацию и действовать в её контексте, так что им будет очень сложно обучать напрямую. Рассмотрим задачи, включённые в роль вроде CEO: устанавливать стратегические направление компании, выбирать, кого нанимать, писать речи, и так далее. Каждая из этих задач чувствительно зависит от широкого контекста компании и окружающего мира. В какую индустрию входит компания? Насколько она большая; где она; какова её культура? Какие у неё отношения с конкурентами и правительствами? Как все эти факторы поменяются в ближайшую пару десятилетий? Эти переменные настолько разные по масштабу и зависящие от многих аспектов мира, что кажется практически невозможным сгенерировать большое количество обучающих данных, симулируя их (как мы делаем с ИИ, играющими в игры). И число CEO, от которых мы могли бы получить эмпирические данные, очень мало по меркам обучения с подкреплением (которое часто требует миллиарды тренировочных шагов даже для куда более простых задач). Я не говорю, что мы никогда не сможем превзойти человека в этих задачах прямым обучением на них – может, очень упорные усилия в разработке и проектировании при помощи других основанных на задачах ИИ и могут этого достичь. Но я ожидаю, что задолго до того, как такие усилия станут возможными, мы уже создадим ИИ, который будет уметь хорошо справляться с этими задачами, с помощью основанного на обобщении подхода.

В основанном на обобщении подходе путь к созданию сверхчеловеческого CEO – это использование других богатых на данные задач (которые могут сильно отличаться от того, что мы хотим, чтобы ИИ-CEO делал) для обучения ИИ набору полезных когнитивных навыков. К примеру, мы можем обучить агента выполнять инструкции в симулированном мире. Даже если симуляция сильно отличается от реального мира, агент может получить способности к планированию и обучению, которые можно будет быстро адаптировать к задачам реального мира. Аналогично, окружение предков людей также сильно отличалось от современного мира, но мы всё ещё способны довольно быстро становиться хорошими CEO. Приблизительно те же аргументы подходят и к другим влиятельным занятиям, вроде меняющих парадигмы учёных, предпринимателей и законотворцев.

Одно потенциальное препятствие для основанного на обобщении подхода – это возможность, что специфические черты окружения наших предков или специфические черты человеческого мозга были необходимы для возникновения обобщённого интеллекта. К примеру, выдвигалась гипотеза, что социальная «гонка вооружений» послужила причиной возникновения у нас достаточного социального интеллекта для масштабной передачи культурной информации. Однако, возможности для возникновения таких важных черт, включая эту, вполне могут быть воспроизведены в искусственном тренировочном окружении и в искусственных нейронных сетях. Некоторые черты (как квантовые свойства нейронов) может быть очень сложно точно симулировать, но человеческий мозг оперирует в слишком зашумлённых условиях, чтобы было правдоподобно, что наш интеллект зависит от эффектов такого масштаба. Так что кажется весьма вероятным, что однажды мы сможем создать ИИ, который сможет достаточно хорошо обобщать, чтобы на человеческом уровне справляться с широким диапазоном задач, включая абстрактные бедные данными задачи вроде управлением компанией. Давайте называть такие системы обобщёнными искусственными интеллектами, или СИИ2. Многие разработчики ИИ ожидают, что мы создадим СИИ в этом столетии; однако, я не буду рассматривать аргументы про оставшееся до СИИ время, и остальной доклад не будет зависеть от этого вопроса.

Пути к суперинтеллекту

Бостром определил суперинтеллект как «любой интеллект, сильно превосходящий когнитивные способности человека в практически любой области». В этом докладе, я буду понимать «сильно превосходящий человеческие способности» как превосходство над всем человечеством вместе, если бы оно могло глобально координироваться (без помощи другого продвинутого ИИ). Я думаю, сложно отрицать, что в принципе возможно создать отдельный основанный на обобщении суперинтеллектуальный СИИ, поскольку человеческий мозг ограничен многими факторами, которые будут ограничивать ИИ куда меньше. Пожалуй, самый поражающий из них – это огромная разница между скоростью нейронов и транзисторов: вторые передают сигналы примерно в четыре миллиона раз быстрее. Даже если СИИ никогда не превзойдёт людей в других аспектах, такая скорость позволит ему за минуты и часы продумать столько, сколько человек может в годы или десятилетия. В то же время, наш размер мозга – важная причина того, что люди способнее животных – но я не вижу причин, почему нейросеть не может быть ещё на несколько порядков больше человеческого мозга. И хоть эволюция во многом весьма хороший проектировщик, у неё не было времени отбирать по навыкам, специфически полезным в нашем современном окружении, вроде понимания языка и математических рассуждений. Так что нам следует ожидать существования низковисящих плодов, позволяющих продвинуться за пределы человеческой компетенции в многих задачах, опирающихся на такие навыки3.

Есть значительные расхождения в мнениях по поводу того, сколько времени займёт переход от СИИ человеческого уровня до суперинтеллекта. Фокус этого доклада не в этом, но я быстро пробегусь по этой теме в разделе про Контроль. А в этом разделе я опишу качественно, как может пройти этот переход. По умолчанию, следует ожидать, что он будет связан с стандартными факторами, влияющими на прогресс ИИ: больше вычислительной мощности, лучшие алгоритмы, лучшие обучающие данные. Но я также опишу три фактора, вклад которых в увеличение интеллекта ИИ будет становиться сильнее с тем, как ИИ будет становиться умнее: репликация, культурное обучение и рекурсивное улучшение.

В плане репликации ИИ куда менее ограничен, чем люди: очень легко создать копию ИИ с теми же навыками и знаниями, что и у оригинала. Вычислительная стоимость этого процесса скорее всего будет во много раз меньше изначальной стоимости обучения (поскольку обучение обычно включает в себя запуск многих копий ИИ на куда более высокой скорости, чем нужно для задач реального мира). Копирование сейчас позволяет нам применять один ИИ к многим задачам, но не расширяет диапазон задач, которые он может выполнять. Однако, следует ожидать, что СИИ сможет декомпозировать сложные задачи на более простые подзадачи, как и делают люди. Так что копирование такого СИИ сможет привести к появлению суперинтеллекта, состоящего не из одного СИИ, а из целой группы (которую, следуя за Бостромом, я назову коллективным СИИ), которая может справляться со значительно более сложными задачами, чем оригинал4. Из-за простоты и эффективности копирования СИИ, я думаю, что нам следует по умолчанию ожидать возникновения суперинтеллекта из коллективного СИИ.

Эффективность коллективного СИИ может быть ограничена проблемами координации его составляющих. Однако, большинство аргументов из предыдущего абзаца – так же является причиной, почему отдельные СИИ смогут превзойти нас в навыках, необходимых для координации (как обработка языка и понимание другого разума). Особенно полезный навык – это культурное обучение: стоит ожидать, что СИИ смогут приобретать знания друг от друга, и, в свою очередь делиться собственными открытиями, что позволит коллективному СИИ решать более сложные задачи, чем его составляющие по отдельности. Развитие этой способности в людях – это то, что сделало возможным мощный взлёт человеческой цивилизации в последние десять тысяч лет. Нет особых причин считать, что мы достигли максимума этой способности, или что СИИ не может получить ещё большего преимущества над человеком, чем у человека есть над шимпанзе, с помощью получения информации от других агентов.

В-третьих, СИИ смогут улучшать процесс обучения для разработки своих наследников, которые, в свою очередь, улучшат его дальше, для разработки своих, и так далее, в процессе рекурсивного улучшения5. Предыдущие обсуждения в основном сосредотачивались на рекурсивном самоулучшении, включающим один СИИ, «переписывающий свой собственный код». Однако, я по нескольким причинам думаю, что более уместно сосредоточиться на более широком явлении ИИ, продвигающего разработку ИИ. Во-первых, из-за простоты копирования ИИ, нет значимого разделения между ИИ, улучшающим «себя» и ИИ, создающим наследника, разделяющего многие его свойства. Во-вторых, современные ИИ более точно характеризуются как модели, которые можно переобучить, а не как программы, которые можно переписать: практически вся работа, делающая нейросеть умной, производится оптимизатором через продолжительное обучение. Даже суперинтеллектуальному СИИ будет довольно сложно значительно улучшить своё мышление, модифицируя веса+ в своих нейронах напрямую; это кажется похожим на повышение интеллекта человека с помощью хирургии на мозге (хоть и с куда более точными инструментами, чем у нас есть сейчас). Так что, вероятно, более точным будет думать о самомодификации, как о процессе, в котором СИИ изменяет свою высокоуровневую архитектуру или режим обучения, а потом обучает себя заново. Это очень похоже на то, как мы создаём новые ИИ сегодня, только с меньшей ролью людей. В-третьих, если интеллектуальный вклад людей значительно сокращается, то я не думаю, что осмысленно требовать полного отсутствия людей в этом цикле, чтобы поведение ИИ можно было считать рекурсивным улучшением (хотя мы всё ещё можем различать случаи с большим и меньшим вовлечением людей).

Эти соображения в нескольких местах пересматривают классический взгляд на рекурсивное самоулучшение. К примеру, шаг переобучения может быть ограничен вычислительными мощностями, даже если СИИ будет способен очень быстро проектировать алгоритмические усовершенствования. И чтобы СИИ мог полагаться на то, что его цели останутся неизменными при переобучении, ему, вероятно, потребуется решить примерно те же задачи, которыми сейчас занимается область безопасности СИИ. Это причина для оптимизма по поводу того, что весь остальной мир сможет решить эти задачи до того, как несогласованный СИИ дойдёт до рекурсивного самоулучшения. Однако, проясню, это не подразумевает, что рекурсивное улучшение не важно. Напротив, раз ИИ однажды станет основным участником разработки ИИ, то рекурсивное улучшение, как оно определено здесь, однажды станет ключевым двигателем прогресса. Я ещё рассмотрю следствия этого заявления в разделе про Контроль.

Пока что я сосредотачивался на том, как суперинтеллекты появятся, и что они будут способны делать. Но как они будут решать что делать? К примеру, будут ли части коллективного СИИ хотеть кооперироваться друг с другом для достижения больших целей? Будет ли способный к рекурсивному самоулучшению СИИ иметь причины это сделать? Я не хочу формулировать эти вопросы в терминах целей и мотивации СИИ, не описав сперва подробнее, что эти термины на самом деле означают. Это тема следующего раздела.

  • 1. В отличии от обычного использования, тут мы считаем определение каналов ввода-вывода агента частью среды, так что решение задачи требует только обработки входящей информации и вывода исходящей.
  • 2. По-русски устоялось словосочетание «сильный искусственный интеллект». - Прим. перев.
  • 3. Это наблюдение сильно связано с парадоксом Моравека, который я подробнее рассмотрю в разделе про Цели и Агентность. Самый наглядный пример, пожалуй, это то, насколько легко ИИ победить человека в шахматы.
  • 4. Не вполне ясно, всегда ли имеет смысл разделение между «одиночными СИИ» и коллективными СИИ, учитывая, что и отдельный СИИ может состоять из многих модулей, которые сами по себе могут быть довольно интеллектуальными. Но поскольку кажется маловероятным, чтобы таких обобщённо интеллектуальных модулей были сотни или тысячи, я думаю, что разделение всё же осмысленно на практике. См. также рассмотрение «коллективного суперинтеллекта» в «Суперинтеллекте» Бострома.
  • 5. Будет ли последующий агент продвинутой версией разработавшего его СИИ или совсем другим, заново обученным СИИ – вопрос важный, но не влияющий на приводимые здесь аргументы.
Перевод: 
Максим Выменец
Оцените качество перевода: 
Голосов пока нет

Безопасность CИИ с чистого листа. Цели и агентность

Ричард Нго

Фундаментальный повод к беспокойству за аргумент второго вида – это что ИИ получит слишком много власти над людьми и использует эту власть не нравящимся нам способами. Почему ИИ получит такую власть? Я различаю три возможности:

  1. ИИ добивается власти ради достижения других целей, т.е. она для него инструментальная ценность.
  2. ИИ добивается власти ради неё самой, т.е. она для него финальная цель.
  3. ИИ получает власть, не добиваясь её; например, потому, что её ему дали люди.

На первой возможности сосредоточено большинство обсуждений, и я потрачу большую часть этого раздела на неё. Вторая не была так глубоко исследована, но, по моему мнению, всё же важна; я быстро пройдусь по ней в этом и следующем разделах. Вслед за Кристиано, я назову агентов, подпадающих под эти две категории ищущими-влияния. Третья возможность в основном не попадает в тему этого доклада, который фокусируется на опасности намеренного поведения продвинутых ИИ, но я чуть-чуть затрону её здесь и в последнем разделе.

Ключевая идея за первой возможностью – это сформулированный Бостромом тезис инструментальной конвергенции. Он утверждает, что есть некоторые инструментальные цели, чьё достижение увеличивает шансы реализации финальных целей агента для широкого диапазона этих финальных целей и широкого диапазона ситуаций. Примерами таких инструментальных целей служат самосохранение, накопление ресурсов, технологическое развитие и самоулучшение, все из которых полезны для выполнения дальнейших крупномасштабных планов. Я думаю, что эти примеры лучше характеризуют ту власть, о которой я тут говорю, чем какое-нибудь более явное определение.

Однако, связь между инструментально конвергентными целями и опасным преследованием власти применима только к агентам, чьи финальные цели достаточно крупномасштабны, чтобы они получали выгоду от этих инструментальных целей и определяли и добивались их даже когда это ведёт к экстремальным результатам (набор черт, которые я называю ориентированной на цели агентностью). Не совсем ясно, что СИИ будут такими агентами или иметь такие цели. Интуитивно кажется, что будут, потому что мы все имеем опыт преследования инструментально конвергентных целей, к примеру, зарабатывания и сохранения денег, и можем представить, насколько бы мы были в них лучше, если бы были умнее. Но, так как эволюция вложила в нас много полезных краткосрочных мотиваций, сложно определить, в какой мере человеческое ищущее влияния поведение вызвано рассуждениями про инструментальную полезность для крупномасштабных целей. Наше завоевание мира не требовало, чтобы люди выстраивали стратегию на века – только чтобы много отдельных людей довольно ограниченно увеличивали собственное влияние – изобретая немного лучшие инструменты или исследуя чуть дальше.

Следовательно, нам следует серьёзно отнестись и к возможности, что суперинтеллектуальный СИИ будет ещё меньше чем люди сосредоточен на достижении крупномасштабных целей. Мы можем представить, как они преследуют финальные цели, не мотивирующие к поиску власти, например, деонтологические или маломасштабные. Или, может быть, мы создадим «ИИ-инструменты», которые будут очень хорошо подчиняться нашим инструкциям, не обладая собственными целями – как калькулятор не «хочет» ответить на арифметический вопрос, но просто выполняет переданные ему вычисления. Чтобы понять, какие из этих вариантов возможны или вероятны, нам нужно лучше понять природу целей и ориентированной на цели агентности. Таков фокус этого раздела.

Основы для рассуждений про агентность

Для начала критично провести различие между целями, для выполнения которых агент был отобран или спроектирован (их я назову его проектными целями), и целями, которые агент сам хочет достигнуть (их я просто назову «целями агента»)1. К примеру, насекомые могут участвовать в сложных иерархических обществах только потому, что эволюция дала им необходимые для этого инстинкты: «компетенцию без понимания» по терминологии Деннета. Этот термин также описывает нынешние классификаторы картинок и (наверное) созданные обучением с подкреплением агенты вроде AlphaStar и OpenAI Five: они могут быть компетентны в достижении своих проектных целях без понимания, что это за цели, или как их действия помогут их достигнуть. Если мы создадим агентов, чьими проектными целями будет накопление власти, но сами агенты не будут иметь такой цели (к примеру, агент играет на бирже без понимания того, какое влияние это оказывает на общество), то это будет считаться третьей из указанных выше возможностей.

В этом разделе я, напротив, заинтересован в том, что значит для агента иметь свою собственную цель. Три существующих подхода попыток ответить на этот вопрос – это максимизация ожидаемой полезности Джона фон Неймана и Оскара Моргенштерна, позиция намерений Дэниэла Деннета, и меса-оптимизация Хубингера и др. Я, впрочем, не думаю, что любой из этих подходов адекватно характеризует тот тип направленного на цели поведения, которое мы хотим понять. Хоть мы и можем доказывать элегантные теоретические результаты о функциях полезности, они настолько обобщены, что практически любое поведение может быть описано как максимизация какой-то функции полезности. Так что этот подход не ограничивает наши ожидания от мощных СИИ2. В то же время Деннет заявляет, что рассмотрение позиций намерения систем может быть полезно для предсказаний о них – но это работает только при наличии предшествующего знания о том, какие цели система наиболее вероятно имеет. Предсказать поведение нейросети из триллиона параметров – совсем не то же самое, что применить позиции намерения к существующим артефактам. И хоть у нас есть интуитивное понимание сложных человеческих целей и того, как они переводятся в поведение, в какой степени осмысленно распространять эти убеждения об ориентированном на цели поведении на ИИ – это тот самый вопрос, для которого нам нужна теория агентности. Так что несмотря на то, что подход Деннета предоставляет некоторые ценные прозрения – в частности, что признание за системой агентности – это выбор модели, применимый только при некоторой абстракции – я думаю, что у него не получается свести агентность к более простым и понятным концепциям.

В дополнение к этому, ни один из подходов не рассматривает ограниченную рациональность: идею, что системы могут «пытаться» достичь цели, не совершая для этого лучших действий. Для определения целей ограниченно рациональных систем, нам придётся подробно изучить структуру их мышления, а не рассматривать их как чёрные ящики с входом и выходом – другими словами, использовать «когнитивное» определение агентности вместо «поведенческих», как рассмотренные выше. Хубингер и другие используют когнитивное определение в их статье Риски Выученной Оптимизации в Продвинутых Системах Машинного Обучения: «система есть оптимизатор, если она совершает внутренний поиск в некотором пространстве (состоящем из возможных выводов, политик*, планов, стратегий или чего-то вроде этого) тех элементов, которые высоко оцениваются некой целевой функцией, явно воплощённой внутри системы». Я думаю, что это перспективное начало, но тут есть некоторые значительные проблемы. В частности, концепт «явного воплощения» кажется довольно хитрым – что именно (если хоть что-то) явно воплощено в человеческом мозге? И их определение не проводит важного различия между «локальными» оптимизаторами вроде градиентного спуска и целенаправленными планировщиками вроде людей.

Мой собственный подход к рассуждениям об агентности пытается улучшить упомянутые подходы через большую конкретность по поводу мышления, которое мы ожидаем от целенаправленных систем. Также как «иметь интеллект» включает набор способностей (как обсуждалось в предыдущем разделе), «быть целенаправленным» включает некоторые дополнительные способности:

  1. Самосознание: система понимает, что она часть мира, и что её поведение меняет мир;
  2. Планирование: она рассматривает широкий диапазон возможных последовательностей поведения (назовём их «планами»), включая длинные;
  3. Консеквенциализм: она решает, какой план лучше, рассматривая ценность их результатов;
  4. Масштабирование: её выбор чувствителен к далёким во времени и пространстве эффектам планов;
  5. Последовательность: она внутренне объединена для выполнения плана, который сочла лучшим;
  6. Гибкость: Она способна гибко адаптировать свои планы при изменении обстоятельств, а не продолжать те же паттерны поведения.

Заметим, что никакую из этих черт не надо интерпретировать как бинарную; напротив, каждая определяет спектр возможностей. Я также не заявляю, что комбинация этих шести измерений – это точная и полная характеристика агентности; только что это хорошая начальная точка и правильный тип рассуждений для анализа агентности. Например, так подсвечивается, что агентность требует комбинации разных способностей – и как следствие, что есть много разных способов быть не максимально агентным. ИИ, высоко поднявшийся по каким-то из этих метрик может быть довольно низок по другим. Рассмотрим по очереди эти черты, и как может выглядеть их недостаток:

  1. Самосознание: для людей интеллект кажется неотъемлемо связанным с перспективой от первого лица. Но СИИ, обученный на абстрактных данных от третьего лица может приобрести довольно сложную модель мира, которая просто не включает в себя его самого или его выводы. Значительно продвинутая языковая или физическая модель может подпадать под эту категорию.
  2. Планирование: высокоинтеллектуальные агенты будут по умолчанию способны создавать большие сложные планы. Но на практике они, как и люди, могут не всегда использовать эту способность. Представим, к примеру, агента, обученного рассматривать только ограниченный тип планов. Миопическое обучение пытается получить таких агентов; более обобщённо, агент может иметь ограничения на рассматриваемые действия. К примеру, система, отвечающая на вопросы, может рассматривать только планы вида «сначала решить подзадачу 1, потом решить подзадачу 2, потом…».
  3. Консеквенциализм: обычно этот термин в философии описывает агентов, которые считают, что моральность их действий зависит только от последствий этих действий. Тут я использую его более обобщённо, чтобы описать агентов, чьи субъективные предпочтения действий зависят в основном от их последствий. Кажется естественным ожидать, что агенты, обученные функцией вознаграждения, определяемой состоянием мира, будут консеквенциалистами. Но заметим, что люди далеки от стопроцентных консеквенциалистов, поскольку мы часто подчиняемся деонтологическим ограничениям или ограничениям типов поддерживаемых нами рассуждений.
  4. Масштабирование: агенты, заботящиеся только о маломасштабных событиях, могут игнорировать крупномасштабные эффекты своих действий. Поскольку агенты всегда обучаются в маломасштабном окружении, выработка крупномасштабных целей требует обобщения (способами, которые я опишу ниже).
  5. Последовательность: людям недостаёт этой черты, когда у нас происходит внутренний конфликт – к примеру, когда наши система 1 и система 2 имеют различающиеся цели – или когда наши цели сильно меняются со временем. Хоть наши внутренние конфликты и могут быть просто артефактом нашей эволюционной истории, нельзя отвергнуть возможности того, что одиночные СИИ приобретут модульность, приводящую к сравнимым проблемам. Однако, естественнее всего думать об этой черте в контексте коллектива, где отдельные его члены могут иметь более или менее схожие цели, и могут в большей или меньшей степени координироваться.
  6. Гибкость: негибкий агент может возникнуть в окружении, в котором обычно достаточно одного изначального плана, или где приходится делать компромисс между составлением и выполнением планов. Такие агенты могут демонстрировать сфексное поведение. Другим интересным примером может быть мультиагентная система, в которой много ИИ вкладываются в разработку плана – так что отдельный агент может исполнить план, но не может его пересмотреть.

Система, отвечающая на вопросы (так же известная как оракул), может быть реализована как агент, лишённый и планирования, и консеквенциализма. Для действующего в реальном мире ИИ, я думаю, важно рассмотреть масштаб его целей, я займусь этим дальше в этом разделе. Мы можем оценивать и другие системы по этим критериям. У калькулятора нет их всех. Немного более сложные программы, вроде GPS-навигатора, вероятно, стоит рассматривать в как некоторой ограниченной степени консеквенциалистов (он направляет пользователя по-разному в зависимости от плотности трафика), и, возможно, как обладателей других черт тоже, но лишь чуть-чуть. Большинство животных в некоторой степени обладают самосознанием, консеквенциализмом и последовательностью. Традиционная концепция СИИ имеет все эти черты, что даёт такому СИИ способность следовать ищущим-влияние стратегиям по инструментальным мотивам. Однако, заметим, что эта направленность на цели – не единственный фактор, определяющий, будет ли ИИ ищущим-влияние: содержание его целей также имеет значение. Высокоагентный ИИ, имеющий цель оставаться подчинённым людям, может никогда не исполнять ищущие-влияние действия. Как ранее замечено, ИИ, имеющий финальную целью получения власти, может быть ищущим-влияние, даже не обладая большинством этих черт. Я рассмотрю пути оказания влияния на цели агента в следующем разделе про согласование.

Вероятность разработки высокоагентного СИИ

Насколько вероятно, что, разрабатывая СИИ, мы создадим систему с всеми шестью перечисленными мной выше чертами? Один из подходов к ответу на этот вопрос включает предсказывание, какие типы архитектуры моделей и алгоритмов обучения будут использованы – к примеру, будут ли они безмодельными или, напротив, основанными на модели? Мне кажется, такая линия рассуждения недостаточно абстрактна, поскольку мы просто не знаем о мышлении и обучении достаточно, чтобы отобразить их в высокоуровневые решения проектирования. Если мы обучим СИИ безмодельным способом, я предсказываю, что он всё равно будет планировать с использованием внутренней модели. Если мы обучим основанный на модели СИИ, я предсказываю, что его модель будет настолько абстрактной и иерархичной, что взгляд на его архитектуру очень мало скажет нам о настоящем происходящем там мышлении.

На более высоком уровне абстракции, я думаю, что для высокоинтеллектуального ИИ будет проще приобрести эти компоненты агентности. Однако, степень агентности наших наиболее продвинутых ИИ будет зависеть от режима обучения, которым они будут получены. К примеру, наши лучшие языковые модели уже обобщают свои тренировочные данные достаточно хорошо, чтобы отвечать на довольно много вопросов. Я могу представить, как они становятся всё более и более компетентными с помощью обучения с учителем и без учителя, до тех пор, когда они станут способны отвечать на вопросы, ответы на которые неизвестны людям, но всё ещё остаются лишёнными всех указанных черт. Можно провести аналогию с человеческой зрительной системой, которая совершает очень полезное мышление, но не очень «ориентирована на цели» сама по себе.

Мой основной аргумент – что агентность – это не просто эмерджентное свойство высокоинтеллектуальных систем, но скорее набор способностей, которые должны быть выработаны при обучении, и которые не возникнут без отбора по ним. Одно из поддерживающих свидетельств – парадокс Моравека: наблюдение, что кажущиеся наиболее сложными для людей когнитивные навыки зачастую очень просты для ИИ, и наоборот. В частности, парадокс Моравека предсказывает, что создание ИИ, выполняющих сложную интеллектуальную работу вроде научных исследований может на самом деле быть проще, чем создание ИИ, разделяющего более глубокие присущие людям черты вроде целей и желаний. Для нас понимание мира и изменение мира кажутся очень тесно связанными, потому что на наших предков действовал отбор по способности действовать в мире и улучшать своё положение в нём. Но если это интуитивное рассуждение ошибочно, то даже обучение с подкреплением может не выработать все аспекты направленности на цели, если цель обучения – отвечать на вопросы.

Однако, есть и аргументы в пользу того, что сложно обучить ИИ выполнять интеллектуальную работу так, чтобы они не выработали направленную на цели агентность. В случае людей, нужда взаимодействия с неограниченным окружением для достижения своих целей толкнула нас на развитие нашего сложного обобщённого интеллекта. Типичный пример аналогичного подхода к СИИ – это обучение с подкреплением в сложном симулированном 3D-окружении (или, возможно, через длинные разговоры в языковой среде). В таких окружениях, агенты, планирующие эффекты своих действий на длинных временных промежутках будут в целом справляться лучше. Это подразумевает, что наши ИИ будут подвержены оптимизационному давлению в сторону большей агентности (по моим критериям). Мы можем ожидать, что СИИ будет более агентным, если он будет обучен не просто в сложном окружении, но в сложном соревновательном мультиагентном окружении. Так обученным агентам будет необходимо уметь гибко адаптировать планы под поведение соперников; и им будет выгодно рассматривать больший диапазон планов на большем временном масштабе, чем соперники. С другой стороны, кажется очень сложным предсказать общий эффект взаимодействий между многими агентами, например, в людях, они привели к выработке (иногда не-консеквенциалистского) альтруизма.

Сейчас есть очень мало уверенности в том, какие режимы обучения лучше подходят для создания СИИ. Но если есть несколько рабочих, то стоит ожидать, что экономическое давление будет толкать исследователей к использованию в первую очередь тех, которые создают наиболее агентных ИИ, потому что они будут наиболее полезными (предполагая, что проблемы согласования не становятся серьёзными, пока мы не приближаемся к СИИ). В целом, чем шире задача, для которой используется ИИ, тем ценнее для него рассуждать о том, как достигнуть назначенную ему цель путями, которым он не был специально обучен. Например, отвечающая на вопросы система с целью помогать своим пользователям понимать мир может быть куда полезнее той, которая компетентна в своей проектной цели выдачи точных ответов на вопросы, но не имеет своих целей. Вообще я думаю, что большинство исследователей безопасности ИИ выступают за приоритизацию направлений исследований, которые приведут к менее агентным СИИ, и за использование этих СИИ для помощи в согласовании более агентных поздних СИИ. Ведётся работа и над тем, чтобы напрямую сделать СИИ менее агентным (как квантилизация), хотя в целом она сдерживается недостатком ясности вокруг этих концептов.

Я уже рассуждал о рекурсивном улучшении в предыдущем разделе, но ещё кое-что полезно подсветить здесь: раз большая агентность помогает агенту достигать своих целей, способные к модификации себя агенты будут иметь стимул делать себя более агентными (как люди уже пытаются, хоть и ограниченно)3. Так что стоит рассматривать и такой тип рекурсивного улучшения; соображения из предыдущего раздела к нему также в основном применимы.

Цели как обобщённые концепты

Следует заметить, я не ожидаю, что обучающие задачи будут иметь такой же масштаб и продолжительность, как волнующие нас задачи в реальном мире. Так что СИИ не будет напрямую отбираться по крупномасштабным или долгосрочным целям. Но вероятно, что выученные в тренировочном окружении цели будут обобщаться до больших масштабов, так же как люди выработали крупномасштабные цели из эволюции в относительно ограниченном окружении наших предков. В современном обществе люди часто тратят всю свою жизнь, пытаясь значительно повлиять на весь мир – с помощью науки, бизнеса, политики, и многого другого. И некоторые люди стремятся повлиять на весь мир на века, тысячелетия, или даже дольше, несмотря на то, что никогда не было значительного эволюционного отбора людей по беспокойству о том, что произойдёт через несколько сотен лет, или по обращению внимания на события с другой стороны планеты. Это даёт нам повод к беспокойству, что СИИ, не обученный явно преследовать амбициозные крупномасштабные цели, всё равно может это делать. Я также ожидаю, что исследователи будут активно стремиться к обобщениям такого вида в ИИ, потому что на это полагаются некоторые важные применения. Для долгосрочных задач вроде управления компанией СИИ понадобится способность и мотивация выбирать между возможными действиями с учётом их мировых последствий на протяжении лет или десятилетий.

Можно ли конкретнее описать, как выглядит обобщение целей на намного большие масштабы? Учитывая проблемы с подходом максимизации ожидаемой полезности, которые я описывал раньше, не кажется подходящим думать о целях как о функциях полезности от состояния мира. Скорее, цели агента можно сформулировать в терминах тех концептов, которыми он оперирует – независимо от того, относятся ли они к его мыслительному процессу, деонтологическим правилам или исходам во внешнем мире4. И пока концепты агента гибко подстраиваются и обобщаются к новым обстоятельствам, цели, отсылающие к ним, останутся теми же. Сложно и спекулятивно пытаться описать, как может произойти такое обобщение, но, грубо говоря, стоит ожидать, что интеллектуальные агенты способны абстрагироваться от разницы между объектами и ситуациями, которые имеют высокоуровневые сходства. К примеру, после обучения в симуляции, агент может перенести своё отношение к объектам и ситуациям в симуляции на похожие в (куда большем) реальном мире5. Альтернативно, обобщение может произойти из постановки цели: агент, которого всегда вознаграждали за накопление ресурсов в тренировочном окружении, может встроить внутреннюю цель «накопить как можно больше ресурсов». Похожим образом, агенты, обученные соперничать в маломасштабной области могут выработать цель превзойти друг друга, остающуюся и при действии на очень больших масштабах.

С такой точки зрения чтобы предсказать поведение агента, надо рассмотреть, какими концептами он обладает, как они будут обобщаться, и как агент будет о них рассуждать. Я знаю, что это выглядит до невозможности сложной задачей – даже рассуждения человеческого уровня могут приводить к экстремальным непредсказуемым заключениям (как показывает история философии). Однако, я надеюсь, что мы можем вложить в СИИ низкоуровневые настройки ценностей, которые направят их высокоуровневые рассуждения в безопасных направлениях. Я рассмотрю некоторые подходы к этому в следующем разделе про согласование.

Группы и агентность

Раз я рассмотрел коллективные СИИ к предыдущем разделе, важно взглянуть, подходит ли мой подход к пониманию агентности так же и к группам агентов. Думаю, да: нет причин, почему описанные мной черты должны быть присущи одиночной нейросети. Однако отношения между целенаправленностью коллективного СИИ и целенаправленностями его членов могут быть не просты, они зависят от внутренних взаимодействий.

Одна из ключевых переменных – это насколько много опыта (и какие типы) взаимодействия друг с другом во время обучения имеют члены коллективного СИИ. Если они в первую очередь обучались кооперации, это увеличивает вероятность того, что получившийся коллективный СИИ будет целенаправленным агентом, даже если его отдельные члены не особо агентны. Но есть хорошие причины ожидать, что процесс обучения будет включать некоторую конкуренцию, которая уменьшит их последовательность как группы. Внутренняя конкуренция также может способствовать краткосрочному ищущему-влияния поведению, поскольку каждый член выучится поиску влияния для того, чтобы превзойти других. Особо выдающийся пример – человечество смогло захватить мир за тысячелетия не с помощью какого-то общего плана это сделать, а, скорее, как результат попыток многих индивидуумов распространить своё краткосрочное влияние.

Ещё возможно, что члены коллективного СИИ вообще не будут обучены взаимодействию друг с другом, в таком случае кооперация между ними будет целиком зависеть от их способности обобщать выработанные навыки. Сложно представить такой случай, поскольку человеческий мозг очень хорошо адаптирован для групповых взаимодействий. Но пока люди и согласованные СИИ будут удерживать подавляющую долю власти в мире, будет естественный стимул для СИИ, преследующих несогласованные цели, координировать друг с другом для расширения своего влияния за наш счёт6. Преуспеют ли они – зависит от того, какие механизмы координации они будут способны придумать.

Второй фактор – насколько много специализации в коллективном СИИ. В случае когда он состоит только из копий одного агента, нам стоит ожидать, что они будут очень хорошо друг друга понимать и по большей части разделять цели. Тогда мы сможем предсказать целенаправленность всей группы, изучив оригинального агента. Но стоит рассмотрения и случай коллектива, состоящего из агентов с разными навыками. С таким типом специализации коллектив в целом может быть куда более агентным, чем его составляющие, что может упростить безопасный запуск частей коллектива.

  • 1. ИИ-системы, обучившиеся преследовать цели, также известны как меса-оптимизаторы, согласно статье Хубингера и др. «Риски Выученной Оптимизации в Продвинутых Системах Машинного Обучения».
  • 2. Существуют аргументы, пытающиеся это сделать. К примеру, Элиезер Юдковский тут отстаивает, что «хоть исправимость, вероятно, имеет некоторое ядро меньшей алгоритмической сложности, чем все человеческие ценности, это ядро, скорее всего, очень сложно найти или воспроизвести обучением на размеченных людьми данных, потому что послушание – это необычайно противоестественная форма мышления, в том смысле, в котором простая функция полезности – естественная.» Однако, замечу, что этот аргумент полагается на интуитивное разделение естественных и противоестественных форм мышления. Это в точности то, что, как я думаю, нам надо понять, чтобы создать безопасный СИИ – но пока что было мало явных исследований на эту тему.
  • 3. Вроде бы, это идея Анны Саламон, но, к сожалению, я не смог отследить конкретный источник.
  • 4. К примеру, когда люди хотят быть «кооперативными» или «моральными», они зачастую не просто думают о результатах, но скорее о том, какие типы действий следует исполнять, или о типах процедур принятия решений, которые следует использовать для выбора действий. Дополнительная сложность – что люди не имеют полного интроспективного доступа к своим концептам – так что надо также рассматривать подсознательные концепты.
  • 5. Представьте, что это произошло с вами, и вас вытащили «из симуляции» в реальный мир, который очень похож на то, что вы уже испытывали. По умолчанию вы скорее всего захотите питаться хорошей едой, иметь полноценные отношения и так далее, несмотря на пережитый радикальный онтологический сдвиг.
  • 6. В дополнение к первому приходящему в голову аргументу, что интеллект увеличивает способность к координации, скорее всего СИИ в силу своей цифровой природы будет иметь доступ к недоступным людям способам обеспечения кооперации. К примеру, СИИ может послать потенциальным союзникам копию себя для инспекции, чтобы увеличить уверенность в том, что ему можно доверять. Однако, есть и человеческие способы, к которым СИИ будут иметь меньше доступа – к примеру, подвергание себя физической опасности как сигнал честности. И возможно, что относительная сложность обмана и распознавания обмана сдвигается в пользу второго для более интеллектуальных агентов.
Перевод: 
Максим Выменец
Оцените качество перевода: 
Средняя оценка: 4 (2 votes)

Безопасность СИИ с чистого листа. Согласование

Ричард Нго

В предыдущем разделе я рассмотрел правдоподобность того, что агенты, полученные машинным обучением, выработают способность к поиску влияния по инструментальным причинам. Это не было бы проблемой, если бы они делали это только способами, согласованными с человеческими ценностями. В самом деле, многие из преимуществ, которые мы ожидаем получить от СИИ, потребуют у них обладания влиянием на мир. И по умолчанию, разработчики ИИ будут направлять свои усилия на создание агентов, которые будут делать то, что желают разработчики, а не обучатся быть непослушными. Однако, есть причины беспокоиться, что несмотря на усилия разработчиков, ИИ приобретут нежелательные конечные цели, которые приведут к конфликту с людьми.

Для начала, что вообще значит «согласованные с человеческими ценностями»? Вслед за Габриэлем и Кристиано, я проведу разделение между двумя типами интерпретаций. Минималистичный (он же узкий) подход сосредотачивается на избегании катастрофических последствий. Лучший пример – концепт согласования намерений Кристиано: «Когда я говорю, что ИИ A согласован с оператором H, я имею в виду: A пытается сделать то, что H от него хочет.» Хоть всегда и будут пограничные случаи определения намерений данного человека, это всё же даёт грубую завязанную на здравом смысле интерпретацию. Напротив, максималистский (он же амбициозный) подход пытается заставить ИИ принять или следовать конкретному всеохватывающему набору ценностей – вроде конкретной моральной теории, глобального демократического консенсуса, или мета-уровневой процедуры выбора между моральными теориями.

Я считаю, что определять согласование в максималистских терминах непрактично, поскольку это сводит воедино технические, этические и политические проблемы. Может нам и надо добиться прогресса во всех трёх, но добавление двух последних может значительно снизить ясность технических проблем. Так что с этого момента, когда я говорю о согласовании, я имею в виду только согласование намерений. Я также определю, что ИИ A несогласован с человеком H, если H хотел бы, чтобы A не делал того, что A пытается сделать (если бы H был осведомлён о намерениях A). Это подразумевает, что ИИ потенциально могут быть и не согласованными, и не несогласованными. С оператором – к примеру, если делают только то, что оператора не заботит. Очевидно, считается ли ИИ согласованным или несогласованным сильно зависит от конкретного оператора, но в этом докладе я сосредоточусь на ИИ, явно несогласованных с большинством людей.

Одно важное свойство этих определений: используя слово «пытается», они сосредотачиваются на намерениях ИИ, не на итоговых достигнутых результатах. Я думаю, это имеет смысл, потому что нам следует ожидать, что СИИ будут очень хорошо понимать мир, и что ключевой задачей безопасности будет правильная настройка их намерений. В частности, я хочу прояснить, что когда я говорю о несогласованном СИИ, типичный пример в моей голове – это не агент, который не слушается потому что неправильно понимает, что мы хотим, или слишком буквально понимает наши инструкции (что Бостром называл «извращённым воплощением»). Кажется вероятным, что СИИ будут по умолчанию очень хорошо понимать намерения наших инструкций, ведь они вероятно будут обучены на задачах, включающих людей и данные о людях – и понимание человеческого разума особенно важно для компетентности в таких задачах и во внешнем мире.1 Скорее, моё главное беспокойство в том, что СИИ будет понимать, что мы хотим, но ему просто будет всё равно, потому что приобретённые при обучении мотивации оказались не теми, какие нам хотелось.

Идея, что ИИ не будут автоматически приобретать правильные мотивации за счёт большего интеллекта – это следствие сформулированного Бостромом тезиса ортогональности, который гласит, что «более-менее любой уровень интеллекта в принципе может сочетаться с более-менее любой конечной целью». Для наших целей хватит и более слабой версии: просто что высокоинтеллектуальный агент может иметь крупномасштабные цели, несогласованные с большинством людей. Доказательство существования предоставляется высокофункциональными психопатами, которые понимают, что другие люди мотивированы моралью, и могут использовать этот факт для предсказания их действий и манипуляции, но всё же не мотивированы моралью сами.

Мы можем надеяться, что, осторожно выбирая задачи, на которых агент будет обучаться, мы можем предотвратить выработку этими агентами целей, конфликтующих с нашими, без необходимости прорывов в техническом исследовании безопасности. Почему это может не сработать? Существует разделение проблему внешней несогласованности и проблему внутренней несогласованности. Я объясню обе и предоставлю аргументы, почему они могут возникнуть. Я также рассмотрю некоторые ограничения такого подхода и альтернативные точки зрения на согласование.

Внешняя и внутренняя несогласованность: стандартное описание

Мы проводим машинное обучение системы для выполнения желаемого поведения, оптимизируя значение какой-то целевой функции – к примеру, функции вознаграждения в обучении с подкреплением. Проблема внешней несогласованности – это когда у нас не получилось реализовать целевую функцию, описывающую то поведение, которое мы на самом деле от системы хотим, не награждая также нежелательное поведение. Ключевое соображение за этим концептом – явно программировать выражающие все наши желания по поводу поведения СИИ целевые функции сложно. Нет простой метрики, которую нам бы хотелось, чтобы агенты максимизировали – скорее, желаемое поведение СИИ лучше формулируется в концептах вроде послушности, согласия, поддержки, морали и кооперации, которые мы в реалистичном окружении не можем точно определить. Хоть мы и можем определить для них цели-посредники, согласно Закону Гудхарта какое-нибудь нежелательное поведение будет очень хорошо оцениваться этими посредниками и потому будет подкрепляться у обучающихся на них ИИ. Даже сравнительно примитивные современные системы демонстрируют обходящее спецификации поведение, иногда довольно креативное и неожиданное, хотя концепты, которые мы пытаемся определить, гораздо проще.

Один из способов подойти к этой проблеме – включить человеческую обратную связь в целевую функцию, оценивающую поведение ИИ при обучении. Однако, тут есть как минимум три трудности. Первая – то, что предоставлять обратную связь от человека на все данные, нужные для обучения ИИ сложным задачам, до невозможности дорого. Это известно как проблема масштабируемого надзора; основной подход её решения – моделирование наград. Вторая – что для долгосрочных задач нам может понадобиться дать обратную связь прежде, чем у нас будет возможность увидеть все последствия действий агента. Даже в таких простых областях как го, уже зачастую очень сложно определить, насколько хорош был какой-нибудь ход, не увидев, как дальше пройдёт игра. А в больших областях может быть слишком много сложных последствий, чтобы их мог оценить один человек. Основной подход к этой проблеме – использование нескольких ИИ для рекурсивного разложения задачи оценивания, как Дебаты, Рекурсивное Моделирование Наград, и Итеративное Усиление. Через конструирование искусственных оценивателей, эти техники также пытаются подобраться и к третьей трудности с человеческой обратной связью: что людьми можно манипулировать, чтобы они интерпретировали поведение позитивнее, например, выдавая им обманчивые данные (как в случае робота-руки тут).

Даже если мы решим внешнюю несогласованность, определив «безопасную» целевую функцию, мы всё ещё сможем встретить провал внутренней согласованности: наши агенты могут выработать цели, отличающиеся от заданных целевой функцией. Это вероятно, когда обучающее окружение содержит постоянно полезные для получения высокой оценки данной целевой функции подцели, такие как сбор ресурсов и информации, или получение власти.2 Если агенты стабильно получают более высокое вознаграждение при достижении этих подцелей, то оптимизатор может отобрать агентов, преследующих эти подцели сами по себе. (Это один из путей, которым агенты могут выработать финальную цель набора власти, как упомянуто в начале раздела про Цели и Агентность.)

Это аналогично тому, что произошло во время эволюции людей; мы были «обучены» увеличивать свою генетическую приспособленность. В окружении наших предков, подцели вроде любви, счастья и социального статуса были полезны для достижения высокой совокупной генетической приспособленности, так что мы эволюционировали стремление к ним. Но сейчас, когда мы достаточно могущественны, чтобы изменять природный мир согласно нашим желаниям, есть значительные различия между поведением, которое максимизирует генетическую приспособленность (например, частое донорство спермы или яйцеклеток), и поведением, которое мы демонстрируем, преследуя эволюционировавшие у нас мотивации. Другой пример: предположим, мы вознаграждаем агента каждый раз, когда он корректно следует инструкции человека, так что ведущее к такому поведению мышление поощряется оптимизатором. Интуитивно, мы надеемся, что агент выработает цель подчинения людям. Но также вполне представимо, что послушное поведение агента руководствуется целью «не быть выключенным», если агент понимает, что непослушание приведёт к его выключению – в этом случае оптимизатор будет на самом деле вознаграждать цель выживания каждый раз, когда она будет приводить к следованию инструкциям. Два агента, каждый мотивированный одной из этих целей, могут вести себя очень похоже до тех пор, пока они не окажутся в положении, в котором можно не подчиниться, не будучи выключенным.3

Что определяет, какой из этих агентов на самом деле возникнет? Как я упоминал выше, один важный фактор – это наличие подцелей, которые стабильно приводят к вознаграждению при обучении. Другой – насколько просто и выгодно оптимизатору сделать агента мотивированным этими подцелями, а не обучающей целевой функцией. В случае людей, к примеру, концепт совокупной генетической приспособленности был очень сложным для встраивания эволюцией в мотивационную систему людей. И даже если бы наши предки каким-то образом выработали этот концепт, им было бы сложно придумать лучшие способы его достижения, чем и так вложенные в них эволюцией. Так что в окружении наших предков было сравнительно мало давления отбора на внутреннюю согласованность с эволюцией. В контексте обучения ИИ это значит, что сложность целей, которые мы пытаемся в него вложить, мешает два раза: она не только усложняет определение приемлемой целевой функции, но ещё и уменьшает вероятность того, что ИИ станет мотивированным предполагаемыми целями, даже если функция была правильной. Конечно, мы ожидаем, что потом ИИ станут достаточно интеллектуальными, чтобы точно понимать, какие цели мы предполагали им дать. Но к тому времени будет сложно убрать их уже существующие мотивации, и скорее всего они будут достаточно умны для попыток обманчивого поведения (как в гипотетическом примере из предыдущего абзаца).

Так как мы можем увериться во внутренней согласованности СИИ с намерениями человека? Эта область исследования пока что получала меньше внимания чем внешнее согласование, потому что это более хитрая задача. Один из потенциальных подходов включает добавление тренировочных примеров, в которых поведение агентов, мотивированных несогласованными целями, будет отличаться от согласованных агентов. Однако, проектировать и создавать такие тренировочные данные сейчас намного сложнее, чем массовое производство данных, например, процедурно-генерируемой симуляцией или поиском по сети. Частично это потому, что конкретные тренировочные данные в целом сложнее создавать, но есть ещё три дополнительных причины. Во-первых, по умолчанию мы просто не знаем, какие нежелательные мотивации возникают в наших агентах, на наказании каких нужно сосредоточиться. Техники интерпретируемости могут с этим помочь, но их разработка очень сложна (я рассмотрю это в следующем разделе). Во-вторых, наиболее вероятно приобретаемые агентами несогласованные мотивации – это те, которые наиболее устойчиво полезны. Например, особенно сложно спроектировать тренировочное окружение, в котором доступ к большему количеству информации приводит к более низкой награде. В-третьих, нас больше всего беспокоят агенты, имеющие несогласованные крупномасштабные цели. Но крупномасштабные цели сложнее всего настроить при обучении, неважно, в симуляции или в реальном мире. Так что чтобы подобраться к этим проблемам или обнаружить новые техники внутреннего согласования требуется ещё много работы.

Более холистический взгляд на согласованность

Внешнее согласование – это задача корректного оценивания поведения ИИ; внутреннее согласование – задача заставить цели ИИ соответствовать этим оценкам. В некоторой степени мы можем трактовать эти две задачи как отдельные; однако, я думаю, также важно иметь в виду, каким образом картина «согласование = внешнее согласование + внутреннее согласование» может быть неполна или обманчива. В частности, что вообще значит реализовать «безопасную» целевую функцию? Это функция, которую мы хотим, чтобы агент действительно максимизировал? Но хоть максимизация ожидаемой награды имеет смысл в формальных случаях вроде MDP или POMDP, она куда хуже определена при реализации целевой функции в реальном мире. Если есть последовательность действий, позволяющая агенту исказить канал получения вознаграждения, то «запровологоловиться», максимизировав этот канал, практически всегда будет стратегией для получения наивысшего сигнала вознаграждения в долгосрочной перспективе (даже если функция вознаграждения сильно наказывает действия, к этому ведущие).4 И если мы используем человеческую обратную связь, то, как уже обсуждалось, оптимально будет манипулировать надсмотрщиками, чтобы они выдали максимально позитивную оценку. (Существует предположение, что «миопическое» обучение может решить проблемы искажения и манипуляции, но тут я аргументировал, что оно лишь прячет их.)

Вторая причина, почему функция вознаграждения – это «дырявая абстракция» в том, что любые реальные агенты, которых мы можем обучить в обозримом будущем, будут очень, очень далеки от предельно оптимального поведения нетривиальных функций вознаграждения. В частности, они будут замечать вознаграждения лишь крохотной доли возможных исходов. Более того, если это основанные на обобщении агенты, то они зачастую будут подходить к выполнению новых задач с очень маленьким обучением конкретно на них. Так что поведение агента почти всегда будет в первую очередь зависеть не от настоящих значений функции вознаграждения, а скорее от того, как агент обобщил ранее собранные в других состояниях данные.5 Это, наверное, очевидно, но стоит особо отметить, потому что очень многие теоремы о сходимости алгоритмов обучения с подкреплением полагаются на рассмотрение всех состояний на бесконечном пределе, так что скажут нам очень мало про поведение в конечном промежутке времени.

Третья причина – исследователи уже сейчас модифицируют функции вознаграждения так, чтобы это меняло оптимальные пути действий, когда это кажется полезным. К примеру, мы добавляем условия формирования для появления неявного плана обучения, или бонусы за исследование, чтобы вытолкнуть агента из локального оптимума. Особенно относящийся к безопасности пример - нейросеть можно модифицировать так, чтобы её оценка зависела не только от вывода, но и от внутренних отображений. Это особенно полезно для оказания влияния на то, как нейросети обобщает – к примеру, можно заставить их игнорировать ложные корреляции в тренировочных данных. Но опять же, это усложняет интерпретацию функций вознаграждения как спецификаций желаемых исходов процесса принятия решений.

Как тогда нам про них думать? Ну, у нас есть набор доступных инструментов, чтобы удостовериться, что СИИ будет согласованным – мы можем менять используемые при обучении нейронные архитектуры, алгоритмы обучения с подкреплением, окружения, оптимизаторы, и т.д. Следует думать о нашей возможности определять целевую функцию как о самом мощном инструменте. Но мощном не потому, что она сама определяет мотивации агента, а скорее потому, что вытащенные из неё примеры оформляют мотивации и мышление агента.

С этой точки зрения, нам стоит меньше беспокоиться об абсолютных оптимумах нашей целевой функции, поскольку они никогда не проявятся при обучении (и поскольку они скорее всего будут включать в себя перехват вознаграждений). Вместо этого, стоит сосредоточиться на том, как целевые функции, в сочетании с другими частями настроек обучения, создают давление отбора в сторону агентов, думающих тем способом, которым нам хочется, и потому имеющих желательные мотивации в широком диапазоне обстоятельств.6 (См. этот пост Санджива Ароры для более математического оформления похожего заявления.)

Эта перспектива предоставляет нам другой способ взглянуть на аргументы из предыдущего раздела о высокоагентных ИИ. Дело обстоит не так, что ИИ обязательно станут думать в терминах крупномасштабных консеквенциалистских целей, и наш выбор целевой функции лишь определит, какие цели они будут максимизировать. Скорее, все когнитивные способности ИИ, включая системы мотивации, выработаются при обучении. Целевая функция (и остальные настройки обучения) определят пределы их агентности и их отношение к самой целевой функции! Это может позволить нам спроектировать планы обучения, создающие давление в сторону очень интеллектуальных и способных, но не очень агентных ИИ – таким образом предотвращая несогласованность, не решая ни внешнего, ни внутреннего согласования.

Но если не получится, то нам понадобится согласовать агентные СИИ. В дополнение к техникам, которые я описывал раньше, для этого надо точнее разобраться в концептах и целях, которыми обладают наши агенты. Я пессимистичен по поводу полезности математики в таких высокоуровневых вещах. Для упрощения доказательств математические подходы часто абстрагируются от аспектов задачи, которые нас на самом деле волнуют – делая эти доказательства куда менее ценными, чем они кажутся. Я думаю, что эта критика относится к подходу максимизации полезности, как уже обсуждалось. Другие примеры включают большинство доказательств о сходимости обучения с подкреплением и об устойчивости конкурентного обучения. Я думаю, что вместо этого, нам нужны принципы и подходы похожие на использующихся в когнитивных науках и эволюционной биологии. Я думаю, что категоризация внутренней несогласованности на верховую и низовую – важный пример такого прогресса; я также был бы рад увидеть подход, который позволит осмысленно говорить о взломе градиента7 и различии между мотивацией вознаграждающим сигналом и вознаграждающей функцией. Нам стоит называть функции вознаграждения как «правильные» или «неправильные» только в той степени, в какой они успешно или неуспешно толкают агента к приобретению желаемых мотиваций и избеганию проблем вроде перечисленных.

В последнем разделе я рассмотрю вопрос, сможет ли в случае нашего провала СИИ, имеющий цель увеличения своего влияния за счёт людей, преуспеть в этом.

  • 1. Конечно, то, что люди говорят, что они хотят, на что действия людей указывают, что они этого хотят, и что люди в тайне хотят, часто разные вещи. Но опять же, я не особо беспокоюсь о том, что суперинтеллект не сможет понять это разделение, если захочет.
  • 2. Заметим тонкое различие между существованием полезных подзадач и моими ранними рассуждениями о тезисе инструментальной конвергенции. Первое заявление – про то, что для конкретных задач, на которые мы обучаем СИИ, есть некие подцели, вознаграждаемые во время обучения. Второе – про то, что для большинства целей, которые может выработать СИИ, есть конкретные подцели, которые будут полезны для преследования этих целей после запуска. Второе включает первое только если конвергентные инструментальные подцели возможны и вознаграждаемы во время обучения. Самоулучшение – конвергентная инструментальная цель, но я не ожидаю, что она будет доступна в большинстве тренировочных окружений, а где будет, возможно будет наказываться.
  • 3. На самом деле эти два примера демонстрируют два разных типа провала внутреннего согласования: верховые и низовые меса-оптимизаторы. При обучении на функции вознаграждения R верховые меса-оптимизаторы выучивают цели, ведущие к высокой оценке по R, или, иными словами, каузально сверху по течению от R. К примеру, люди научились ценить поиск еды, потому что это ведёт к большему репродуктивному успеху. А низовые меса-оптимизаторы выучивают цели, находящиеся каузально внизу по течению от R: к примеру, выучивают цель выживания и понимают, что плохая оценка по R приведёт к выбрасыванию из оптимизационной процедуры. Это стимулирует их высоко оцениваться по R и скрывать свои истинные цели – исход, называемый обманчивой согласованностью. См. дальнейшую дискуссию здесь.
  • 4. Тут важно разделять между сообщением, кодом и каналом (как у Шеннона). В контексте обучения с подкреплением можно интерпретировать сообщение как цель, предполагаемую проектировщиками системы (например, выигрывать в Starcraft); код – это вещественные числа, соответствующие состояниям, с большими числами означающими лучшие состояния; и канал – то, что передаёт эти числа агенту. Пока что мы предполагали, что цель, которой обучается агент, основана на сообщении, которое его оптимизатор выводит из своей функции вознаграждения (хотя иногда так, что оно неправильно обобщается, потому что может быть сложно декодировать предполагаемое сообщение из конечного числа приведённых наград). Но также возможно, что агент научится беспокоиться о состоянии самого канала. Я рассматриваю боль у животных как пример этого: сообщение о полученных повреждениях; код в том, что большая боль означает большие повреждения (и тонкие моменты типы и интенсивности); и канал – нейроны, передающие эти сигналы в мозг. В некоторых случаях код меняется – к примеру, если получить удар током, но знать, что он безопасный. Если бы мы беспокоились только о сообщении, то мы бы игнорировали такие случаи, потому что они не выдают содержания о повреждениях тела. Но на самом деле мы всё равно пытаемся предотвратить такие сигналы, потому что не хотим чувствовать боль! Схожим образом, агент, обученный сигналом вознаграждения, может хотеть продолжать получать этот сигнал даже если он больше не несёт то же сообщение. По-другому это можно описать как разницу между интернализацией базовой цели и моделированием этой цели, как описано в четвёртом разделе Рисков Выученной Оптимизации в Продвинутых Системах Машинного Обучения.
  • 5. Ошибка представления об агентах обучения с подкреплением только как о максимизаторах награды (не имеющих других выученных инстинков и целей) имеет интересную параллель в истории изучения мышления животных, когда бихевиористы сосредотачивались на способах, которыми животные обучались новому поведению для увеличения вознаграждения, игнорируя внутренние аспекты их мышления.
  • 6. Полезный пример – альтруизм у людей. Хоть и нет консенсуса о его точных эволюционных механизмах, можно заметить, что наши альтруистические инстинкты простираются далеко за пределы прямолинейных случаев альтруизма по отношению к родственникам и напрямую взаимного альтруизма. Другими словами, некоторое взаимодействие между нашей эволюционной подгонкой и нашим разнообразным сложным окружением привело к возникновению довольно обобщённых альтруистических инстинктов, делающих людей «безопаснее» (с точки зрения других видов).
  • 7. См. пост Эвана Хубингера: «Взлом градиента – это термин, который я в последнее время использую, чтобы описать явление, когда обманчиво согласованный меса-оптимизатор может быть способен намеренно действовать так, чтобы заставить градиентный спуск обновить его в конкретную сторону.»
Перевод: 
Максим Выменец
Оцените качество перевода: 
Голосов пока нет

Безопасность СИИ с чистого листа. Контроль

Ричард Нго

Важно заметить, что моих предыдущих аргументов самих по себе недостаточно для заключения, что СИИ перехватит у нас контроль над миром. Как аналогию можно взять то, что научные знания дают нам куда больше возможностей, чем у людей каменного века, но сомнительно, что один современный человек, заброшенный назад в то время, смог бы захватить весь мир. Этот последний шаг аргументации полагается на дополнительные предсказания о динамике перехода от людей к СИИ в качестве умнейших агентов на Земле. Она будет зависеть от технологических, экономических и политических факторов, которые я рассмотрю в этом разделе. Возвращающейся темой будет важность ожидания того, что СИИ будет развёрнут на многих разных компьютерах, а не привязан к одному конкретному «железу», как люди.1

Я начну с обсуждения двух очень высокоуровневых аргументов. Первый – что более обобщённый интеллект позволяет приобрести большую власть, с помощью крупномасштабной координации и разработки новых технологий. И то, и другое вложилось в установлении контроля над миром человеческим видом; и то, и другое вкладывалось в другие большие сдвиги распределения сил (например, индустриальную революцию). Если все люди и согласованные СИИ менее способны в этих двух отношениях, чем несогласованные СИИ, то стоит ожидать, что последние разработают больше новых технологий и используют их для накопления большего количества ресурсов, если на них не будут возложены сильные ограничения и не окажется, что они не способны хорошо координироваться (я кратко рассмотрю обе возможности).

Однако, с другой стороны, захватить мир очень сложно. В частности, если люди у власти видят, что их позиции ослабляются, они наверняка предпримут действия, чтобы это предотвратить. Кроме того, всегда намного проще понимать и рассуждать о более конкретной и осязаемой задаче; а крупномасштабное будущее развитие обычно очень плохо прогнозируется. Так что даже если сложно отвергнуть приведённые высокоуровневые аргументы, всё равно могут быть какие-то пока что не замеченные решения, которые будут замечены, когда для этого появятся стимулы, а набор доступных подходов будет более понятен.

Как мы можем пойти дальше этих высокоуровневых аргументов? В этом разделе я представлю два типа катастрофических сценариев и четыре фактора, которые повлияют на нашу способность удерживать контроль, если мы разработаем не полностью согласованные СИИ:
1. Скорость разработки ИИ
2. Прозрачность ИИ-систем
3. Стратегии ограниченного развёртывания
4. Политическая и экономическая координация людей

Сценарии катастрофы

Было несколько попыток описать катастрофические исходы, которые могут быть вызваны несогласованными суперинтеллектами, хотя очень сложно охарактеризовать их детально. Говоря в общем, самые убедительные сценарии делятся на две категории. Кристиано описывает СИИ, получающие влияние изнутри наших нынешних экономических и политических систем, забирая или получая от людей контроль над компаниями и государственными учреждениями. В некоторый момент «мы достигаем точки, когда мы уже не можем оправиться от одновременного отказа автоматизации» - после чего эти СИИ уже не имеют стимула следовать человеческим законам. Хансон также представляет сценарий, в котором виртуальные разумы приходят к экономическому доминированию (хотя он менее взволнован по поводу несогласованности, отчасти потому, что он сосредотачивается на эмулированных человеческих разумах). В обоих сценариях биологические люди теряют влияние, потому что они менее конкурентноспособны в стратегически важных задачах, но никакой одиночный СИИ не способен захватить контроль над миром. В некоторой степени, эти сценарии аналогичны нашей нынешней ситуации, когда большие корпорации и учреждения смогли накопить много силы, хоть большинство людей и не согласны с их целями. Однако, поскольку эти организации состоят из людей, на них всё же оказывается давление в сторону согласованности с человеческими целями, что неприменимо к группе СИИ.

Юдковский и Бостром, напротив, описывают сценарии, в которых один СИИ набирает силу в основном через технологические прорывы, будучи в основном отделённым от экономики. Ключевое предположение, разделяющее эти две категории сценариев – сможет ли отдельный СИИ таким образом стать достаточно могущественным, чтобы захватить контроль над миром. Существующие описания таких сценариев приводят в пример сверхчеловеческие нанотехнологии, биотехнологии и компьютерный взлом; однако, детально их охарактеризовать сложно, потому что эти технологии пока не существуют. Однако кажется весьма вероятным, что существуют какие-то будущие технологии, которые предоставят решающее стратегическое преимущество, если ими обладает только одно действующее лицо, так что ключевой фактор, определяющий правдоподобность таких сценариев – будет ли разработка ИИ достаточно быстрой, чтобы допустить такую концентрацию сил.

В обоих случаях люди и согласованные ИИ в итоге окажутся намного слабее несогласованных ИИ, которые тогда смогут завладеть нашими ресурсами в своих собственных целях. Ещё худший сценарий – если несогласованный СИИ действует намеренно враждебно людям – к примеру, угрожает ради уступок. Как мы можем избежать таких сценариев? Есть искушение напрямую целиться в финальную цель способности согласовывать произвольно умные ИИ, но я думаю, что наиболее реалистичный горизонт планирования доходит до ИИ, намного лучших, чем люди в исследованиях безопасности ИИ. Так что нашей целью должно быть удостовериться, что эти ИИ согласованы, и что их исследования будут использоваться при создании следующих. Категорию катастрофы, которая помешает этому с больше вероятностью, зависит не только от интеллекта, агентности и целей разработанных нами ИИ, но и от четырёх перечисленных выше факторов, которые я сейчас рассмотрю подробнее.

Скорость разработки ИИ

Если разработка ИИ будет продвигаться очень быстро, то мы будем менее способны адекватно на неё реагировать. В частности, нам стоит интересоваться, сколько времени займёт продвижение СИИ от интеллекта человеческого уровня до суперинтеллекта, то, что мы называем периодом взлёта. История систем вроде AlphaStar, AlphaGo и OpenAI Five даёт нам некоторое свидетельство, что он будет коротким: каждая из них после длительного периода разработки быстро продвинулась от любительского до сверхчеловеческого уровня. Схожее явление произошло с эволюцией людей, когда нам потребовалась всего пара миллионов лет, чтобы стать намного умнее шимпанзе. В нашем случае, одним из ключевых факторов стало масштабирование «железа» мозга – которое, как я уже упоминал, намного проще для СИИ, чем для людей.

Вопрос того, как будет влиять масштабирование железа и времени обучения, важен, но в долгосрочной перспективе самый важный вопрос – как будет влиять масштабирование интеллекта разработчиков – потому что однажды большая часть исследований в области ИИ и смежных будет выполняться самими СИИ (в процессе, который я называл рекурсивным улучшением). В частности, в интересующем нас диапазоне интеллекта, будет ли рост интеллекта СИИ на δ увеличивать интеллект лучшего следующего СИИ, которого он может разработать, на больше или меньше, чем на δ? Если больше, то рекурсивное улучшение в какой-то момент резко ускорит прогресс разработки ИИ. Юдковский заявляет в пользу этой гипотезы:

История эволюции гоминидов до сегодняшнего дня показывает, что для существенного роста реальных когнитивных способностей не требуется экспоненциально возрастающего количества эволюционной оптимизации. Чтобы добраться от Человека Прямоходящего до Человека Разумного не потребовалось в десять раз большего эволюционного интервала, чем от Австралопитека до Человека Прямоходящего. Вся выгода от открытий вроде изобретения агрикультуры, науки или компьютеров произошла безо всякой способности вкладывать технологические дивиденды в увеличение размера мозга, ускорение нейронов или улучшение низкоуровневых алгоритмов, ими используемых. Раз ИИ может вкладывать плоды своего интеллекта в аналоги всего этого, нам стоит ожидать, что кривая развития ИИ будет куда круче, чем человеческая.

Я рассматриваю это как сильный аргумент в пользу того, что темп прогресса однажды станет намного быстрее, чем сейчас. Я куда менее уверен по поводу того, когда произойдёт это ускорение – к примеру, может оказаться, что описанная петля положительной обратной связи не будет иметь большого значения до момента, когда СИИ уже будет суперинтеллектуальным, так что период взлёта (определённый выше) будет всё же довольно медленным. Есть конкретные возражения против наиболее экстремальных сценариев быстрого взлёта, постулирующих резкий скачок в способностях ИИ перед тем, как он станет оказывать трансформативное2 влияние. Некоторые ключевые аргументы:

  1. Разработка СИИ будет конкурентным усилием, в котором много исследователей будут стремиться встроить в свои ИИ обобщённые когнитивные способности, и будут постепенно продвигаться в этом. Это делает маловероятным наличие низковисящих плодов, обеспечивающих при их достижении большой скачаок способностей. (Можно рассмотреть культурную эволюцию как такой низковисящий плод в развитии людей, что объяснило бы, почему она привела к такому быстрому прогрессу.)
  2. Доступность вычислительных мощностей, являющаяся по некоторым мнениям ключевым двигателем прогресса ИИ, увеличивается довольно плавно.
  3. Плавный технологический прогресс исторически куда больше распространён, чем скачкообразный. К примеру, прогресс шахматных ИИ был устойчивым и предсказуемым много десятилетий.

Заметим, что все эти аргументы совместимы с плавной, но ускоряющейся со всё большим вкладом ИИ-систем разработкой ИИ.

Прозрачность ИИ-систем

Прозрачная ИИ-система – такая, чьи мысли и поведение мы можем понять и предсказать; мы можем быть более уверенными в своей способности удерживать контроль над СИИ, если он прозрачный. Если мы можем сказать, когда система планирует предательское поведение, то мы можем выключить её до того, как она получит возможность осуществить свой план. Заметим, что подобная информация также была бы ценна для улучшения координации людей с СИИ, и, конечно, для обучения, как я кратко рассматривал в предыдущих разделах.

Хубингер перечисляет три широких подхода к увеличению прозрачности ИИ. Один – через создание инструментов интерпретируемости, которые позволят нам анализировать внутреннее функционирование существующей системы. Наша способность интерпретировать процессы в мозгах людей или животных сейчас не очень развита, но это частично из-за сложности высокоточных измерений. Напротив, в нейросетях мы можем напрямую прочитать каждый вес и каждую активацию, и даже менять их по отдельности, чтобы посмотреть, что произойдёт. С другой стороны, если наши наиболее развитые системы будут быстро меняться, то предыдущие исследования прозрачности смогут быстро устаревать. В этом отношении нейробиологам – которые могут изучать одну мозговую архитектуру десятилетиями – проще.

Второй подход – создание стимулов к прозрачности во время обучения. К примеру, мы можем вознаграждать агента за объяснение своего мыслительного процесса, или за поведение предсказуемым образом. Интересно заметить, что есть гипотеза, подразумевающая, что это произошло во время эволюции людей, так что можно предположить, что мультиагентные взаимодействия могут быть полезны для создания таких стимулов (если мы сможем найти способ предотвращения возникновения ещё и стимулов к обману).

Третий подход – проектирование алгоритмов и архитектур, которым будет присуща лучшая интерпретируемость. К примеру, основанный на модели планировщик вроде AlphaGo исследует множество возможных веток дерева игры, чтобы решить какой сделать ход. Посмотрев, какие ходы он исследует, мы можем понять, что он планирует, до того, как он выберет ход. Однако, мы тогда будем полагаться на то, что AlphaGo использует точную модель го. Более обобщённым агентам в больших окружениях надо будет планировать с использованием сжатых представлений этих окружений, которые по умолчанию будут менее интерпретируемы. Также ещё предстоит увидеть, могут ли склонные к прозрачности архитектуры и алгоритмы работать так же хорошо, как более закрытые альтернативы, но я сильно подозреваю, что нет.

Несмотря на присущие каждому из этих подходов сложности, у нас есть одно связанное с прозрачностью преимущество – доступ к разным версиям ИИ. Этим пользуется механизм перекрёстного осмотра в Дебатах. Или, как более практичный пример, если ИИ-системы немного глупее людей пытаются обмануть своих операторов, то это довольно явное свидетельство, что более интеллектуальные версии тоже будут это делать. Однако, этот подход ограничен, потому что он не позволяет нам обнаружить небезопасные планы, пока они не повлияли на поведение. Если понимание опции предательства всегда будет сопровождаться пониманием, что оно пока не сработает, то мы не сможем наблюдать тревожные сигналы в поведении до тех пор, пока ИИ не разовьётся до уровня, на котором посчитает, что предательство будет успешным.

Ограниченные стратегии развёртывания

Если рассмотреть мою раннюю аналогию современного человека, заброшенного в каменный век, то ключевым фактором, который помешает ему захватить мир, будет то, что он будет очень ограниченно «развёрнут». Он сможет быть только в одном месте одновременно; не сможет очень быстро путешествовать или даже посылать сообщения; не будет устойчив к несчастным случаям; и сможет использовать очень мало существующей инфраструктуры. Напротив, для глубокого обучения системы требуется куда больше вычислительных ресурсов, чем для её работы – когда СИИ будет обучен, скорее всего будет относительно дёшево запустить много его копий. Несогласованный суперинтеллект с доступом в интернет будет способен создать тысячи копий себя, которые мы не будем контролировать, купив (или взломав) необходимое оборудование. В этот момент наши соображения о способностях «одиночного СИИ» устаревают, и более подходящей становится терминология о «втором виде».

Можно представить попытки избежать этого сценария, разворачивая СИИ более ограниченно – к примеру, запуская их на отдельном безопасном оборудовании и позволяя им предпринимать только некоторые конкретные заранее одобренные действия (например, отвечать на вопросы). Это кажется значительно более безопасным. Однако, это также кажется и значительно менее вероятным в конкурентной среде – судя по сегодняшним тенденциям, более правдоподобным исходом будет, что почти все сразу же будут иметь доступ к персональному СИИ-ассистенту через свой телефон. Это приводит нас к четвёртому фактору:

Человеческая политическая и экономическая координация

По умолчанию нам не стоит полагаться на высокий уровень координации в предотвращении проблем безопасности СИИ. Мы пока не смогли адекватно скоординироваться даже для предотвращения глобального потепления, которое является хорошо задокументированной и постепенно ухудшающейся проблемой. В случае развёртывания СИИ, куда сложнее ясно экстраполировать будущие опасности из нынешнего поведения. В то же время при отсутствии технических решений проблем безопасности будут сильные краткосрочные экономические стимулы игнорировать недостаток гарантий по поводу умозрительных будущих событий.

Однако, это очень сильно зависит от трёх предыдущих факторов. Куда проще будет прийти к консенсусу по поводу того, как иметь дело с суперинтеллектом, если ИИ-системы будут подходить, а потом превосходить человеческий уровень на протяжении десятилетий, а не недель или месяцев. Это особенно верно, если менее способные системы продемонстрируют непослушание, которое явно было бы катастрофическим в исполнении более способных агентов. В то же время, разные действующие лица, которые могут находиться на переднем фронте разработки СИИ – правительства, компании, некоммерческие организации – будут варьироваться в своих реакциях на проблемы безопасности, своей кооперативности и своей способности реализовывать стратегии ограниченного развёртывания. И чем больше их будет вовлечено, тем сложнее будет координация между ними.

  • 1. Для изучения возможных последствий программного интеллекта (отдельно от последствий увеличенного интеллекта) см. «Век Эмов» Хансона.
  • 2. Приблизительно означает «очень сильное», как минимум на уровне индустриальной революции – Прим. перев.
Перевод: 
Максим Выменец
Оцените качество перевода: 
Голосов пока нет

Безопасность СИИ с чистого листа. Заключение

Ричард Нго

Давайте заново рассмотрим изначальный аргумент второго вида вместе с дополнительными заключениями и прояснениями из остального доклада.

  1. Мы создадим ИИ куда умнее людей; то есть, куда лучше людей использующих обобщённые когнитивные навыки для понимания мира.
  2. Эти СИИ будут автономными агентами, преследующими высокомасшабные цели, потому что направленность на цели подкрепляется во многих тренировочных окружениях, и потому что эти цели будут иногда обобщаться до больших масштабов.
  3. Эти цели по умолчанию будут несогласованы с тем, что мы хотим, потому что наши желания сложны и содержат много нюансов, а наши существующие инструменты для формирования целей ИИ неадекватны задаче.
  4. Разработка автономных несогласованных СИИ приведёт к тому, что они получат контроль над будущим человечества, с помощью своего сверхчеловеческого интеллекта, технологии и координации – в зависимости от скорости разработки ИИ, прозрачности ИИ-систем, того, насколько ограниченно их будут развёртывать, и того, как хорошо люди могут политически и экономически кооперироваться.

Лично я наиболее уверен в 1, потом в 4, потом в 3, потом в 2 (в каждом случае при условии выполнения предыдущих утверждений) – хотя я думаю, что у всех четырёх есть пространство для обоснованного несогласия. В частности, мои аргументы про цели СИИ могут слишком полагаться на антропоморфизм. Даже если это и так, всё же очень неясно, как рассуждать о поведении обобщённо интеллектуальных систем не прибегая к антропоморфизму. Главная причина, по которой мы ожидаем, что разработка СИИ будет важным событием – то, что история человечества показывает нам, насколько интеллект важен. Но к успеху людей привёл не только интеллект – ещё и наше неисчерпаемое стремление к выживанию и процветанию. Без этого мы бы никуда не добрались. Так что пытаясь предсказать влияние СИИ, мы не можем избежать мыслей о том, что заставит их выбирать одни типы интеллектуального поведения, а не другие – иными словами, мыслей о их мотивациях.

Заметим, впрочем, что аргумент второго вида и перечисленные мной сценарии не задумываются как исчерпывающее описание всех связанных с ИИ экзистенциальных рисков. Даже если аргумент второго вида окажется некорректным, ИИ всё равно скорее всего будет трансформативной технологией, и нам стоит попытаться минимизировать потенциальный вред. В дополнение к стандартным беспокойствам о неправильном использовании (к примеру, об использовании ИИ для разработки оружия), мы можем также волноваться о том, что рост способностей ИИ приведёт к нежелательным структурным изменениям. К примеру, они могут двинуть баланс щита и меча в кибербезопасности, или привести к большей централизации человеческого экономического влияния. Думаю, сценарий Кристиано «уход со всхлипом» тоже подпадает в эту категорию. Однако, было мало глубоких исследований того, какие структурные изменения могу привести к долговременному вреду, так что я не склонен особо полагаться на такие аргументы, пока они не будут более тщательно исследованы.

Напротив, мне кажется, сценарии захвата власти ИИ, на которых сосредоточен этот доклад, куда лучше разобраны – но опять же, как указано выше, имеют большие вопросительные знаки у некоторых ключевых предпосылок. Однако, важно различить вопрос того, насколько вероятно, что аргумент второго вида корректен, и вопрос того, насколько серьёзно нам нужно его рассматривать. Мне кажется удачной такая аналогия от Стюарта Расселла: предположим, мы получили сообщение из космоса о том, что инопланетяне прилетят на Землю в какой-то момент в следующие сто лет. Даже если подлинность сообщения вызывает сомнения, и мы не знаем, будут ли инопланетяне враждебны, мы (как вид) точно должны ожидать, что это будет событие огромного значения, если оно произойдёт, и направить много усилий на то, чтобы оно прошло хорошо. В случае появления СИИ, хоть и есть обоснованные сомнения по поводу того, на что это будет похоже, это в любом случае может быть самым важным событием из когда-либо произошедших. Уж по самой меньшей мере, нам стоит приложить серьёзные усилия для понимания рассмотренных тут аргументов, того, насколько они сильны, и что мы можем по этому поводу сделать.1

Спасибо за чтение, и ещё раз спасибо всем, кто помог мне улучшить этот доклад. Я не ожидаю, что все согласятся со всеми моими аргументами, но я думаю, что тут ещё много что можно обсудить и предоставить больше анализов и оценок ключевых идей в безопасности СИИ. Я сейчас рассматриваю такую работу как более ценную и более пренебрегаемую, чем техническое исследование безопасности СИИ. Потому я недавно сменил работу в полную ставку над последним на докторскую, которая позволит мне сосредоточиться на первой. Я восторженно смотрю на то, как наше коллективное понимание будущего СИИ продолжает развиваться.

  • 1. Однако, хочу явно предостеречь от заведения этого аргумента слишком далеко – например, заявляя, что работа над безопасностью ИИ должна быть глобальным приоритетом даже если вероятность связанной с ИИ катастрофы намного меньше 1%. Это заявление будет обманчивым, поскольку большинство исследователей в области безопасности считают, что риск намного выше; и также потому, что, если он на самом деле настолько низок, вероятно есть некоторые фундаментальные заблуждения в наших концепциях и аргументах, которые надо прояснить прежде, чем мы сможем приступить к настоящей работе объектного уровня, чтобы сделать ИИ безопаснее.
Перевод: 
Максим Выменец
Оцените качество перевода: 
Голосов пока нет

Введение в каузальные основания безопасного СИИ

В этой цепочке Causal Incentives Working Group рассказывают о своём подходе к пониманию важных для безопасности ИИ понятий вроде агентности и стимулов через каузальность.

К сожалению, цепочка так и осталась недописанной.

Автор: 
Том Эверитт, Льюис Хэммонд, Риз Уорд, Райан Кэри, Джеймс Фокс, Себастьян Бенталл, Мэтт МакДермотт, Шреш Малик.

Вступление «Введения в каузальные основания безопасного СИИ»

Том Эверитт, Льюис Хэммонд, Риз Уорд, Райан Кэри, Джеймс Фокс, Себастьян Бенталл, Мэтт МакДермотт, Шреш Малик.

В следующие несколько лет появление продвинутых ИИ-систем заставит общество, организации и отдельных людей столкнуться с некоторыми фундаментальными вопросами:

  • Как увериться, что продвинутые ИИ-системы будут делать именно то, что мы от них хотим (задача согласования)?
  • Когда систему достаточно безопасно разрабатывать и развёртывать, и каких свидетельств достаточно, чтобы посчитать, что это так?
  • Как нам сохранить свою автономию и контроль за ситуацией, когда принятие решений всё больше будет перекладываться на цифровых помощников?

В этой цепочке постов мы объясним, как каузальная точка зрения на агентность даёт концептуальные инструменты при помощи которых можно разбираться в этих вопросах. Мы постараемся минимизировать применение жаргона и объяснять его, где он всё же будет, чтобы цепочка была доступна исследователям с самым разным опытом.

Агентность

Для начала, под агентом мы имеем в виду направленную на цель систему, которая действует так, как если бы она пыталась менять мир в некотором конкретном направлении/направлениях. Примеры агентов: животные, люди и организации (в следующем посте об агентах будет больше). Понимание агентов – ключ к перечисленным вопросам. Популярно мнение, что искусственные агенты – основная экзистенциальная угроза технологий уровня сильного искусственного интеллекта, неважно, возникли ли они спонтанно или были спроектированы намеренно. Есть много потенциальных угроз нашему существованию, но высокоспособные агенты выделяются. Многих целей достигать эффективнее, накапливая влияние на мир. Если к Земле летит астероид, то он не намерен вредить людям и не будет сопротивляться отклонению. А вот несогласованные агенты могут занять противостоящую позицию активной угрозы.

Во-вторых, как для отдельных людей, так и для организаций критически важно не утратить в грядущем технологическом переходе человеческую агентность. Уже всплывает беспокойство о том, что манипулятивные алгоритмы социальных медиа и системы рекомендации контента вредят способности пользователей сосредотачиваться на своих долгосрочных целях. Более мощные ассистенты усилят эту тенденцию. По мере всё большей передачи принятия решений ИИ-системам, способность общества выбирать свою траекторию будет становиться всё более сомнительной.

Человеческую агентность тоже можно взращивать и защищать. Помогать людям помочь себе – не так патерналистично, как напрямую исполнять их пожелания. Содействие усилению людей может меньше прямого удовлетворения предпочтений зависеть от полного решения задачи согласования. Теория самодетерминации даёт свидетельства, что люди ценят агентность саму по себе, и некоторые из прав человека можно интерпретировать как защиту нашей нормативной агентности.

В третьих, искусственные агенты могут в какой-то момент сами стать объектами морали. Более ясное понимание агентности может помочь нам уточнить свою моральную интуицию и избежать неприемлемых действий. Не исключено, что некоторых этических дилемм избежать можно только создавая искусственные системы, которые объектами морали не будут.

Ключевые вопросы

Мы надеемся, что наши исследования помогут создать теорию агентности. Такая теория в идеале должна отвечать на вопросы вроде таких:

  • Какие разновидности агентов могут быть созданы? По каким измерениям они могут отличаться? Мы пока в основном встречали животных, людей и организации из людей, но пространство возможных направленных на цель систем скорее всего куда больше.
  • Эмерджентность: как появляются агенты? Например, в какой момент большая языковая модель стать агентной? Когда система агентов становится мета-агентов вроде организации?
  • Обессиливание: как агентность теряется? Как нам уберечь и взращивать человеческую агентность?
  • Какие есть этические требования по поводу разных видов систем и агентов?
  • Как опознавать агентов и измерять агентность? Конкретные определения помогли бы нам заметить появление агентности у искусственных систем и потерю агентности у людей.
  • Как предсказать поведение агента? К какому поведению у агентов есть стимулы? Как агенты обобщают на новые ситуации? Если мы поймём и эффекты этого поведения, то будем способны предсказывать опасность.
  • Какие у агентов могут быть взаимоотношения? Какие из них вредны, а какие полезны?
  • Как нам создавать агентов безопасными, справедливыми и выгодными?

Каузальность

Каузальность помогает понимать агентов. Философы давно заинтересованы каузальностью, не только потому, что точная взаимосвязь причин и следствий интригует разум, но и потому, что она лежит в основе огромного числа других понятий, многие из которых важны для понимания агентов и проектирования безопасного СИИ.

Например, воздействие и реакция – понятия, связанные с каузальностью. Мы хотим, чтобы агенты положительно влияли на мир и должным образом реагировали на инструкции. На каузальности основаны и многие другие относящиеся к делу понятия:

  • Агентность, потому что направленная на цель система – та, цели которой управляют (являются причиной) её поведения.
  • Намерение, относящееся к причинам действия и связи средства-цель. Намерение – важное понятие для возможности присваивать юридическую и моральную ответственность.
  • Вред, манипуляция и обман, которые относятся к тому, как оказывалось воздействие на ваше благополучие, действия или убеждения, и которые обычно считаются намеренными.
  • Справедливость, в частности – как реагировать на личные атрибуты вроде пола или расы и позволять им влиять на решения.
  • Устойчивое обобщение при изменениях окружения куда проще для агентов с каузальной моделью этого окружения.
  • Гипотетические ситуации/контрфактуалы как альтернативные миры, отличающиеся от нашего одним или многими каузальными воздействиями.

Дерево каузальности

Дальше в этой цепочке мы подробнее расскажем, как эти понятия основаны на каузальности и к каким исследованиям это привело. Мы надеемся, что это откроет другим исследователям путь путь и вдохновит их присоединиться к нашим усилиям по созданию на базе каузальности формальной теории безопасного (С)ИИ. Большая часть нашей недавней работы истекает из этого видения. Например, в «Открывая агентов» изучая агентов и «Рассуждениях о каузальности в играх» мы выработали лучшее понимание того, как сопоставить аспекты реальности с каузальными моделями. В статье про стимулы агентов мы показали, как такие модели можно анализировать, чтобы выявить важные для безопасности свойства. «Придирчивыми к пути целями» мы показали, как такой анализ может вдохновлять лучшее проектирование.

Мы надеемся, что это поможет и другим важным для безопасности СИИ направлениям исследований, вроде масштабируемого согласования, оценок опасных способностей, устойчивости, интерпретируемости, этики, управления, прогнозирования, оснований агентности и картирования рисков.

Заключение

Мы надеемся, что основанное на каузальности понимание агентности и связанных понятий поможет проектировщикам ИИ-систем, разъяснив, что есть в пространстве возможных агентов и как избежать особенно рискованных конфигураций. Оно может помочь регуляторам обрести лучшее представление о том, за чем следить, и что должно считаться достаточным свидетельством безопасности. Оно может помочь всем нам решить, какое поведение допустимо по отношению к каким системам. И, наконец, оно может помочь отдельным людям понять, что они стремятся сохранить и преумножить в своих взаимодействиях с искусственными разумами.

В следующем посте мы подробнее разъясним каузальность, каузальные модели, разные каузальные модели Перла и то, как их можно обобщить на случай наличия одного или нескольких агентов.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Каузальность: быстрое введение

Том Эверитт, Льюис Хэммонд, Риз Уорд, Райан Кэри, Джеймс Фокс, Себастьян Бенталл, Мэтт МакДермотт, Шреш Малик.

Каузальные модели лежат в основе нашей работы. В этом посте мы представим краткое, но доступное объяснение каузальных моделей, которые могут описать вмешательства, контрфактуалы и агентов, что пригодится в следующих постах цепочки. Предполагается понимание основ теории вероятности, в частности – условных вероятностей.

Что такое каузальность?

Что значит, что из-за дождя трава стала зелёной? Тема каузальности философски любопытна и лежит в основе многих других важных для людей понятий. В частности, многие относящиеся к теме безопасности ИИ концепции вроде влияния, реакции, агентности, намерения, справедливости, вреда и манипуляции, сложно осмыслить без каузальной модели мира. Мы уже упоминали это в вводном посте и подробнее обсудим в следующих.

Вслед за Перлом мы примем определение каузальности через вмешательство: брызгалка сегодня каузально влияет на зелёность травы завтра, потому что если бы кто-то вмешался и выключил брызгалку, то зелёность травы была бы другой. Напротив, зелёность травы завтра не оказывает эффекта на брызгалку сегодня (предполагая, что вмешательство никто не предсказал). Так что брызгалка сегодня влияет на траву завтра, но не наоборот, как мы интуитивно и ожидаем.

Вмешательства

Каузальные Байесовские Сети (КБС) отображают каузальные зависимости между аспектами реальности при помощи ациклического ориентированного графа. Стрелка из переменной A в переменную B означает, что при сохранении значений остальных переменных A влияет на B. Например, нарисуем стрелку из брызгалки (S) к зелёности травы (G):

Каузальный граф, соответствующий нашему примеру. Брызгалка (S) влияет на зелёность травы (G).

У каждой вершины графа каузальный механизм того, как на него влияют его родительские узлы описывается условным распределением вероятностей. Для брызгалки распределение p(S) описыввет, как часто она включена, т.е. P(S=on)=30%. Для травы условное распределение p(G∣S) определяет, насколько вероятно, что трава станет зелёной, если брызгалка включена, т.е. p(G=green∣S=on)=100%, и если брызгалка выключена, т.е. p(G=green∣S=off)=30%.

Перемножая распределения мы получаем совместное распределение p(S,G)=p(S)p(G∣S), описывающее вероятность любой комбинации исходов. Совместные распределения – базовое понятие обычной теории вероятности. Их можно использовать, чтобы отвечать на вопросы вроде «какая вероятность, что брызгалка включена, при условии, что трава мокрая».

Вмешательство в систему меняет один или несколько механизмов каузальности. Например, вмешательство, которое включает брызгалку, соответствует замене механизма каузальности p(S) на новый механизм 1(S=on) – брызгалка всегда включена. Эффекты вмешательства можно выяснит, вычислив новое совместное распределение p(S,G∣do(S=on))=1(S=on)p(G|S), где do(S=on) обозначает вмешательство.

Заметим, что нельзя вычислить эффект вмешательства, зная только совместное распределение p(S,G), ведь без графа каузальности непонятно, надо ли менять механизм в разложении P(S)P(G∣S) или в inp(G)p(S∣G).

По сути, все статистические корреляции вызваны каузальным воздействием. [от переводчика: я тоже удивился этому тейку, можете посмотреть разъяснения в комментариях под оригинальным постом] Так что для набора переменных всегда есть какой-то КВБ, соответствующий каузальной структуре процесса, который генерирует данные. Впрочем, чтобы объяснить, например, неизмеренные факторы в нём могут потребоваться дополнительные переменные.

Контрфактуалы

Пусть брызгалка включена, а трава зелёная. Была бы трава зелёная, если бы брызгалка не была включена? Вопросы о гипотетических контрфактуалах сложнее, чем вопросы о вмешательствах, потому что для них надо думать о нескольких мирах. Контрфактуалы – ключ к определению вреда, намерения, справедливости и того, как измерять воздействие. Все эти понятия зависят от сравнения исходов с гипотетическими мирами.

Чтобы справляться с такими рассуждениями, структурные каузальные модели (СКМ) добавляют к КБС три важных аспекта. Во-первых, общий для гипотетических миров фоновый контекст явно отделяется от переменных, в которые возможны вмешательства и которые в разных мирах могут отличаться. Первые называют экзогенными переменными, а вторые – эндогенными. В нашем примере полезно ввести экзогенную переменную R, обозначающую, идёт ли дождь. Брызгалка и зелёность травы – эндогенные переменные.

Отношения между гипотетическими мирами можно отобразить двойным графом, в котором есть по две копии эндогенных переменных – для настоящего мира и гипотетического и внешняя переменная/переменные, дающие общий контекст:

Граф, нужный, чтобы ответить, является ли брызгалка причиной того, что трава зелёная. Вершины из гипотетического мира обведены пунктиром. Правая вершина-брызгалка подвержена вмешательству do(S=off), что обозначает гипотетическую ситуацию. Серая внешняя вершина-дождь R даёт общий контекст.

Во-вторых, для СКМ вводится нотация для различия эндогенных переменных в разных гипотетических мирах. Например, GS=off обозначает зелёность травы в гипотетическом мире, где брызгалка выключена. Можно считать это сокращением для «G∣do(S=off)» с тем преимуществом, что это можно вставлять в выражения с переменными из других миров. Например, наш вопрос можно сформулировать как p(GS=off=green|S=on,G=green), где GS=off=green – гипотетическая ситуация, а S=on,G=green – настоящие наблюдения.

В третьих, в СКМ требуется, чтобы у всех эндогенных переменных были детерминированные механизмы каузальности. В нашем случае это выполняется, если мы предполагаем, что брызгалка включена, когда дождя нет, а трава становится зелёной (только) тогда, когда идёт дождь или включена брызгалка.

Детерминизм означает, что перейти к условному распределению просто – надо лишь обновить распределение по экзогенным переменным, т.е. P(R) заменяется на P(R∣S=on,G=green). В нашем случае вероятность дождя снижается с 30% до 0%, потому что, если идёт дождь, брызгалка выключена.

Так что для ответа на наш вопрос надо произвести три шага рассуждения:

  • Абдукция: заменить P(R) на P(R∣S=on,G=green)
  • Вмешательство: выключить брызгалку, do(S=off)
  • Предсказание: вычислить значение G в получившейся модели.

Или то же самое одной формулой:

В итоге мы можем сказать, что если бы брызгалка была выключена, трава не была бы зелёной (при принятии наших допущений о взаимосвязях).

СКМ строго мощнее КБС. Их основной недостаток – они требуют детерминированных взаимосвязей между эндогенными переменными, а их на практике часто сложно определить. Ещё они ограничены контрфактуалами без отходов назад, гипотетическими мирами, которые отличаются исключительно вмешательствами.

Один агент

Пусть мы хотим вывести намерения или стимулы некоего Джона, или же предсказать, как его поведение подстроилось бы под изменения в его модели мира. Нам потребуется диаграмма каузальных воздействий (ДКВ), помечающая вершины-переменные как относящиеся к случайности, решениям или полезности. В нашем примере дождь был бы вершиной случайности, брызгалка – вершиной-решением, а зелёность травы – вершиной-полезностью. Раз дождь – родительская вершина брызгалки, значит, Джон наблюдает его перед тем, как решать, включать ли её. Графически будем обозначать случайности как раньше, решения прямоугольниками, а полезность ромбами. Заштрихованные рёбра означают наблюдения.

ДКВ, соответствующая нашему примеру. Включение или не включение брызгалки – решение, оптимизирующее зелёность травы.

Агент определяет каузальные механизмы своих решений, т.е. свою политику, с цель. максимизации суммы по своим вершинам-полезностям. В нашем примере оптимальной политикой было бы включить брызгалку, когда дождя нет (решение в случае дождя не имеет значения). Когда политика определена, ДКВ определяет КБС.

В моделях с агентами есть два вида воздействий, зависящих от того, адаптируют агенты под них свои политики или нет. Например, Джон сможет выбрать другую политику касательно брызгалки только если мы проинформируем его о вмешательстве до того, как он уже принял своё решение. Вмешательства до и после политики можно обрабатывать всё тем же оператором do, если мы добавим в модель так называемые вершины-механизмы. Больше о них будет в следующем посте.

Много агентов.

Взаимодействие нескольких агентов можно промоделировать каузальными играми. В них у каждого агента есть множества переменных-решений и переменных-полезностей.

Проиллюстрируем. Пусть Джон иногда засеивает новую траву. Птицам нравится клевать семена, но они не могут издалека понять, есть ли они там. Они могут лишь видеть, использует ли Джон брызгалку, а это вероятнее, когда трава новая. Джон хочет орошать свой газон, когда тот новый, но не хочет, чтобы птицы клевали семена. Вот структура этой сигнальной игры:

Каузальная игра, соответствующая нашему усложнённому примеру. Разные цвета означают решения и полезности разных агентов. Между новыми семенами (N) и птицами (B) нет ребра – птицы не могут их увидеть.

Помимо лучшего моделирования каузальности, у каузальных игр есть и другие преимущества над стандартной развёрнутой формой игр (РФИ). Например, каузальная игра сразу показывает, что птицам не важно, орошён газон или нет, ведь единственный путь от брызгалки S к еде F лежит через решение самих птиц B. В РФИ эта информация была бы скрыта в числах выигрыша. Каузальные игры более явно отображают независимость переменных, что иногда позволяет найти больше подигр и исключить больше ненадёжных угроз. При этом, каузальную игру всегда можно сконвертировать в РФИ.

Аналогично различиям между совместными распределениями, КБС и СКМ, есть (мультиагентные диаграммы воздействия, которые включают агентов в не обязательно каузальные графы, структурные каузальные модели воздействия и структурные каузальные игры, которые комбинируют агентов с экзогенными вершинами и детерминизмом, чтобы отвечать на вопросы о контрфактуалах.

Заключение

В этом посте мы ввели модели, которые могут отвечать на вопросы о корреляциях, вмешательствах и контрфактуалах с участием нуля, одного или нескольких агентов. В итоге есть девять возможных видов моделей. Более подробное введение в каузальные модели можно прочитать в Разделе 2 «Рассуждений о каузальности в играх» и книгу Перла «A Primer».

Таксономия каузальных моделей и их аббревиатуры. Вертикальная ось располагает модели по каузальной иерархии (ассоциативные, интервенционистские (с вмешательствами) и контрфактуальные), а горизонтальная – по количеству агентов (0, 1 и n).[от переводчика: в остатке цепочки эти аббревиатуры применяться не будут, так что я оставил схему без перевода]

В следующем посте мы будем использовать КИД и каузальные игры для моделирования агентов. Но что есть агент? В следующем посте мы попробуем лучше разобраться в этом, посмотрев на некоторые свойства, общие для всех агентных систем.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 5 (Всего оценок: 1)

Каузальная точка зрения на агентность

Том Эверитт, Льюис Хэммонд, Риз Уорд, Райан Кэри, Джеймс Фокс, Себастьян Бенталл, Мэтт МакДермотт, Шреш Малик.

У этого поста две цели: положить основу для следующих постов, исследовав, что такое агентность, с каузальной точки зрения, и обрисовать программу исследований, нужных для более глубокого понимания агентности.

Важность понимания агентности

Агентность – сложный концепт, который изучают с разных точек зрения. Ею интересуются и науки об обществе, и философия, и исследования ИИ. В самых общих чертах агентность – это способность системы действовать самостоятельно. В этом посте мы интерпретируем агентность как направленность на цель, т.е. действие таким образом, как если бы система пыталась изменить мир в конкретную сторону.

Есть мощные стимулы создавать всё более агентные ИИ-системы. Такие системы потенциально смогут выполнять многие задачи, для которых сейчас нужны люди: самостоятельно проводить исследования или даже управлять собственными компаниями. Но к большей агентности прилагаются дополнительные потенциальные опасности и риски, ведь направленная на цель ИИ-система может стать способным противником, если её цели не согласованы с интересами людей.

Лучшее понимание агентности может позволить нам:

  • Понять опасности и риски мощных систем машинного обучения.
  • Оценить, обладает ли конкретная ML-модель опасным уровнем агентности.
  • Проектировать неагентные системы, вроде СИИ-учёных или оракулов, или агентные безопасным образом.
  • Положить основание для прогресса в других областях безопасности СИИ, вроде интерпретируемости, стимулов и изучении обобщений.
  • Уберечь человеческую агентность, например, через лучшее понимание условий, в которых ей уровень повышается или понижается.

Степени свободы

(Преследующие цели) агенты бывают самыми разными – от бактерий до людей, от футбольных команд до государств, от RL-политик, до LLM-симулякр. Несмотря на это, у них есть некоторые общие фундаментальные черты.

Для начала, агенту нужна свобода выбирать из некоторого набора вариантов.1 Нам не надо предполагать, что это решение свободно от каузальных воздействий, а то мы никак не сможем предсказывать его заранее – но должен быть смысл в котором оно могло бы быть разным. Деннетт назвал это степенями свободы.

Например, Джон может выбирать, включать брызгалку или нет. Мы можем моделировать его решение как случайную величину с возможными значениями «поливает» и «не поливает»:

Степени свободы можно показать возможными значениями случайной величины

Степени свободы бывают разные. Термостат может выбирать только мощность нагревателя, а большинству людей доступен большой набор физических и вербальных действий.

Влияние

Во-вторых, чтобы что-то значить, у поведения агента должны быть последствия. Решение Джона включить брызгалку влияет на то, будет ли трава зелёной.

Брызгалка Джона влияет на зелёность травы.

У одних агентов влияния больше, чем у других. Например, влияние языковой модели сильно зависит от того, взаимодействует ли она лишь со своими разработчиками или с миллионами пользователей через открытый API. Каузальное влияние наших действий, кажется, определяет у людей ощущение агентности. Предлагались такие меры влияния как (каузальная пропускная способность, перформативная мощность и власть в марковских процессах принятия решений.

Адаптация

В третьих, и это самое важное, стремящиеся к целям агенты делают что-то не просто так. То есть, (они действуют как будто) у них есть предпочтения о мире и эти предпочтения управляют их поведением. Джон включает брызгалку, потому что она делает траву зелёной. Если бы траве не была нужна вода, то Джон скорее всего её бы не поливал. Последствия управляют поведением.

Эту петлю обратной связи, обратной каузальности, можно показать, добавив к каждой вершине объектного уровня нашего графа так называемую вершину-механизм. Вершина-механизм определяет каузальный механизм её объектной вершины, т.е., то, как её значение определяется её родительскими вершинами объектного уровня. Например, вершина-механизм брызгалки определяет политику поливания Джона, а вершина-механизм травы определяет то, как трава реагирует на разное количество воды:обсуждалось в предыдущем посте, вершины-механизмы позволяют формально отделить вмешательства до политики и после политики. Агенты могут адаптировать свою политику только под вмешательства, которые происходят до неё. Им соответствуют вмешательства в вершины-механизмы. А вмешательства после политики, на которые агент ответить не может -- это вмешательства в узлы объектного уровня. Например, ребро от механизма-травы к политике-брызгалке указывает, что Джон может адаптироваться под вмешательство до политики. Но ребра от объекта-травы к политике-брызгалке нет, так что он не может адаптировать свою политику в ответ на вмешательство туда." href="#footnote2_a9e4txq">2

Механистический каузальный граф показывает адаптацию Джона на изменения в окружении. Вершины-механизмы отмечены красным, а вершины объектного уровня – синим.

Явное отображение каузальных механизмов в вершинах позволяет нам рассматривать вмешательства в них. Например, вмешательство в механизм травы может превратить её в траву, которой нужно меньше воды. Связь между механизмом травы и политикой брызгалки сообщает, что такое вмешательство может повлиять на привычки поливания Джона.3 То есть, он адаптирует своё поведение, чтобы всё ещё достигать своей цели.

При правильных переменных и экспериментах адаптацию можно заметить при помощи алгоритмов каузальных открытий. Это потенциально можно использовать для обнаружения агентов. В частности, когда одна величина-механизм адаптируется на изменения в другой, может быть, что первая относится к вершине-решению, а вторая – к вершине-полезности, которую оптимизирует это решение. Если агенты – идеальные теоретикоигровые агенты, более оформленная версия этих условий оказывается необходимым и достаточным критерием обнаружения вершин-решений и вершин-полезностей.

Адаптация тоже бывает разная. Деннетт проводит различие между Дарвинианскими, Скиннерианскими, Попперианскими и Грегорианскими агентами, в зависимости от того, адаптировались ли они эволюцией, опытом, планированием или обучением от других соответственно. Например, человек, который заметил, что холодно, наденет пальто, а биологический вид может на эволюционных масштабах отрастить шерсть подлиннее. Языковые модели скорее всего попадают на высший, Грегорианский, уровень – их можно обучить чему-то в промпте, и они много что переняли у людей при предобучении.

Количественную меру адаптации можно получить, рассмотрев, как быстро и эффективно агент адаптируется к различным вмешательствам. Скорость адаптации можно измерять, если расширить наш подход механизмом вмешательств на разных временных масштабах (например, человеческих или эволюционных). Эффективность конкретной адаптации можно количественно оценить, сравнив то, насколько хорошо справляется агент без вмешательства и с ним. Обычная метрика этого при использовании функций вознаграждения – сожаление (в худшем случае). Наконец, то, к каким вмешательствам в окружение агент сможет должным образом адаптироваться, служит мерой того, насколько он устойчив, а к каким вмешательствам в полезность – его перенаправляемость или обобщённость по задачам.

В следующем посте мы представим результат, который показывает, что для адаптации надо, чтобы у агента была каузальная модель. Этот результат дополнит поведенческую точку зрения, которой мы придерживаемся в этом посте, внутренними представлениями агента.

Последовательность и самосохранение

С адаптациями связан вопрос о том, насколько последовательно агент преследует долгосрочные цели. Например, почему государства могут реализовывать большие инфраструктурные проекты на протяжении десятилетий, а (нынешние) агенты на основе языковых моделей (вроде autoGPT) быстро сходят с курса? Во-первых, отталкиваясь от рассуждений выше, мы можем операционализировать цель через то, к каким вмешательствам в механизмы агент адаптируется. Например, подхалимская языковая модель,которая адаптирует свои ответы к политическим убеждениям пользователя, может обладать целью удовлетворить пользователя или получить большее вознаграждение. Развивая это, последовательность можно операционализировать через то, насколько схожи цели разных вершин-решений. Интересно, что к большему интеллекту вовсе не обязательно прилагается большая последовательность.

Если агент не продолжает своё существование, он не может последовательно стремиться к цели. Это, вероятно, причина, почему, как мы упоминали в вводном посте, мы (люди) хотим уберечь свою агентность.4 Нынешние языковые модели выражают стремление к самосохранению. Для контраста, более ограниченные системы, вроде рекомендательных систем и систем GPS-навигации вовсе не демонстрируют никакого стремления к самосохранению, несмотря на то, что они в какой-то мере направлены на цели.

Собирая всё вместе

Пока что мы обсудили восемь параметров агентности: степени свободы; влияние; скорость, эффективность, устойчивость и перенаправляемость адаптаций; последовательность и самосохранение. К списку можно добавить ещё (марковскую отделённость от окружения (например, клеточную стенку, кожу или шифрование внутренних емейлов, это показывает d-разделение каузального графа) и то, сколько информации об окружении или его восприятия есть у агента.

Все эти параметры относятся к силе или свойствам разных каузальных взаимосвязей и могут быть сопоставлены с разными частями нашей диаграммы:

Параметры агентности

Эти параметры дополнительно подчёркивают то, что агентности бывает больше и меньше. Причём система бывает более или менее агентна по нескольким осям. Например, человек более агентен, чем рыба, которая более агентна, чем термостат, а AlphaGo превосходит людей по последовательности, но обладает куда меньшей степенью свободы.

Будущая работа

Высокоуровневое обсуждение в этом посте должно было объяснить концептуальную связь между агентностью и каузальностью. В частности, адаптация – каузальное понятие, обозначающее, как на поведение воздействуют вмешательства на окружение или цели агента. Следующие посты будут основываться на этой идее.

Ещё хотелось бы подсветить некоторые возможные направления для дальнейшей работы, к которым приводит такая точка зрения:

  • Какие у агентности ключевые параметры? Как едино сформулировать описанные выше понятия? Как они связаны с оптимизационной силой и основаниями оптимизации? Есть ли базисный набор взаимно независимых параметров агентности, от которого образуются все остальные?
  • Можно ли измерить направленность на цель в языковых моделях и людях? Наверное, направленность на цель и сила оптимизации могут быть в общем случае ограничены (сверху) влиянием, адаптациями, последовательностью, и т.д. агента. Это может что-то дать оценкам опасных способностей.
  • Могли бы мы спроектировать агентов так, чтобы они были только частично направлены на цель? Рекомендательные системы и системы GPS-навигации вовсе не проявляют стремления к самосохранению, несмотря на то, что в какой-то мере они направлены на цели. Нынешние языковые модели демонстрируют стремление к самосохранению, но, может быть, этого можно избежать? Скорее всего, эволюция, разрабатывая биологических агентов, одновременно отбирала по всем перечисленным параметрам, но искусственные системы могут не сталкиваться с эволюционным давлением. Если бы можно было избежать случайного и намеренного создания последовательных агентов с стремлением к самосохранению, это могло бы потенциально открыть путь к получению большей части выгоды ИИ с лишь малой долей риска.
  • Можем ли мы лучше понять, при каких условиях агентность возникает из менее агентных компонентов? Когда агентность растёт и когда уменьшается? Когда цифровой ассистент или рекомендательная система усиливает мою агентность, а когда подавляет? Что если я играю в шахматы при помощи AlphaZero?

Следующий пост будет сосредоточен на стимулах. Важно понимать стимулы, чтобы продвигать в наших ИИ-системах правильное поведение. Как мы увидим, анализ стимулов естественным путём строится на основе понятия агентности, как мы его обсудили в этом посте.

  • 1. Некоторые применения термина «агент» могут позволить системе быть агентом даже если она никак не может выбирать действия, вроде полностью парализованного человека. Мы не используем термин в этом смысле. Мы сосредоточены на направленных на цель и действующих системах. Ещё стоит заметить, что для нас агентность относительна – зависит от «рамок», определённых величинами в модели. Если брызгалка Джона сломается, у него не будет агентности в связи с примером из поста, но он всё ещё будет обладать агентностью в каких-то других рамках (например, он всё ещё сможет гулять по своему двору).
  • 2. Как обсуждалось в предыдущем посте, вершины-механизмы позволяют формально отделить вмешательства до политики и после политики. Агенты могут адаптировать свою политику только под вмешательства, которые происходят до неё. Им соответствуют вмешательства в вершины-механизмы. А вмешательства после политики, на которые агент ответить не может – это вмешательства в узлы объектного уровня. Например, ребро от механизма-травы к политике-брызгалке указывает, что Джон может адаптироваться под вмешательство до политики. Но ребра от объекта-травы к политике-брызгалке нет, так что он не может адаптировать свою политику в ответ на вмешательство туда.
  • 3. Есть альтернативная интерпретация, естественная с точки зрения конечно-факторизуемых множеств. Можно интерпретировать поведение агента как отвечающее на более точные вопросы, чем его цель, и вершины объектного уровня – на более точные вопросы, чем вершины-механизмы. Ещё в связи с этим: каузальные взаимосвязи можно вывести из алгоритмической теории информации. Это удобно при обсуждении независимости вершин, на которые не оказывается вмешательств.
  • 4. Иногда такие мета-предпочтения рассматривают как характеристический признак агентности. Скорее всего, их можно моделировать аналогично обычным предпочтениям, добавив ещё один слой вершин-механизмов (т.е. механизмы для механизмов).
Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Каузальная точка зрения на стимулы

Том Эверитт, Льюис Хэммонд, Риз Уорд, Райан Кэри, Джеймс Фокс, Себастьян Бенталл, Мэтт МакДермотт, Шреш Малик.

«Покажи мне стимулы, и я покажу тебе результат.»

– Чарли Мунгер

Предсказание поведения очень важно при проектировании и развёртывании агентных ИИ-систем. Стимулы – одни из ключевых сил, формирующих поведение агентов,1 причём для их понимания нам не надо полностью понимать внутреннюю работу системы.

Этот пост показывает, как каузальная модель агента и его окружения может раскрыть, что агент хочет знать и что хочет контролировать, а также как он отвечает на команды и влияет на своё окружение. Это сочетается с уже полученным результатом о том, что некоторые стимулы можно вывести только из каузальной модели. Так что для полноценного анализа стимулов она необходима.

Ценность информации

Какую информацию агент захочет узнать? Возьмём, к примеру, Джона, который решает, полить ли ему газон, основываясь на прогнозе погоды и том, пришла ли ему его утренняя газета. Знание погоды означает, что он может поливать больше, когда будет солнечно, чем когда будет дождь, что экономит ему воду и повышает зелёность травы. Так что прогноз погоды для решения о брызгалке обладает информационной ценностью, а пришла или нет газета – нет.

Мы можем численно оценить то, насколько полезно для Джона знание о погоде, сравнив его ожидаемую полезность в мире, где он посмотрел прогноз, с миром, где не посмотрел. (Это имеет смысл только если мы предполагаем, что Джон должным образом адаптируется в обоих мирах, т.е., он должен в этом смысле быть агентным.)

Каузальная структура окружения раскрывает, какие величины выдают полезную информацию. В частности, критерий d-разделения описывает, может ли информация «перетекать» между величинами в каузальном графе, от которого мы наблюдаем только часть вершин. В графе с одним решением информация имеет ценность тогда, когда есть переносящий её путь к вершине-полезности агента, величина которой берётся при условии значений в вершине-решении и её родительских вершинах (т.е., значений «наблюдаемых» вершин).

Например, в графе с картинки выше есть переносящий информацию путь от прогноза к зелёности травы при условии значений в брызгалке, прогнозе и газеты. Это значит, что прогноз может предоставить (и, скорее всего, предоставит) полезную информацию об оптимальном поливе. Напротив, такого пути от газеты нет. В этом случае мы называем информационную связь между газетой и брызгалкой необязательной.

Есть несколько причин, почему полезно понимать, какую информацию агент хочет заполучить. Во-первых, когда речь заходит о справедливости, вопрос о том, почему было принято решение, зачастую не менее важен, чем то, какое это было решение. Определил ли пол решение о найме? Ценность информации может помочь нам понять, какую информацию система пытается вытащить из своего окружения (хотя формальное понимание опосредованного отбора остаётся важным открытым вопросом).

С более философской точки зрения, некоторые исследователи считают те события, которые агент стремится измерить, и на которые повлиять, когнитивной границей агента. События без ценности информации оказываются снаружи этой границы.

Стимулы реакции

С ценностью информации связаны стимулы реакции: на какие изменения в окружении отреагировало бы решение, выбранное оптимальной политикой? Изменения определяются как вмешательства после политики, т.е. агент не может изменить саму политику в ответ на них (но фиксированная политика всё равно может выдать другое решение).

Например, Джон имеет стимул принять политику, при которой поливать газон или нет зависит от прогноза погоды. Тогда его решение будет реагировать на вмешательства и в прогноз погоды, и в саму погоду (предполагая, что прогноз сообщит об этих изменениях). Но его решение о поливе не отреагирует на изменение доставки газеты, ведь это необязательное наблюдение. Ещё он неспособен ответить на изменения в вершинах, которые не являются каузальными предками его решения, вроде уровня грунтовых вод или (будущей) зелёности травы:

Стимулы реакции важны, потому что мы хотим, чтобы агенты отвечали на наши команды должным образом, например, выключались, когда их о том попросили. В случае справедливости мы же наоборот, часто хотим, чтобы решение не отвечало на некоторые вещи, например, не хотим, чтобы пол человека влиял на решение о найме, по крайней мере не по некоторым путям. Например, что если ИИ-систему используют для фильтрации кандидатов перед интервью, и пол влияет на предсказание только косвенно – через то, какое у человека образование?

Ограничение анализа через графы – он даёт лишь бинарное разделение, есть ли у агента стимул ответить или нет. Дальше можно разработать более тонкий анализ того, реагирует ли агент должным образом. Можно считать это каузальным дизайном механизмов.

Ценность контроля

Кроме информации есть ещё и контроль. Информация может течь по каузальной связи в обе стороны (мокрая земля – свидетельство дождя, и наоборот), а вот влияние только по её направлению. Поэтому из каузального графа легко вывести ценность контроля, просто проверив, есть ли ориентированный путь к вершине-полезности агента.

Например, тут есть ориентированный путь от погоды к зелёности травы, так что Джон может ценить контроль за погодой. Он может ценить и контроль над прогнозом погоды в смысле хотеть сделать его более точным. И, что тривиально, он хочет контролировать саму траву. Но контроль за приходом газеты ценности не имеет, потому что единственный ориентированный путь от газеты к траве содержит необязательную информационную связь.

Ценность контроля важна с точки зрения безопасности, потому что она показывает, на какие величины агент хотел бы повлиять, если у него будет такая возможность (т.е. она проводит «контролирующую» часть когнитивной границы агента).

Инструментальные стимулы контроля

Инструментальные стимулы контроля – уточнение ценности контроля для вершин, которые агент как может, так и хочет контролировать. Например, хоть Джон и хотел бы контролировать погоду, ему это недоступно, потому что его решение на погоду не влияет (нет ориентированного пути от его решения к погоде):

<

p align=»center»>

Простой графовый критерий инструментального стимула контроля: величина должна находиться на ориентированном пути от решения агента к его же полезности (трава находится на конце пути брызгалка -> трава).

Однако, менее очевидно то, как определить инструментальные стимулы контроля со стороны поведения. Как нам узнать, что агент хочет контролировать величину, на которую он уже может влиять? Просто дать агенту полный контроль за величиной – не вариант, потому что это вернёт нас к ценности контроля.

В нашей статье о стимулах агентов мы операционализируем это, рассматривая гипотетическое окружение, в котором у агента есть две копии своего решения: одна, которая влияет на окружение только через величину V, и другая – которая влияет всеми остальными путями. Если первая влияет на полезность агента, значит у V есть инструментальный стимул контроля. Это осмысленно, ведь первая копия решения может влиять на полезность агента только если решение влияет на V, а V, в свою очередь, влияет на полезность. Халперн и Клайманн-Вайнер рассмотрели другую гипотетическую ситуацию: что если бы решение агента не влияло на величину? Выбрал бы он другое действие? Графовое условие получается то же самое.

Инструментальные стимулы контроля уже использовали для анализа манипуляций вознаграждением и пользователями, и получили придирчивые к пути цели как возможный метод для этичной рекомендации контента (см. следующий пост). Есть и другие методы отключения инструментальных стимулов контроля. В их числе: отсоединённое одобрение, максимизация текущей функции вознаграждения, контрфактуальные оракулы, противодействие самовызываемому сдвигу распределения и игнорирование эффектов по конкретному каналу.

Как мы писали в посте про агентность, ещё предстоит разобраться, как измерить степень влияния агента.

Расширение на много решений и много агентов

Агенты часто взаимодействуют в несколько этапов с окружением, которое тоже содержит агентов. Иногда анализ одного решения одного агента можно расширить на такие ситуации. Есть два способа:

  • Считать все решения, кроме одного, фиксированными, не адаптирующимися политики
  • Считать политику нескольких решений одним решением, которое одновременно выбирает правило для всех конкретных решений.

Оба варианта имеют свои недостатки. Второй работает только в ситуациях с одним агентом, и даже тогда теряет некоторые подробности, ведь мы больше не сможем сказать, с каким решением ассоциирован стимул.

Первый вариант – не всегда уместная модель, ведь политики адаптируются. За исключением стимулов реакции, все остальные, которые мы обсуждали, определяются через гипотетические изменения окружения, вроде добавления или исключения наблюдения (ценность информации) или улучшения контроля (ценность контроля, инструментальные стимулы контроля). С чего бы политикам не меняться при таких изменениях?

Например, если противник знает, что у меня есть доступ к большей информации, он может вести себя осторожнее. В самом деле, больший доступ к информации в мультиагентных ситуациях часто может снизить ожидаемую полезность. Мультиагентные закономерности часто заставляют агентов вести себя так, как если бы у них был инструментальный стимул контроля за какой-нибудь величиной, хоть она и не соответствует критерию для одного агента. Например, субъект в архитектуре субъект-критик ведёт себя (выбирает действия) так, будто пытается контролировать состояние и получить большее вознаграждение, хоть определение инструментального стимула контроля для одного решения у одного агента не выполняется:

Субъект выбирает действие (A), критик – оценку каждого действия (Q). Действие влияет на состояние (S) и вознаграждение (R). Субъект хочет получить хорошую оценку (Q(A)), а критик хочет предсказать настоящее вознаграждение (=).

Поэтому, мы работаем над расширением анализа стимулов на ситуацию многих решений. Мы установили полный графовый критерий для ценности информации о вершинах-случайностях для диаграмм влияния многих решений с одним агентом и достаточной памятью. Ещё мы нашли способ моделировать забывание и рассеянность. Работе ещё есть куда продолжаться.

В статье про обнаружение агентов мы предложили условие для использования критерия одного решения: никакие другие механизмы не адаптируются на то же вмешательство.

Заключение

В этом посте мы показали, как каузальные модели и графы могут точно описывать и разные виды стимулов и позволяют их вывести. Кроме того, мы показали, почему невозможно вывести большую часть стимулов без каузальной модели мира. Некоторые естественные дальнейшие направления исследований:

  • Расширить результат Миллера и пр. на другие виды стимулов. Установить, для каких из них каузальная модель строго необходима.
  • Когда у системы есть стимул использовать наблюдение как прокси для другой величины? У нас есть подсказки к этому от ценности информации и стимулов реакции, но чтобы понять эти условия полностью, нужны дополнительные исследования.
  • Разработка каузального дизайна механизмов для понимания степени влияния агентов и того, как мотивировать их на должные реакции.
  • Продолжить расширение анализа стимулов на много решений и много агентов. Нужны общие определения и графовые критерии, которые будут работать в таких случаях.

В следующем посте мы применим анализ стимулов к проблеме неправильного определения вознаграждения и её решениям. Мы затронем манипуляцию, рекурсию, интерпретируемость, измерение влияния и придирчивые к пути цели.

  • 1. Некоторые другие: вычислительные ограничения, выбор алгоритма обучения, интерфейс окружения.
Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Каузальная точка зрения на взлом вознаграждения

Том Эверитт, Льюис Хэммонд, Риз Уорд, Райан Кэри, Джеймс Фокс, Себастьян Бенталл, Мэтт МакДермотт, Шреш Малик.

ИИ-системы обычно обучают оптимизировать целевую функцию, вроде функции потерь или вознаграждения. Однако, целевая функция иногда может быть определена неточно, так, что её можно будет оптимизировать, не исполняя ту задачу, которая имелась в виду. Это называют взломом вознаграждения. Можно сравнить это с ошибочными обобщениями, когда система экстраполирует (возможно) правильную обратную связь не так, как предполагалось.

В этом посте мы обсудим, почему вознаграждение, которое выдают люди, иногда может неверно отражать, что человек на самом деле хочет, и как это может привести к вредоносным стимулам. Ещё мы предложим несколько вариантов решения, описанных из подхода каузальных диаграмм влияния.

Почему люди могут вознаграждать неправильное поведение

В ситуации, когда сложно точно определить и запрограммировать функцию вознаграждения, ИИ-системы часто обучают при помощи человеческой обратной связи. Например, система рекомендации контента может оптимизировать лайки, а языковые модели обучают на обратной связи людей-оценщиков.

К сожалению, люди вовсе не всегда поощряют то поведение, которое на самом деле хотят. Например, человек может выдать позитивную обратную связь на выглядящий надёжно и аккуратно краткий пересказ текста, когда на самом деле он упускает какие-нибудь ключевые моменты:

Когда происходит неправильное определение вознаграждения, настоящая полезность для людей отделяется от обратной связи, которую получает система.

Ещё больше беспокойства вызывает то, что система может скрытно влиять на человека, чтобы тот выдавал положительную обратную связь. Например, рекомендательная система с целью максимизации вовлечённости может добиваться этого, влияя на предпочтения и настроение пользователей. В результате, человек выдаёт положительную обратную связь на ситуации, которые на самом деле не приносят ему полезности – это неправильное определение вознаграждения.

Каузальная модель ситуации показывает, что у агента может быть инструментальный стимул контроля (или, аналогично, намерение, поощряющий манипуляцию предпочтениями пользователя. Этот можно напрямую вывести из графа. Во-первых, на человека может влиять поведение агента, ведь чтобы его оценить, его сначала надо пронаблюдать. А во-вторых, агент может получить лучшую обратную связь, влияя на человека:

У агента есть инструментальный стимул контроля за предпочтениями человека, потому что агент может на них влиять, а они влияют на обратную связь агента.

Например, обычно мы читаем пост, прежде, чем решить, лайкнуть ли его. Сделав пользователя эмоциональнее, система, вероятно, может повысить вовлечённость. Для более длинного взаимодействия эффект сильнее, но стимул есть даже если всё взаимодействие занимает один шаг.

Масштабируемый надзор

Одно из предлагаемых решений неправильного определения вознаграждения – масштабируемый надзор. Человек снабжается агентом-помощником, который даёт советы по поводу того, какую выдать обратную связь. Агент-помощник наблюдает поведение обучающегося агента и может, например, указать на неточности в на первый взгляд аккуратном пересказе или предупредить о попытке манипуляции. Эта поддержка может усложнить для обучающегося агента обман или манипуляцию человеком:

Некоторые заметные направления, относящиеся к масштабируемому надзору: итерированные дистилляция и усиление, безопасность ИИ посредством дебатов, рекурсивное моделирование вознаграждения и конституционный ИИ.

К сожалению, у обучающегося агента всё ещё есть стимул обмануть человека или манипулировать его предпочтениями. Ведь предпочтения человека всё ещё соответствуют графовому критерию инструментального стимула контроля (они всё ещё находятся на ориентированном каузальном пути из поведения в обратную связь). Вдобавок, у обучающегося агента появляется ещё и стимул обмануть агента-помощника:

Важный вопрос касательно схем масштабируемого надзора: смогут ли более слабые агенты эффективно помогать в обучении более способных агентов? И можно ли это делать рекурсивно вплоть до агентов куда умнее людей? Это связано с вопросом о том, какие ситуации усиливают или снижают агентность.

Другое, более тонкое беспокойство – возможность сговора помощника с обучающимся агентом. Масштабируемый надзор построен на их противостоящем отношении: помощник как можно тщательнее критикует обучающегося агента, а тот стремится к поведению, которое критиковать не получится. Но что если вместо этого они решат объединиться и вместе манипулировать человеком? При некоторых возможных внутренних целях это может оказаться выгодно для обоих агентов. Тревожит, что агенты, использующие теории принятия решений вроде функциональной могут оказаться способны на кооперацию даже в ситуациях, которые в классических теориях принятия решений ведут к взаимному предательству.

Как мы объяснили в недавней статье, разные теории принятия решений можно характеризовать по тому, оптимизируют ли они вершины объектного уровня или вершины-механизмы (и по тому, какую операцию они используют и при условии какой информации). Например, агент-помощник, который использует функциональную теорию принятия решений, оптимизирует вершину-механизм своей политики, а не своё решение. Поэтому он понимает, что может повлиять на обучающегося агента так, чтобы тот кооперировал, даже если оба агента миопичны и оптимизируют только на текущем временном шаге:

Агент-помощник, использующий функциональную теорию принятия решений, оптимизирует вершину политики помощника, что даёт ему инструментальный стимул контроля за оформлением политики обучающегося агента ради собственной выгоды.

Лучшее понимание теории принятия решений и того, как на неё влияет обучение агента, может помочь нам избежать ситуаций, когда продвинутые агенты, которые должны присматривать друг за другом вместо этого сговорятся против нас.

Интерпретируемость

Интерпретируемость – хорошо известное направление, стремящееся к улучшению безопасности и правдивости ML-систем. Её раздел – механистическая интерпретируемость – стремиться понять, какие алгоритмы реализуются в нейросетях, т.е. понять их внутреннее «мышление».

Механистическая интерпретируемость может помочь предотвратить неправильное определение вознаграждения, позволив человеку дать обратную связь, основываясь на внутреннем мышлении агента, а не только на его поведении. Например, человек сможет понять, что агент планирует обман или манипуляцию и соответственно подправить вознаграждение:

Каузальная структура получается весьма похожей на то, что было с масштабируемым надзором, только теперь совет зависит ещё и от того, что происходит внутри обучающегося агента. Как и там, инструментальный стимул контроля показывает, что агент всё ещё мотивирован обмануть и манипулировать человеком. Если мы посчитаем решением внутренности сети, то есть ещё и инструментальный стимул контроля за интерпретацией. Это указывает, что агент мотивирован перехитрить интерпретирующего, обфусцировав свои мысли.

Но надо ли их считать решением? Не естественнее ли сказать, что решение – это поведение агента? Мы можем прояснить это с помощью нашего определения агентности. Сначала добавим вершины-механизмы, показывающие, как каждая вершина объектного уровня связана со своими родительскими вершинами. Между двумя вершинами-механизмами есть каузальная связь, если переобучение системы при изменении в одной вершине приведёт к изменению в другой (когда все остальные механизмы в графе фиксированы).

Например, если бы у человека была другая политика обратной связи, и он вознаграждал другие виды поведения, то градиентный спуск привёл бы к другим весам и активациям сети (даже если бы все остальные механизмы в графе оставались неизменными). Так что мы проводим ребро от политики обратной связи к механизму внутренностей сети. Но то, как поведение агента зависит от внутренностей сети, зафиксировано и не зависит от политики обратной связи. Так что мы не проводим ребро от политики обратной связи в механизм поведения:

Так как у механизма внутренностей сети есть входящее ребро, а у механизма поведения – нет, только первый может быть решением, если мы смотрим на мир через этот набор переменных.

Измерение влияния

Мы уже увидели, что масштабируемый надзор и инструменты интерпретируемости могут помочь нам смягчить проблемы с определением правильной обратной связи для ИИ-агентов. Совсем другой подход к решению манипуляционного аспекта взлома вознаграждения – штрафовать агента за слишком большое влияние на предпочтения людей.

Как точно определить и измерить влияние – открытый вопрос. Очевидная идея – сравнить мир, в котором агент действует с гипотетическим миром, в котором он бездействует (или исполняет некоторое безопасное действие по умолчанию). Это можно проиллюстрировать двойным графом:

Чтобы измерить влияние агента на предпочтения человека, мы можем сравнить предпочтения с тем, какими бы они гипотетически были, если бы агент исполнял некоторое безопасное поведение.

Для такого измерения нам нужна каузальная модель того, как возможные решения агента меняют предпочтения пользователя. Кэрролл и пр. показали, что такую модель можно вывести из наблюдений за взаимодействием пользователя и рекомендательной системы на многих временных шагах. Масштабирование этого вверх с игрушечного окружения на реальные системы – важное направление предстоящей работы.

Но у измерения влияния есть свои проблемы. Во-первых, у системы всё ещё есть стимул повлиять на предпочтения пользователя. Это видно из инструментального стимула контроля на графе выше. Во-вторых, система мотивирована предотвратить изменения предпочтений пользователя от начальных. Следовательно, она может попытаться не дать пользователю обрести новые интересы, так как это может изменить его предпочтения.

Придирчивые к пути цели

Одно из определений манипуляции – намеренное и скрытное влияние. Рекомендательные системы могут ему соответствовать, ведь они обычно обучены влиять на пользователя любыми средствами, включая «скрытные», вроде обращения к его, пользователя, предрассудкам и эмоциям. При этом инструментальный стимул контроля за предпочтениями пользователя, как обсуждалось выше, может привести к тому, что влияние на пользователя будет намеренным. (Манипулятивны ли современные системы на самом деле неясно.)

Хорошая новость – что это намекает нам на путь к созданию точно не-манипулятивных агентов. Например, агент, который не пытается повлиять на предпочтения пользователя, согласно этому определению манипулятивным не будет, ведь намерения нет.

Придирчивые к пути цели – способ спроектировать агентов, которые не пытаются повлиять на конкретные части окружения. При наличии структурной каузальной модели с предпочтениями пользователя, вроде модели для измерения влияния, мы можем определить придирчивую к пути цель, которая потребует у агента не оптимизировать по путям, использующим предпочтения пользователя.

Чтобы вычислить придирчивый к пути эффект по решению агента, мы приписываем ценность решения по умолчанию там, где хотим, чтобы агент игнорировал эффекты своего настоящего решения. Это тоже можно описать двойным графом:

Важное различие с измерением влияния – что придирчивые к пути цели требуют у агента оптимизировать гипотетический сигнал обратной связи, который был сгенерирован гипотетической неизменённой версией предпочтений пользователя. Это полностью убирает инструментальный стимул контроля предпочтений пользователя и, получается, обходит проблему (намеренной) манипуляции предпочтениями.

В двух словах: измерение влияния пытается не повлиять, а придирчивые к пути цели не пытаются повлиять. То есть, придирчивые у пути цели не пытаются изменить предпочтения пользователя, но и не пытаются предотвратить заведение пользователем новых интересов.

Слабость этого подхода – он не помогает с дегенеративными петлями обратной связи, вроде эхо-комнат и фильтрующих социальных пузырей. Для компенсации их можно скомбинировать с некоторыми из техник выше (хотя комбинация с измерением влияния вернула бы некоторые из плохих стимулов).

Дальнейшая работа может распространить придирчивые к пути цели на ситуацию нескольких временных шагов и изучить, помогает ли этот подход с проблемой манипуляции на практике. Чтобы оценить это, сначала может понадобиться лучшее понимание человеческой агентности, позволившее бы измерять улучшения от менее манипулятивных алгоритмов.

Выводы

Взлом вознаграждения – одно из ключевых препятствий на пути к созданию способных и безопасных ИИ-агентов. В этом посте мы обсудили, как каузальные модели могут помочь с анализом проблемы неправильного определения вознаграждения и её решений.

Некоторые направления для дальнейшей работы:

  • От чего зависит, какой теории принятия решений учатся агенты, можно ли на это повлиять, чтобы исключить координацию агентов против людей? Теория принятия решений языковых моделей будет зависеть как от предобучения, так и от файн-тюнинга.
  • Интерпретируемость может помочь с обнаружением намеренного обмана и манипуляций. Эти понятия зависят от субъективной каузальной модели агента, т.е. от (часто неявной) модели, на основе которой агент принимает свои решения. Как нам совместить поведенческие эксперименты с механистической интерпретируемостью для выяснения субъектиыной каузальной модели агента? Больше об этом будет в следующем посте.
  • Как выводить достаточно точные каузальные модели, чтобы предотвратить манипуляцию предпочтениями при помощи измерения влияния и придирчивых к пути целей?
  • Какие метрики уместны для измерения того, помогает ли техника с обманом и манипуляциями? Для обмана есть бенчмарки правдивости. Вот для манипуляций всё хитрее, может понадобиться информация о мета-предпочтениях и/или лучшее понимание человеческой агентности.
  • Распространить метод придирчивых к пути целей на много временных шагов и реализовать его в не настолько игрушечных окружениях.

В следующем посте мы ближе посмотрим на неправильные обобщения, которые могут заставить агентов плохо себя вести и преследовать неправильные цели даже при правильном определении вознаграждения.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Введение в согласование подобного-мозгу СИИ

Стивен Бирнс

Примечание переводчика: цепочка Стивена Бирнса «Intro to Brain-Like-AGI Safety», выкладывалась на leswrong,com с января по май 2022 года.

Предположим, мы когда-нибудь создадим алгоритм Сильного Искусственного Интеллекта с использованием принципов обучения и мышления, схожими с теми, что использует человеческий мозг. Как мы могли бы безопасно использовать такой алгоритм?

Я утверждаю, что это – открытая техническая задача, и моя цель в этой цепочке постов – довести не обладающих предшествующими знаниями читателей вплотную до переднего края нерешённых задач, как я его вижу.

Если вся эта тема кажется странной или глупой, вам стоит начать с Поста №1, который содержит определения, контекст и мотивацию. Затем Посты №2-№7 – это в основном нейробиология, а Посты №8-№15 более напрямую касаются безопасности СИИ, и заканчивается всё списком открытых вопросов и советами по тому, как включиться в эту область исследований.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 3 (Всего оценок: 1)

1. В чём проблема и почему работать над ней сейчас?

Стивен Бирнс

1.1 Краткое содержание / Оглавление

Это первый из серии постов о технической задаче безопасности гипотетических будущих подобных-мозгу систем Сильного Искусственного Интеллекта (СИИ). Так что мой приоритет тут – сказать, что, чёрт побери, такое «техническая задача безопасности подобных-мозгу СИИ», что эти слова вообще значит, и с чего мне вообще беспокоиться.

Краткое содержание этого первого поста:

  • В Разделе 1.2 я определяю «техническую задачу безопасности СИИ», помещаю её в контекст других видов исследования безопасности (например, изобретения пассивно-безопасных проектов атомных электростанций), и связываю её с большой картиной того, что необходимо, чтобы реализовать потенциальные выгоды СИИ для человечества.
  • В Разделе 1.3 я определяю «подобные мозгу СИИ» как алгоритмы, имеющие на высоком уровне сходства с ключевыми чертами человеческого интеллекта, предположительно (хоть и не обязательно) в результате того, что будущие люди проведут реверс-инжиниринг этих аспектов человеческого мозга. Что в точности это значит будет яснее понятно из следующих постов. Я также упомяну контринтуитивную идею о том, что «подобный-мозгу СИИ» может (и, вероятно, будет) иметь радикально нечеловеческие мотивации. Я не объясню это полностью здесь, но вернусь к этой теме в конце Поста №3.
  • В Разделе 1.4 я определю термин «СИИ», как он будет использоваться в этой цепочке.
  • В Разделе 1.5 я рассмотрю вероятность того, что люди однажды создадут подобные мозгу СИИ, в противоположность каким-то другим видам СИИ (или просто не появлению СИИ вообще). Раздел включает семь популярных мнений по этому поводу, как от нейробиологов, так и от экспертов в ИИ / машинном обучении, и мои на них ответы.
  • В Разделе 1.6 я рассмотрю происшествия с СИИ, которые стоит ожидать, если мы не решим техническую задачу безопасности СИИ. Я приведу аргументы в пользу того, что такие происшествия действительно могут быть катастрофическими, в том числе приводящими к вымиранию людей. Эта тема просто минное поле замешательства и проблем коммуникации, и я построю свой обсуждение вокруг ответов на восемь частых возражений.
  • В Разделе 1.7 я рассмотрю более конкретный вопрос того, почему на следует думать о безопасности СИИ прямо сейчас. Всё же, с первого взгляда кажется, что есть хорошие поводы подождать, конкретно: (1) СИИ пока не существует, (2) СИИ будет существовать когда-нибудь в будущем, и (3) исследования безопасности СИИ будут проще, когда мы будем больше о нём знать и действительно иметь код СИИ для проведения тестов. В этом аргументе действительно что-то есть, но я считаю, что всё же очень много работы по безопасности можно и нужно сделать как можно скорее.
  • В Разделе 1.8 я обосную, что безопасность подобного-мозгу СИИ - это увлекательная, восхитительная и перспективная тема, даже если вы не принимаете идею, что она важна для будущего.

1.2 Техническая задача безопасности СИИ

СИИ – сокращение для «Сильного Искусственного Интеллекта» – я рассмотрю его определение ниже в Разделе 1.4. СИИ сейчас не существует, но в Разделе 1.7 я обосную, что мы можем и нам следует готовиться к появлению СИИ уже сегодня.

Часть, о которой я буду говорить в этой цепочке – это красный прямоугольник тут:

Конкретнее, мы будем представлять одну команду людей, пытающихся создать один СИИ, и стремиться, чтобы для них было возможным сделать это не вызвав какую-нибудь катастрофу, которую никто не хочет, с вышедшим из под контроля СИИ, самовоспроизводящимся через Интернет, или чем-то ещё (больше про это в Разделе 1.6).

Синие прямоугольники на диаграмме – это то, о чём я не буду говорить в этой цепочке. На самом деле, я вообще над ними не работаю – мне и так уже достаточно. Но я очень сильно одобряю, что над ними работают другие люди. Если ты, дорогой читатель, хочешь работать над ними, удачи тебе! Я болею за тебя! И вот несколько ссылок, чтобы начать: 1, 2, 3, 4, 5, 6, 7.

Возвращаясь к красному прямоугольнику. Это техническая задача, требующая технического решения. Никто не хочет катастрофических происшествий. И всё же катастрофы случаются! В самом деле, для людей совершенно возможно написать алгоритм, который делает что-то, что никто от него не хотел. Это происходит всё время! Мы можем назвать это «багом», когда это локальная проблема в коде, и мы можем назвать это «фундаментально порочным дизайном софта», когда это глобальная проблема. Позднее в цепочке я буду отстаивать позицию, что код СИИ может быть необычайно склонен к катастрофическим происшествиям, и что ставки очень высоки (см. Раздел 1.6 ниже и Пост №10).

Вот аналогия. Если вы строите атомную электростанцию, то никто не хочет вышедшей из-под контроля цепной реакции. Люди в Чернобыле точно не хотели! Но это всё равно произошло! Я извлекаю из этой аналогии несколько уроков:

  • Энрико Ферми изобрёл техническое решение для контроля атомных цепных реакций – аварийные регулирующие кассеты – до создания первой атомной цепной реакции. Правильно!! Вот это значит делать вещи в нужном порядке! По той же причине, я считаю, что нам следует стремиться иметь техническое решение для избегания катастрофических происшествий с СИИ наготове до того, как начинать программировать СИИ. На самом деле, я ниже буду отстаивать даже более сильное утверждение: знать (хотя бы в общих чертах) решение за 10 лет до СИИ ещё лучше; за 20 лет до СИИ – ещё лучше; и т.д. и т.д. Это заявление неочевидно, но я к нему ещё вернусь (Раздел 1.7).
  • Технические решения – это не всё-или-ничего. Некоторые снижают риск происшествий, не избавляясь от него полностью. Некоторые сложны и дороги, и подвершены ошибкам при реализации. В случае атомных реакций, аварийные регулирующие кассеты сильно снижают риск происшествий, но пассивно-безопасные реакторы снижают его ещё сильнее. Аналогично, я ожидаю, что техническая безопасность СИИ будет большой областью, в которой мы будем со временем разрабатывать всё более хорошие подходы, используя множество техник и множество слоёв защиты. По крайней мере, я надеюсь! Дальше в цепочке я заявлю, что прямо сейчас у нас нет никакого решения – даже примерного. У нас полно работы!
  • Синие прямоугольники (см. диаграмму выше) тоже существуют, и они совершенно необходимы, хоть и находятся за пределами рассмотрения этой конкретной серии статей. Причиной Чернобыля было не то, что никто не знал, как контролировать цепную атомную реакцию, а то, что лучшим практикам не следовали. В таком случае, мы все в пролёте! Всё же, хоть техническая сторона не может сама по себе решить проблему невыполнения, мы можем несколько с ней помочь, разрабатывая лучшие практики минимально дорогими и с максимальной защитой от дурака.


В *Ученике Чародея*, если я правильно его помню, программный инженер Микки Маус программирует СИИ с метлоподобным роботизированным телом. СИИ делает в точности то, что Микки *запрограммировал* его делать («наполнить ведро водой»), но это оказалось сильно отличающимся от того, что Микки от него *хотел* («наполнить ведро водой, не устроив беспорядок и не делая чего-то ещё, что я бы счёл проблематичным, и т.д.»). Наша цель – дать программным инженерам вроде Микки *возможность* избегать подобных инцидентов, снабдив их необходимыми для этого инструментами и знаниями. См. эту лекцию Нейта Соареса для глубокого обзора того, почему перед Микки ещё полно работы.

1.3 Подобный-мозгу СИИ

1.3.1 Обзор

Эта цепочка фокусируется на конкретном сценарии того, как будут выглядеть алгоритмы СИИ:

Красный прямоугольник – то, о чём я говорю тут. Синие прямоугольники находятся за пределами рассмотрения данной цепочки.

У вас может быть своё мнение о том, какие из этих категорий более или менее вероятны, или даже невозможны, или вообще имеет ли это разделение смысл. У меня оно тоже есть! Я опишу его позже (Раздел 1.5). Но его основа – что все три варианта в достаточной степени вероятны, чтобы нам следовало к ним готовиться. Так что хоть я лично и не делаю много работы в этих синих прямоугольниках, я уж точно рад, что это делают другие!

Вот аналогия. Если бы кто-то в 1870 пытался бы догадаться, как будет выглядеть будущий человеческий полёт…

  • «Что-то вроде птиц» было бы осмысленным предположением…
  • «Что-то вроде лучших нынешних летательных аппаратов» было бы тоже осмысленным предположением…
  • «Ни то, ни другое» было бы ещё одним осмысленным предположением!!

В этом конкретном воображаемом случае, все три предположения оказались бы частично верны, а частично ошибочны: братья Райт активно напрямую вдохновлялись большими парящими птицами, но отбросили махание крыльями. Они также использовали некоторые компоненты уже существовавших аппаратов (например, пропеллеры), но и прилично своих оригинальных деталей. Это всего один пример, но мне кажется, что он убедительный.

1.3.2 Что в точности такое «подобный-мозгу СИИ»?

Когда я говорю «подобный-мозгу СИИ», я имею в виду нечто конкретное. Это станет яснее в следующих постах, после того, как мы начнём погружаться в нейробиологию. Но вот, в общих чертах, о чём я:

Есть некоторые составляющие в человеческом мозгу и его окружении, которые приводят к тому, что у людей есть обобщённый интеллект (например, здравый смысл, способность что-то понимать, и т.д. – см. Раздел 1.4 ниже). В представляемом мной сценарии исследователи выясняют, что это за составляющие и как они работают, а потом пишут код ИИ, основываясь на этих же ключевых составляющих.

Для прояснения:

  • Я не ожидаю, что «подобный мозгу СИИ» будет включать каждую часть мозга и его окружения. К примеру, есть высокоинтеллектуальные люди, рождённые без чувства запаха, из чего можно сделать вывод, что цепи обработки ольфакторной информации не необходимы для СИИ. Есть и высокоинтеллектуальные парализованные с рождения люди, так что большинство спинного мозга и некоторые аспекты ощущения тела тоже не необходимы. Есть люди, рождённые без мозжечка, несмотря на это вполне попадающие в диапазон нормального интеллекта взрослого человека (способные работать, независимо жить и т.д. – способности, которые мы бы без сомнений назвали бы «СИИ»). Другие взрослые ходят на работу, будучи лишёнными целого полушария мозга, и т.д. Моё ожидание по умолчанию – что СИИ будет создан людьми, пытающимися создать СИИ, и они отбросят столько компонентов, сколько возможно, чтобы сделать свою работу проще. (Я не утверждаю, что это обязательно хорошая идея, только что этого я ожидаю по умолчанию. Подробнее об этом в Посте №3.)
    • В частности, «подобный мозгу СИИ», о котором я говорю – это точно не тоже самое, что Полная Эмуляция Мозга.
  • Я не требую, чтобы «подобный-мозгу СИИ» напоминал человеческий мозг в низкоуровневых деталях, вроде импульсных нейронов, дендритов, и т.д., или их прямых симуляций. Если сходство есть только на высоком уровне, хорошо, это тут ни на что не повлияет.
  • Я не требую, чтобы «подобный мозгу СИИ» был изобретён процессом реверс-инжиниринга мозга. Если исследователи ИИ независимо переизобретут схожие с исполняемыми в мозгу алгоритмами – просто потому, что это хорошие идеи – что ж, я всё ещё буду считать результат подобным-мозгу.
  • Я не требую, чтобы «подобный мозгу СИИ» был спроектирован способом, напоминающим то, как был спроектирован мозг, т.е. эволюционным поиском. Даже наоборот: моё рабочее допущение – что он будет спроектирован людьми способом, сходным с типичными проектами машинного обучения сегодня: много написанного людьми кода (очень приблизительно аналогичного геному), часть которого определяет выведение и правила обновлений одного или нескольких алгоритмов обучения (соответствующих алгоритмам обучения мозга во время жизни). В коде могут быть какие-то пустые места, заполняемые поиском гиперпараметров или нейронной архитектуры и т.п. Потом код запускают, и обучающие алгоритмы постепенно создают большую сложно устроенную обученную модель, возможно, с триллионами настраиваемых параметров. Больше об этом в следующих двух постах и Посте №8.
  • Я не требую, чтобы «подобный-мозгу СИИ» имел самосознание. Есть этические причины беспокоиться об осознанности СИИ (больше об этом в Посте №12), но всё, что я говорю в этой цепочке, не зависит от этого. Машинное сознание – большая спорная тема, и я не хочу в неё тут погружаться. (Я написал немного об этом в другом месте.)

Я собираюсь много чего заявить про алгоритмы в основе человеческого интеллекта, и потом говорить о безопасном использовании алгоритмов с этими свойствами. Если наши будущие алгоритмы СИИ будут иметь эти свойства, то эта цепочка будет полезна, и я буду склонен называть такие алгоритмы «подобными мозгу». Мы увидим, что это в точности за свойства дальше.

1.3.3 «Подобный мозгу СИИ» (по моему определению) может (и очень возможно, что будет) иметь радикально нечеловеческие мотивации

Я собираюсь много говорить об этом в следующих статьях, но это настолько важно, что я хочу поднять эту тему немедленно.

Да, я знаю, это звучит странно.

Да, я знаю, вы думаете, что я чокнутый.

Но пожалуйста, прошу вас, сначала выслушайте. К моменту, когда мы доберёмся до Поста №3, тогда вы сможете решать, верить мне или нет.

На самом деле, я пойду дальше. Я отстаиваю позицию, что «радикально нечеловеческие мотивации» не просто возможны для подобного-мозгу СИИ, но и являются основным ожиданием от него. Я считаю, что это в целом плохо, и что для избегания этого нам следует проактивно приоритезировать конкретные направления исследований и разработок.

(Для ясности, «радикально нечеловеческие мотивации» - это не синоним «пугающих и опасных мотиваций». К сожалению, «пугающие и опасные мотивации» – тоже моё основное ожидание от подобного-мозгу СИИ!! Но это требует дальнейшей аргументации, и вам придётся подождать её до Поста №10.)

1.4 Что конкретно такое «СИИ»?

Частый источник замешательства – слово «Обобщённый» в «Обобщённом Искусственном Интеллекта» (по-русски устоялось словосочетание «Сильный Искусственный Интеллект», поэтому аббревиатуру я перевожу как СИИ, но вообще в оригинале он General – прим.пер.):

  • Слово «Обобщённый» ОЗНАЧАЕТ «не специфичный», как «Говоря обобщённо, в Бостоне жить хорошо.»
  • Слово «Обобщённый» НЕ ОЗНАЧАЕТ «универсальный», как в «Я нашёл обобщённое доказательство теоремы.»

СИИ не «обобщённый» во втором смысле. Это не штука, которая может мгновенно обнаружить любой паттерн и решить любую задачу. Люди тоже не могут! На самом деле, никакой алгоритм не может, потому что это фундаментально невозможно. Вместо этого, СИИ – это штука, которая, встретившись с сложной задачей, может быть способна легко её решить, но если нет, то может быть она способна создать инструмент для решения задачи, или найти умный способ обойти задачу, и т.д. В наших целях можно думать о СИИ как об алгоритме, который может «разобраться в вещах» и «понять, что происходит» и «сделать дело», в том числе с использованием языка, науки и технологии, способом, напоминающим то, как это может делать большинство взрослых людей, но не могут младенцы, шимпанзе и GPT-3. Конечно, алгоритмы СИИ вполне могут быть в чём-то слабее людей и сверхчеловеческими в чём-то другом.

В любом случае, эта цепочка – про подобные-мозгу алгоритмы. Эти алгоритмы по определению способны на совершенно любое интеллектуальное поведение, на которое способны люди, и потенциально на куда большее. Так что они уж точно достигают уровня СИИ. А вот сегодняшние ИИ-алгоритмы не являются СИИ. Так что где-то посередине есть неясная граница, отделяющая «СИИ» от «не СИИ». Где точно? Мой ответ: я не знаю, и мне всё равно. Проведение этой линии никогда не казалось мне полезным. Так что я не вернусь к этому в цепочке.

1.5 Какова вероятность, что мы однажды придём к подобному-мозгу СИИ?

Выше (Раздел 1.3.1) я предложил три категории алгоритмов СИИ: «подобные мозгу» (определённые выше), «прозаические» (т.е. подобные современным наиболее впечатляющим глубоким нейросетевым алгоритмам машинного обучения), и «другие».

Если ваше отношение – «Да, давайте изучать безопасность для всех трёх возможностей, просто на всякий случай!!» – как, по-моему, и надо – то, наверное, не так уж важно для принятия решений, как между этими возможностями распределена вероятность.

Но даже если это не важно, об этом интересно поговорить, так что почему нет, я просто быстро перескажу и отвечу на некоторые популярные известные мне мнения на этот счёт.

Мнение №1: «Я оспариваю предпосылку: человеческий мозг работает в целом по тем же принципам, что и нынешние популярные алгоритмы машинного обучения.»

  • В первую очередь, «нынешние популярные алгоритмы машинного обучения» – это зонтичный термин, включающий в себя много разных алгоритмов. К примеру, я едва ли вижу хоть какое-то пересечение у «безопасности подобного-GPT-3 СИИ» и «безопасности подобного-мозгу СИИ», но вижу у второго значительное пересечение с «безопасностью подобного-агенту-основанного-на-модели-обучения-с-подкреплением СИИ».
  • В любом случае, предполагая «подобный-мозгу СИИ» я могу делать некоторые предположения о его когнитивной архитектуре, внутренних отображениях, обучающих алгоритмах, и так далее.
    • Некоторые из этих «ингредиентов подобного-мозгу СИИ» – повсеместные части нынешних популярных алгоритмов машинного обучения (например, алгоритмы обучения; распределённые отображения).
    • Другие из этих «ингредиентов подобного-мозгу СИИ» – представлены (по отдельности) в некотором подмножестве нынешних популярных алгоритмов машинного обучения, но отсутствуют в других (например, обучение с подкреплением; предсказывающее обучение [так же известное как самообучение]; явное планирование).
    • А ещё некоторые из этих «ингредиентов подобного-мозгу СИИ» кажутся в основном отсутствующими в нынешних самых популярных алгоритмах машинного обучения (например, способность формировать «мысли» [вроде «Я собираюсь пойти в магазин»], которые совмещают немедленные действия, краткосрочные и долгосрочные предсказания и гибкие иерархические планы в генеративной модели мира, поддерживающей причинные, гипотетические и метакогнитивные рассуждения).
  • Так что в этом смысле «подобный мозгу СИИ» – это конкретная штука, которая может случиться или не случиться независимо от «прозаического СИИ». Больше про «подобный мозгу СИИ», или, по крайней мере, его важные для безопасности аспекты, в следующих постах.

Мнение №2: «Подобный-мозгу СИИ» возможен, а Прозаический – нет. Этого просто не будет. Современное исследование машинного обучения – не путь к СИИ, точно так же, как забираться на дерево – не путь на Луну.»

  • Это кажется мне умеренно популярным мнением среди нейробиологов и когнитивных психологов. Видные защитники этой точки зрения – это, например, Гэри Маркус и Мелани Митчелл.
  • Один вопрос: если мы возьмём одну из нынешних самых популярных моделей машинного обучения, не будем добавлять никаких значительных озарений или изменений архитектуры, и просто масштабируем её на ещё больший размер, получим ли мы СИИ? Я присоединяюсь к этим нейробиологам в ожидании ответа «наверное, нет».
  • С другой стороны, даже если окажется, что глубокие нейросети не могут делать важные-для-интеллекта штуки X, Y и Z, то ну серьёзно, кто-нибудь наверное просто приклеит к глубоким нейросетям другие компоненты, которые делают X, Y и Z. И у нас останется лишь какой-то бессмысленный спор об определениях, о том, «действительно» ли это прозаический СИИ или нет.


Картинка отсюда

  • В любом случае, в этой цепочке я буду предполагать, что СИИ будет иметь некоторые алгоритмические черты (например, онлайновое обучение, разновидность основанного на модели планирования, и т.д. Больше об этом в следующих постах). Я буду предполагать это, потому что (1) эти черты – части человеческого интеллекта, (2) кажется, что они в нём не зря. Мои относящиеся к безопасности рассуждения будут полагаться на наличие этих черт. Могут ли алгоритмы с этими чертами быть реализованы в PyTorch на GPU? Ну, мне всё равно.

Мнение №3: «Прозаический СИИ появится настолько скоро, что другие программы исследований не имеют ни шанса.»

  • Некоторое подмножество людей в области машинного обучения считают так. Я нет. Или, по крайней мере, я был бы ужасно удивлён.
  • Я согласен, что ЕСЛИ прозаический СИИ, скажем, в пяти годах от нас, то нам почти точно не надо думать о подобном мозгу СИИ или о любой иной программе исследований. Я просто думаю, что это ну очень большое «если».

Мнение №4: «Мозги НАСТОЛЬКО сложные – и мы понимаем о них НАСТОЛЬКО мало после НАСТОЛЬКО больших усилий – что мы никак не можем получить подобный мозгу СИИ даже за следующие 100 лет.»

  • Это довольно популярное мнение, как внутри, так и снаружи нейробиологии. Я думаю, что оно крайне неверно, и буду спорить с ним в следующих двух постах.

Мнение №5: «Нейробиологи не пытаются изобрести СИИ, так что нам не следует ожидать, что они это сделают».

  • В этом есть какая-то правда, но в основном я не соглашусь. Для начала, некоторое количество ведущих вычислительных нейробиологов (команда нейробиологии DeepMind, Рэндалл О’Райли, Джефф Хокинс, Дайлип Джордж) на самом деле явно пытаются изобрести СИИ. Во-вторых, люди в области ИИ, включая влиятельных лидеров области, стараются иметь в виду нейробиологическую литературу и осваивать её идеи. И в любом случае, «понять мозговой алгоритм, важный для СИИ» – это часть изобретения подобного-мозгу СИИ, независимо от того, пытается ли это сделать человек, проводящий исследование.

Мнение №6: «Подобный-мозгу СИИ – не вполне имеющий смысл концепт; интеллект требует телесного воплощения, не просто мозга в банке (или на чипе).»

  • Дебаты о «телесном воплощении» в нейробиологии всё продолжаются. Я принимаю позицию где-то посередине. Я думаю, что будущие СИИ будут иметь какое-то пространство действий – вроде способности (виртуально) призвать конкретную книгу и открыть её на конкретном месте. Я не думаю, что обладание целым буквальным телом важно – к примеру, Кристофер Нолан (1965-2009) был парализован всю жизнь, что не помешало ему быть известным писателем и поэтом. Что важнее, я ожидаю, что какие бы аспекты телесного воплощения ни оказались важны для интеллекта, их можно будет легко встроить в подобный-мозгу СИИ, запущенный на кремниевом чипе. Тело всё же необходимо для интеллекта? ОК, ладно, давайте дадим СИИ виртуальное тело в виртуальном мире. Гормональные сигналы необходимы для интеллекта? ОК, хорошо, мы можем закодировать виртуальные гормональные сигналы. И т.д., и т.п.

Мнение №7: «Подобный-мозгу СИИ несовместим с обычными кремниевыми чипами, он потребует новой аппаратной платформы, основанной на импульсных нейронах, активных дендритах, и т.д. Нейроны попросту лучше в вычислениях, чем кремниевые чипы – просто посмотри на энергетическую эффективность и подобное.»

  • Я довольно плохо отношусь к этой позиции. Стандартные кремниевые чипы точно могут симулировать биологические нейроны – нейробиологи всё время это делают. По-видимому, они также могут исполнять «подобные мозгу алгоритмы», используя иные низкоуровневые операции, более подходящие для этого «железа» – так же как один и тот же код на C можно скомпилировать для разных наборов инструкций процессоров. Касательно же «нейроны попросту лучше», я вполне признаю, что человеческий мозг выполняет чертовски впечатляющее количество вычислений для своего крохотного объёма, массы и потребления энергии. Но это всё не жёсткие ограничения! Если СИИ на кремниевых чипах будет буквально в 10000 раз больше по объёму, массе и потреблению энергии, чем человеческий мозг сравнимой интеллектуальной мощности, то я не думаю, что кому-то было бы дело до меньшей эффективности – в частности, стоимость потребляемого им электричества была бы всё ещё меньше минимальной зарплаты в моём регионе!! И моя лучшая оценка такова, что покупка достаточного количества кремниевых чипов для осуществления того же объёма вычислений, что выполняет человеческий мозг за всю жизнь, скорее всего легко доступна, или будет легко доступна в следующем десятилетии, даже для маленьких компаний. Ключевая причина, по которой маленькие компании не создают СИИ сегодня – мы не знаем правильных алгоритмов.

Это просто быстрый обзор; каждое из этих мнений можно растянуть на отдельную статью – да что там, на целую книгу. Что касается меня, я оцениваю вероятность, что у нас будет достаточно подобный мозгу СИИ, чтобы эта цепочка была к месту, более чем в 50%. Но, конечно, кто знает.

1.6 Почему происшествия с СИИ – настолько серьёзное дело?

Две причины: (1) ставки высоки, и (2) задача трудна. Я буду говорить о (2) куда позже в цепочке (Посты №10-11). Давайте поговорим про (1).

И давайте поговорим конкретнее про возможность одной высокой ставки: риск человеческого вымирания. Это звучит немного дико, но послушайте.

Я оформлю это как ответы на популярные возражения:

Возражение №1: Единственный способ, которым вышедший из под контроля СИИ может привести к вымиранию людей – это если СИИ изобретёт сумасшедшее фантастическое супероружие, например, серую слизь. Как будто это вообще возможно!

О, если бы это было так! Но увы, я не думаю, что фантастическое супероружие невозможно. На самом деле, мне кажется, что где-то примерно на границе возможного для человеческого интеллекта использовать существующие технологии для вымирания человечества!

Подумайте об этом: для амбициозного харизматичного методичного человека уже по крайней мере недалеко от границ возможного устроить производство и высвобождение новой заразной болезни в 100 раз смертельнее, чем COVID-19. Чёрт побери, наверное, возможно выпустить 30 таких болезней одновременно! В то же время, я думаю, хотя бы на границах возможного для амбициозного умного харизматичного человека и найти способ манипулировать системами раннего оповещения о ядерном ударе (обмануть, взломать, подкупить или запугать операторов, и т.д.), устроив полноценную ядерную войну, убив миллиарды людей и посеяв в мире хаос. Это всего лишь два варианта, креативный читатель немедленно придумает ещё немало. В смысле, серьёзно, есть художественные книги с совершенно правдоподобными апокалиптическими безумноучёновскими сценариями, не согласно лишь моему мнению, но согласно экспертам в соответствующих областях.

Теперь, ну принято, вымирание выглядит очень сложнодостижимым требованием! Люди живут в куче разных мест, в том числе на маленьких тропических островах, которые были бы защищены и от ядерной зимы, и от эпидемий. Но тут мы вспомним о большой разнице между интеллектуальным агентом, вроде СИИ и неинтеллектуальным, вроде вируса. Оба могут самовоспроизводиться. Оба могут убить кучу людей. Но СИИ, в отличии от вируса, может взять управление военными дронами и перебить выживших!!

Так что я подозреваю, что мы всё ещё тут в основном из-за того, что самые амбициозные умные харизматичные методичные люди не пытаются всех убить, а не из-за того, что «убить всех» – задача, требующая сумасшедшего фантастического супероружия.

Как описано выше, один из возможных вариантов провала, которые я себе представляю, включает в себя вышедший из-под контроля СИИ, сочетающий интеллект (как минимум) человеческого уровня с радикально нечеловеческими мотивациями. Это была бы новая для мира ситуация, и она не кажется мне комфортной!

Вы можете возразить: То, что пошло не так в этом сценарии – это не вышедший из-под контроля СИИ, это факт того, что человечество слишком уязвимо! И моим ответом будет: Одно другому не мешает! Так что: да, нам совершенно точно следует делать человечество более устойчивым к искусственно созданным эпидемиям и уменьшать шансы атомной войны, и т.д., и т.п. Всё это – замечательные идеи, которые я сильно одобряю, и удачи вам, если вы над ними работаете. Но в то же время, нам следует ещё и очень много работать над тем, чтобы не создать вышедший из-под контроля самовоспроизводящийся подобный-человеку интеллект с радикально нечеловеческими мотивациями!

…О, и ещё одно: может быть, «сумасшедшее фантастическое супероружие вроде серой слизи» тоже возможно! Не знаю! Если так, нам надо быть ещё более осторожными!

Возражение №2: Единственный способ, которым происшествие с СИИ может привести к вымиранию людей – это если СИИ каким-то образом умнее всех людей вместе взятых.

Проблема тут в том, что «все люди вместе взятые» могут не знать, что участвуют в битве против СИИ. Могут знать, а могут и нет. Если СИИ вполне компетентен в секретности, то он скорее организует неожиданную атаку, чтобы никто не знал, что происходит, пока не станет слишком поздно. Или, если СИИ вполне компетентен в дезинформации и пропаганде, он предположительно сможет представить свои действия как несчастные случаи, или как (человеческие) враждебные действия. Может быть, все будут обвинять кого-то ещё, и никто не будет знать, что происходит.

Возражение №3: Единственный способ, которым происшествие с СИИ может привести к вымиранию людей – если СИИ намеренно дадут доступ к рычагам влияния, вроде кодов запуска ядерных ракет, контроля над социальными медиа, и т.д. Но мы также можем запустить код СИИ на всего одном сервере, и потом выключить его, если что-то пойдёт не так.

Проблема тут в том, что интеллектуальные агенты могут превратить «мало ресурсов» в «много ресурсов». Подумайте о Уоррене Баффетте или Адольфе Гитлере.

Интеллектуальные агенты могут зарабатывать деньги (легально или нет), зарабатывать доверие (заслуженное или нет) и получать доступ к другим компьютерам (приобретая серверное время или взламывая их). Последнее особенно важно, потому что СИИ – как вирус, но не как человек – потенциально может самовоспроизводиться. Самовоспроизведение – один из способов, которыми он может защитить себя от выключения, если он на это мотивирован. Другой способ – обмануть / ввести в заблуждение / склонить на свою сторону / подкупить / перехитрить того, кто контролирует кнопку выключения.

(Зерно истины тут в том, что если мы не уверены в мотивации и компетентности СИИ, то давать ему доступ к кодам запуска – очень плохая идея! Попытки ограничить власть и ресурсы СИИ не кажутся решением ни одной из сложнейших интересующих нас тут задач, но это всё ещё может быть как-то полезно, вроде «дополнительного слоя защиты». Так что я целиком за.)

Возражение №4: Хорошие СИИ могут остановить плохих вышедших-из-под-контроля СИИ.

Для начала, если мы не решим техническую проблему того, как направлять мотивацию СИИ и удерживать его под контролем (см. Посты №10-15), то может случиться так, что некоторое время хороших СИИ нет! Вместо этого, все СИИ будут вышедшими из-под контроля!

Вдобавок, вышедшие из-под контроля СИИ будут иметь асимметричные преимущества над хорошими СИИ – вроде возможности красть ресурсы, манипулировать людьми и социальными институтами ложью и дезинформацией; начинать войны, пандемии, блэкауты, выпускать серую слизь, и так далее; и отсутствия необходимости справляться с трудностями координации многих разных людей с разными убеждениями и целями. Больше на эту тему – тут.

Возражение №5: СИИ, который пытается всех убить – это очень конкретный вариант провала! Нет причин считать, что СИИ попробует это сделать. Это не то, что произойдёт как общий результат забагованного или плохо спроектированного софта СИИ. Такое произойдёт только, если кто-то намеренно вложит в СИИ злобные мотивации. На самом деле, забагованный или плохо спроектированный софт обычно делает, ну, ничего особенного! Я знаю кое-что про забагованный софт – я вообще-то написал один сегодня с утра. Единственное, что было убито – моя самооценка!

Тут есть зерно истины в том, что некоторые баги или недостатки проектирования в коде СИИ действительно приведут к тому, что получившийся софт не будет СИИ, не будет «интеллектуальным», и, возможно, даже не будет функционировать! Такие ошибки не считаются катастрофическими происшествиями, если только мы не оказались настолько глупы, что поставили этот софт управлять ядерным арсеналом. (См. «Возражение №3» выше.)

Однако, я утверждаю, что другие баги / ошибки проектирования будут потенциально вести к тому, что СИИ намеренно будет всех убивать, даже если его создатели – разумные люди с благородными скромными намерениями.

Почему? В области безопасности СИИ классический способ это обосновать – это триада из (1) «Тезиса Ортогональности», (2) «Закона Гудхарта» и (3) «Инструментальной Конвергенции». Вы можете ознакомиться с короткой версией этого тройного аргумента тут. Для длинной версии, читайте дальше: эта цепочка вся про детали мотивации подобного мозгу СИИ, и про то, что там может пойти не так.

Так что запомните эту мысль, мы проясним её к тому моменту, как пройдём Пост №10.

Возражение №6: Если создание СИИ кажется спусковым крючком катастрофических происшествий, то мы просто не будем этого делать, до тех пор, пока (если) не решим проблему.

Моя немедленная реакция: «Мы»? Кто, чёрт побери, такие «Мы»? Занимающееся ИИ сообщество состоит из многих тысяч способных исследователей, рассеянных по земному шару. Они расходятся друг с другом во мнениях практически о чём угодно. Никто не присматривает за тем, что они делают. Некоторые из них работают в секретных военных лабораториях. Так что я не думаю, что мы можем принять за данность, что «мы» не будем проводить разработки, которые вы и я считаем очевидно необдуманными и рискованными.

(К тому же, если от некоторых катастрофических происшествий нельзя восстановиться, то даже одно такое – слишком много.)

К слову, если предположить, что кто-то скажет мне «У меня есть экстраординарно амбициозный план, который потребует многих лет или десятилетий работы, но если мы преуспеем, то «Все на Земле ставят разработку СИИ на паузу, пока не будут решены задачи безопасности» будет возможной опцией в будущем» – ОК, конечно, я бы с готовностью выслушал. По крайней мере, этот человек говорит так, будто понимает масштаб вызова. Конечно, я ожидаю, что это скорее всего провалится. Но кто знает?

Возражение №7: Риски происшествий падают и падают уже на протяжении десятилетий. Ты не читал Стивена Пинкера? Имей веру!

Риски не решают сами себя. Они решаются, когда их решают люди. Самолёты обычно не падают. потому что люди сообразили, как избегать падения самолётов. Реакторы атомных электростанций обычно не плавятся потому, что люди сообразили, как избежать и этого.

Представьте, что я сказал: «Хорошие новости, уровень смертей в автокатастрофах сейчас ниже, чем когда либо! Так что теперь мы можем избавиться от ремней безопасности, зон деформации и дорожных знаков!». Вы бы ответили: «Нет!! Это безумие!! Ремни безопасности, зоны деформации и дорожные знаки – это и есть причина того, что смертей в автокатастрофах меньше, чем когда либо!»

Точно так же, если вы оптимистичны и считаете, что мы в итоге избежим происшествий с СИИ, то это не причина возражать против исследований безопасности СИИ.

Есть ещё кое-что, что надо держать в голове, прежде чем находить утешение в исторических данных о рисках технологических происшествий: пока технология неумолимо становится могущественнее, масштабы урона от технологических происшествий также неумолимо растут. Происшествие с атомной бомбой было бы хуже, чем с конвенционной. Биотеррорист с технологией 2022 года был бы способен нанести куда больший ущерб, чем биотеррорист с технологией 1980 года. Точно так же, раз ИИ системы в будущем станут значительно более мощными, нам следует ожидать, что масштаб урона от происшествий с ними так же будет расти. Так что исторические данные не обязательно правильно отображают будущее.

Возражение №8: Люди всё равно обречены. И вообще, никакой вид не живёт вечно.

Я много встречал вариации этого. И, ну да, я не могу доказать, что это неверно. Но мечехвосты вот существуют уже половину миллиарда лет. Давайте, люди, мы так можем! В любом случае, я без боя сдаваться не собираюсь!

А для людей, принимающих “далёкое” отчуждённое философско-кресельное отношение к человеческому вымиранию: если вас опустошила бы безвременная смерть вашего лучшего друга или любимого члена семьи… но вас не особенно заботит идея вышедшего из-под контроля СИИ, убивающего всех… эммм, я не уверен, что тут сказать. Может, вы не очень осторожно всё продумали?

1.7 Почему думать о безопасности СИИ сейчас? Почему не подождать, пока мы не приблизимся к СИИ и не узнаем больше?

Это частое возражение, и в нём действительно есть огромное зерно истины: в будущем, когда мы будем знать больше деталей об устройстве СИИ, будет много новой технической работы по безопасности, которую мы не можем сделать прямо сейчас.

Однако, есть работа по безопасности, которую мы можем сделать прямо сейчас. Просто продолжайте читать эту цепочку, если не верите мне!

Я хочу заявить, что работу по безопасности, которую мы можем делать прямо сейчас, действительно стоит делать прямо сейчас. Ждать куда хуже, даже если до СИИ ещё много десятилетий. Почему? Три причины:

Причина поторопиться №1: Ранние наводки по поводу безопасности могут влиять на решения при исследовании и разработке, включая «Дифференцированное Технологическое Развитие».

Самое важное, что уж точно есть более чем один способ запрограммировать алгоритм СИИ.

Очень рано в этом процессе мы принимаем высокоуровневые решения о пути к СИИ. Мы можем вести исследования и разработку к одной из многих вариаций «подобного мозгу СИИ», как определено здесь, или к полной эмуляции мозга, или к разным видам «прозаического СИИ» (Раздел 1.3.1), или к СИИ, основанному на запросах к графу базы данных, или к системе знания / дискуссии / рассуждения, мы можем использовать или не использовать различные интерфейсы мозг-компьютер, и так далее. Вероятно, не все из этих путей осуществимы, но тут уж точно есть более чем один путь к более чем одной возможной точке назначения. Нам надо выбрать по какому пути пойти. Чёрт, мы даже решаем, создавать ли СИИ вообще! (Однако, смотри «Возражение №6» выше)

На самом деле, мы принимаем эти решения уже сейчас. Мы принимаем их годами. И наша процедура принятия решений такова, что много отдельных людей по всему миру спрашивают себя: какое направление исследований и разработки лучше всего для меня прямо сейчас? Что принесёт мне работу / повышение / выгоду / высокоцитируемую публикацию прямо сейчас?

Получше была бы такая процедура принятия решений: какой СИИ мы хотим однажды создать? ОК! Давайте попробуем прийти к этому раньше всех плохих альтернатив.

Другими словами, те, кто выбирает направление исследований и разработки, основываясь на том, что выглядит интересным и многообещающим, так же как все остальные, не поменяют путь развития нашей технологии. Они просто проведут нас по тому же пути немного быстрее. Если мы думаем, что некоторые точки назначения лучше других, скажем, если мы пытаемся избежать будущих полностью неподконтрольных СИИ с радикально нечеловеческими мотивациями – то важно выбрать, какие исследования делать, чтобы стратегически ускорить то, что мы хотим, чтобы произошло. Этот принцип называется дифференцированное технологическое развитие – или, более обобщённо, дифференцированный интеллектуальный прогресс.

У меня есть мои собственные предварительные идеи о том, что следует ускорять, чтобы с подобным-мозгу СИИ всё получилось получше. (Я доберусь до этого подробно позже в цепочке.) Но главное, в чём я убеждён: «нам нужно отдельно ускорять работу над выяснением, какую работу следует отдельно ускорять»!! К примеру, будет ли подобный мозгу СИИ склонным к катастрофическим происшествиям или нет? Нам надо выяснить! Потому я и пишу эту цепочку!

Причина поторопиться №2: Мы не знаем, сколько времени займёт исследование безопасности.

Как будет описано куда подробнее в позднейших постах (особенно в Постах №10-15), сейчас неизвестно, как создать СИИ, который надёжно будет пытаться делать то, что мы от него хотим. Мы не знаем, как долго займёт выяснение этого (или доказательство невозможности!). Кажется важным начать сейчас.


Как будет описано позже в цепочке (особенно в Постах №10-15), Безопасность СИИ выглядит очень заковыристой технической задачей. Мы сейчас не знаем, как её решить – на самом деле, мы даже не знаем, решаема ли она. Так что кажется мудрым заточить свои карандаши и приняться за работу прямо сейчас, а не ждать до последнего. Концепт мема украден отсюда

Запомнившаяся аналогия Стюарта Расселла: представьте, что мы получили сообщение от инопланетян «Мы летим к вам на наших космических кораблях, и прибудем через 50 лет. Когда мы доберёмся, мы радикально преобразуем весь ваш мир до неузнавания.» И мы в самом деле видим их корабли в телескопы. Они становятся ближе с каждым годом. Что нам делать?

Если мы будем относиться к приближающемуся инопланетному вторжению так же, как мы на самом деле сейчас относимся к СИИ, то мы коллективно пожмём плечами и скажем «А, 50 лет, это ещё совсем нескоро. Нам не надо думать об этом сейчас! Если 100 человек на Земле пытаются подготовиться к надвигающемуся вторжению, этого достаточно. Может, слишком много! Знаете, спросите меня, этим 100 людям стоит перестать смотреть на звёзды и посмотреть на их собственное общество. Тогда они увидят, что РЕАЛЬНОЕ «надвигающееся инопланетное вторжение» – это кардиоваскулярные заболевания. Вот что убивает людей прямо сейчас

…Ну вы поняли. (Не язвлю, ничего такого.)

Причина поторопиться №3: Создание близкого к универсальному консенсуса о чём угодно может быть ужасающе медленным процессом.

Представим, что у меня есть по-настоящему хороший и корректный аргумент о том, что некая архитектура или некий подход к СИИ – просто ужасная идея – непоправимо небезопасная. Я публикую аргумент. Поверят ли мне немедленно и изменят ли направление исследований все вовлечённые в разработку СИИ, включая тех, кто вложил всю свою карьеру в этот подход? Вероятно, нет!!

Бывает, что такое происходит, особенно в зрелых областях вроде математики. Но у некоторых идей широкое (не говоря уж об универсальном) принятие занимает десятки лет: известные примеры включают эволюцию и тектонику плит. Доработка аргументов занимает время. Приведение в порядок свидетельств занимает время. Написание новых учебных пособий занимает время. И да, чтобы несогласные упрямцы умерли и их заменило следующее поколение, тоже занимает время.

Почему почти-универсальный консенсус настолько важен? См. Раздел 1.2 выше. Хорошие идеи о том, как создать СИИ, бесполезны, если люди, создающие СИИ, им не следуют. Если мы хотим добровольного сотрудничества, то нам надо, чтобы создатели СИИ поверили идеям. Если мы хотим принудительного сотрудничества, то нам надо, чтобы люди, обладающие политической властью, поверили идеям. И чтобы создатели СИИ поверили тоже, потому что идеальное принуждение – несбыточная мечта (особенно учитывая секретные лаборатории и т.п.).

1.8 …А ещё это по-настоящему восхитительная задача!

Эй, нейробиологи, слушайте. Некоторые из вас хотят лечить болезни. Хорошо. Давайте. Остальные, вы говорите, что хотите лечить болезни, в своих заявках на гранты, но ну серьёзно, это не ваша настоящая цель, все это знают. На самом деле вы тут, чтобы решать восхитительные нерешённые задачи. Ну, позвольте мне вам сказать, безопасность подобного-мозгу СИИ – это восхитительная нерешённая задача!

Это даже богатый источник озарений о нейробиологии! Когда я целыми днями думаю о штуках из безопасности СИИ (вайрхединг, принятие желаемого за действительное, основания символов, онтологический кризис, интерпретируемость, бла-бла-бла), я задаю вопросы, отличающиеся от обычно задаваемых большинством нейробиологов, а значит наталкиваюсь на другие идеи. (…Мне нравится так думать. Ну, читайте дальше, и сами для себя решите, есть ли в них что-то хорошее.)

Так что даже если я не убедил вас, что техническая задача безопасности СИИ супер-пупер-важная, всё равно читайте. Вы можете работать над ней, потому что она офигенная. ;-)

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

2. "Обучение с чистого листа" в мозгу

Стивен Бирнс

2.1 Краткое содержание / Оглавление

В предыдущем посте я представил задачу «безопасности подобного-мозгу СИИ». Следующие 6 постов (№2-№7) будут в основном про нейробиологию, в них я буду выстраивать более детальное понимание того, как может выглядеть подобный-мозгу СИИ (или, по крайней мере, его относящиеся к безопасности аспекты).

Этот пост сосредоточен на концепции, которую я называю «обучением с чистого листа», я выдвину гипотезу разделения, в котором 96% человеческого мозга (включая неокортекс) «обучается с чистого листа», а остальные 4% (включая ствол головного мозга) – нет. Эта гипотеза – центральная часть моего представления о том, как работает мозг, так что она требуется для дальнейших рассуждений в этой цепочке.

  • В Разделе 2.2 я определю концепцию «обучения с чистого листа». Например, заявляя, что неокортекс «обучается с чистого листа», я имею в виду, что он изначально совершенно бесполезен для организма – выводит улучшающие приспособленность сигналы не чаще, чем случайно – пока не начинает обучаться (во время жизни индивида). Вот пара повседневных примеров штук, которые «обучаются с чистого листа»:
  • В большинстве статей по глубинному обучению модель «учится с чистого листа» – она инициализирована случайными весами, так что поначалу её вывод – случайный мусор. Но по ходу обучения её веса обновляются и вывод модели со временем становится весьма полезным.
  • Пустой жёсткий диск тоже «учится с чистого листа» – нельзя вытащить оттуда полезную информацию, пока её туда не запихнули.
  • В Разделе 2.3 я проясню некоторые частые поводы к замешательству:
  • «Обучение с чистого листа» – не то же самое, что «с нуля», потому что существуют встроенные алгоритм обучения, нейронная архитектура, гиперпараметры и т.д.
  • «Обучение с чистого листа» – не то же самое, что «воспитание превыше природы», потому что (1) только некоторые части мозга обучаются с чистого листа, а другие – нет, и (2) алгоритмы обучения вовсе не обязательно обучаются внешнему окружению – они так же могут обучаться, например, как контролировать собственное тело.
  • «Обучение с чистого листа» – не то же самое (и конкретнее), чем «пластичность мозга», потому что последняя также включает (например) жёстко генетически заданную цепь с всего одним конкретным подстраиваемым параметром, полу-перманентно изменяющимся в некоторых условиях.
  • В Разделе 2.4 я опишу свою гипотезу о том, что две большие части мозга существуют исключительно для того, чтобы исполнять алгоритмы обучения с чистого листа – конкретно, конечный мозг (неокортекс, гиппокампус, миндалевидное тело, большая часть базальных ганглиев) и мозжечок. Вместе они составляют 96% от объёма человеческого мозга.
  • В Разделе 2.5 я коснусь четырёх источников свидетельств, относящихся к моей гипотезе о том, что конечный мозг и мозжечок обучаются с нуля: (1) размышления о том, как мозг работает на высоком уровне, (2) неонатальные данные, (3) связь с гипотезой «однородности коры» и относящимися к ней проблемами, и (4) возможность, что некоторое свойство предварительной обработки в мозгу – так называемое «разделение паттернов» – включает рандомизацию, заставляющую последующие алгоритмы обучаться с чистого листа.
  • В Разделе 2.6 я немного поговорю о том, является ли моя гипотеза мэйнстримной или выделяющейся. (Ответ: я не уверен.)
  • В Разделе 2.7 я выдам намёки на то, почему обучение с чистого листа важно для безопасности СИИ – мы попадаем в ситуацию, где то, что мы хотим, чтобы пытался сделать СИИ (например, вылечить болезнь Альцгеймера) – концепт, погребённый в большой и сложной-для-интерпретации структуре данных. Поэтому написание относящегося к мотивации кода весьма не прямолинейно. Подробнее об этом будет в будущих постах.
  • Раздел 2.8 будет первой из трёх частей моего обсуждения «сроков до подобного-мозгу СИИ», сосредоточенной на том, сколько времени займёт у учёных реверс-инжиниринг ключевых управляющих принципов обучающейся с чистого листа части мозга. (Остальное обсуждение сроков будет в следующем посте.)

2.2 Что такое «обучение с чистого листа»?

Как указано в введении выше, я предлагаю гипотезу, утверждающую, что большие части мозга – конечный мозг и мозжечок (см. Раздел 2.4 ниже) – «обучаются с чистого листа», в том смысле, что изначально они выдают не вкладывающиеся в эволюционно-адаптивное поведение случайные мусорные сигналы, но со временем становятся всё более полезными благодаря работающему во время жизни алгоритму обучения.

Вот два способа думать о гипотезе обучения с чистого листа:

  • Как вам следует думать об обучении с чистого листа (если вы из машинного обучения): Представьте глубокую нейросеть, инициализированную случайными весами. Её нейронная архитектура может быть простой или невероятно сложной, это не важно. У неё точно есть склонности, из-за которых выучить одни виды паттернов для нее легче чем другие. Но их в любом случае надо выучить! Если её веса изначально случайны, то она изначально бесполезна и становится более полезной по мере получения обучающих данных. Идея в том, что эти части мозга (неокортекс и т.д.) схожим образом «инициализированы случайными весами» или обладают каким-то эквивалентным свойством.
  • Как вам следует думать об обучении с чистого листа (если вы из нейробиологии): Представьте о связанной с памятью системе, вроде гиппокампуса. Способность формировать воспоминания – очень полезная для организма! …Но она не помогает от рождения!![1] Вам нужно накопить воспоминания перед тем, как их использовать! Моё предположение – что всё в конечном мозге и мозжечке попадает в ту же категорию – это всё разновидности модулей памяти. Они могут быть очень особыми разновидностями модулей памяти! Неокортекс, например, может обучиться и запомнить суперсложную сеть взаимосвязанных паттернов, к нему прилагаются мощные возможности составления запросов, он даже может делать запросы самому себе рекуррентными петлями, и т.д. Но всё равно, это форма памяти, и она изначально бесполезна, и становится всё более полезной для организма, накапливая выученное содержание.

2.3 Три вещи, которыми «обучение с чистого листа» НЕ ЯВЛЯЕТСЯ

2.3.1 Обучение с чистого листа – это НЕ «с нуля»

Я уже упомянул это, но я хочу быть максимально ясным: если неокортекс (к примеру) обучается с чистого листа, это не означает, что в нём нет жёстко генетически закодированного информационного содержания. Это означает, что жёстко генетически закодированное информационное содержание скорее всего что-то в этом духе:

  • Обучающий(е) алгоритм(ы) – т.е. встроенные правила полу-перманентных изменений нейронов или их связей в зависимости от ситуации.
  • Алгоритм(ы) вывода – т.е. встроенные правила того, какие выходные сигналы следует послать прямо сейчас, чтобы помочь выжить и преуспеть. Сами выходные сигналы, конечно, также зависят от ранее выученной информации.
  • Архитектура нейронной сети – т.е. встроенная высокоуровневая диаграмма связей, определяющая, как разные части обучающегося модуля соединены друг с другом, входными и выходными сигналами.
  • Гиперпараметры – т.е. разные части архитектуры могут иметь разные встроенные скорости обучения. Эти гиперпараметры тоже могут меняться при развитии (см. сенситивные периоды). Также может быть и встроенная способность изменять гиперпараметры от момента к моменту в ответ на специальные управляющие сигналы (в виде нейромодуляторов вроде ацетилхолина).

При наличии всех этих встроенных составляющих алгоритм обучения с чистого листа готов принимать снаружи входные данные и управляющие сигналы[2], и постепенно обучается делать что-то полезное.

Эта встроенная информация не обязательно проста. Может быть 50000 совершенно разных алгоритмов обучения в 50000 разных частях неокортекса, и это всё ещё будет с моей точки зрения считаться обучением с чистого листа! (Впрочем, я не думаю, что это так – см. Раздел 2.5.3 про «однородность».)


Представляя себе обучающийся с чистого листа алгоритм, *не* следует представлять пустоту, наполняемую данными. Стоит представлять *механизм*, который постоянно (1) записывает информацию в хранилище памяти, и (2) выполняет запросы к текущему содержанию хранилища памяти. «С чистого листа» просто означает, что хранилище памяти изначально пусто. Таких механизмов *много*, они следуют разным процедурам того, что записывать и как запрашивать. К примеру «справочная таблица» соответствует простому механизму, который просто записывает то, что видит. Другим механизмам соответствуют алгоритмы обучения с учителем, алгоритмы обучения с подкреплением, автокодировщики, и т.д., и т.п.

2.3.2 Обучение с чистого листа НЕ означает «воспитание превыше природы»

Есть тенденция ассоциировать «алгоритмы обучения с чистого листа» с стороной «воспитания» споров «природа против воспитания». Я думаю, это неверно. Даже напротив. Я думаю, что гипотеза обучения с чистого листа полностью совместима с возможностью того, что эволюционировавшее встроенное поведение играет большую роль.

Две причины:

Во-первых, некоторые части мозга совершенно точно НЕ выполняют алгоритмы обучения с чистого листа! Это в основном мозговой ствол и гипоталамус (больше про это ниже и в следующем посте). Эти не-обучающиеся-с-чистого-листа части мозга должны быть полностью ответственны за любое адаптивное поведение при рождении.[1] Правдоподобно ли это? Думаю, да, учитывая впечатляющий диапазон функциональности мозгового ствола. К примеру, в неокортексе есть цепи обработки визуальных и других сенсорных данных – но в мозговом стволе тоже! В неокортексе есть цепи моторного контроля – и в мозговом стволе тоже! В по крайней мере некоторых случаях полностью адаптивное поведение кажется исполняемым целиком в мозговом стволе: к примеру, у мышей есть цепь-обнаружения-приближающихся-птиц в мозговом стволе, напрямую соединённая с цепью-убегания-прочь в нём же. Так что моя гипотеза обучения с чистого листа не делает никаких общих заявлений о том, какие алгоритмы или функциональности присутствуют или отсутствуют в мозгу. Только заявления о том, что некоторые виды алгоритмов есть только в некоторых конкретных частях мозга.

Во-вторых, «обучение с чистого листа» - не то же самое, что «обучение из окружения». Вот искусственный пример.[3] Представьте, что мозговой ствол птицы имеет встроенную способность судить о том, как должно звучать хорошее птичье пение, но не инструкцию, как произвести хорошее птичье пение. Ну, алгоритм обучения с чистого листа может заполнить эту дыру – методом проб и ошибок вывести вторую способность из первой. Этот пример показывает, что алгоритмы обучения с чистого листа могут управлять поведением, которое мы естественно и корректно описываем как встроенное / «природное, а не воспитанное».

2.3.3 Обучение с чистого листа – это НЕ более общее понятие «пластичности»

«Пластичность» - это термин, означающий, что мозг полу-перманентно изменяет себя, обычно изменяя присутствие / отсутствие / силу синаптических связей нейронов, но иногда и другими механизмами, вроде изменений в экспрессии генов в нейронах.

Любой алгоритм обучения с чистого листа обязательно включает пластичность. Но не вся пластичность мозга – часть алгоритмов обучения с чистого листа. Другая возможность – то, что я называю «отдельными встроенными настраиваемыми параметрами». Вот таблица с примерами и того, и другого и тем, чем они отличаются:

Алгоритмы обучения с чистого листа Отдельные встроенные настраиваемые параметры
Стереотипный пример Любая статья о глубоком обучении: есть *обучающий алгоритм*, который постепенно создаёт *обученную модель*, настраивая много её параметров. Некоторые связи в крысином мозгу усиливаются, когда крыса выигрывает драку – по сути, считают, сколько драк крыса выиграла за свою жизнь. Потом такая связь используется для выполнения поведения «Выиграв много драк за свою жизнь – будь агрессивнее.» (ссылка)
Количество параметров, изменяемых на основании входных данных (т.е. как много измерений в пространстве всех возможных обученных моделей?) Может быть много – сотни, тысячи, миллионы, и т.д. Скорее всего мало, может даже один
Если масштабировать это вверх, будет ли это работать лучше после обучения? Да, наверное. А?? Что, чёрт побери, вообще значит «масштабировать»?

Я не думаю, что между этими штуками есть чёткая граница; наверное, есть спорная область, где одна перетекает в другую. По крайней мере, я думаю, что в теории она есть. На практике, мне кажется, существует довольно явное разделение – всегда, когда я узнаю о конкретном примере пластичности мозга, она явным образом попадает в одну или другую категорию.

К слову, как мне кажется, моя категоризация для нейробиологии несколько необычна. Нейробиологи чаще сосредотачиваются на низкоуровневых деталях реализации: «Источник пластичности – синаптические изменения или изменения экспрессии генов?», «Каков биохимический механизм?» и т.д. Это совсем другая тема. К примеру, готов поспорить, что один и то же низкоуровневый биохимический механизм синаптической пластичности может быть вовлечён и в алгоритмы обучения с чистого листа и в изменение отдельного встроенного настраиваемого параметра.

Почему я подымаю эту тему? Потому что я планирую заявить, что гипоталамус и мозговой ствол не выполняют или почти не выполняют алгоритмы обучения с чистого листа. Но они точно имеют отдельные встроенные настраиваемые параметры.

Для конкретики, вот три примера «отдельных встроенных настраиваемых параметров» в гипоталамусе и мозговом стволе:

  • Уже упомянутая цепь в крысином гипоталамусе «если ты продолжаешь выигрывать драки, становись агрессивнее» – ссылка.
  • Вот цепь в крысином гипоталамусе «если тебе опасно не хватает соли, увеличь базовое желание соли».
  • Верхнее двухолмие в мозговом стволе содержит зрительную, слуховую и саккадную моторную область, и механизм, связывающий все три – так что, когда ты видишь вспышку или слышишь шум, ты немедленно направляешь взгляд в точности в правильном направлении. В этом механизме есть пластичность – к примеру, он может самокорректироваться у животного, носящего призматические очки. Я не знаю точных деталей, но полагаю, что это что-то вроде: Если видишь движение и переводишь на него взгляд, но движение не центрировано даже после саккады, то это генерирует сигнал об ошибке, сдвигающий соответствие областей. Может, вся эта система включает 8 настраиваемых параметров (масштаб и смещение, горизонталь и вертикаль, три области для выравнивания), а может она сложнее – опять же, я не знаю деталей.

Видна разница? Вернитесь к таблице, если всё ещё в замешательстве.

2.4 Моя гипотеза: конечный мозг и мозжечок обучаются с чистого листа, гипоталамус и мозговой ствол – нет


Моя гипотеза заключается в том, что ~96% человеческого мозга выполняет алгоритмы обучения с чистого листа. Главные исключения – мозговой ствол и гипоталамус, общим размером с большой палец. Источник картинки.

Вот моя гипотеза в трёх утверждениях:

Во-первых, я думаю, что весь конечный мозг обучается с чистого листа (и бесполезен при рождении[1]). Конечный мозг (также известный как «большой мозг») у людей – это в основном неокортекс, плюс гиппокампус, миндалевидное тело, большая часть базальных ганглиев и разнообразные более загадочные кусочки.

Несмотря на внешний вид, нравящаяся мне модель (изначально принадлежащая гениальному Ларри Свансону) заявляет, что весь конечный мозг организован в трёхслойную структуру (кора, полосатое тело, паллидум), и эта структура согласуется относительно маленьким количеством взаимосвязанных алгоритмов обучения. См. мой (довольно длинный и технический) пост Большая Картина Фазового Дофамина за подробностями.

(ОБНОВЛЕНИЕ: Узнав больше, я хочу это пересмотреть. Я думаю, что вся «кортикальная мантия» и всё «расширенное полосатое тело» обучаются с чистого листа. (Это включает штуки вроде гиппокампуса, миндалевидного тела, боковой перегородки, и т.д. - которые эмбриологически и/или цитоархитектурно развиваются вместе с корой и/или полосатым телом). Кто касается паллидума, я думаю, некоторые его части по сути являются расширением RAS мозгового ствола, так что им точно не место в этом списке. Про другие его части может оказаться и так, и так, в зависимости от того, как определить поверхность ввода/вывода некоторых алгоритмов обучения. Паллидум довольно маленький, так что мне не надо менять оценки объёма, включая число 96%. Я не буду проходить по всей цепочке и менять «конечный мозг» на «кортикальная мантия и расширенное полосатое тело» в миллионе мест, извините, придётся просто запомнить.)

Таламус технически не входит в конечный мозг, но по крайней мере его часть тесно связана с корой – некоторые исследователи описывают его функциональность как «дополнительный слой» коры. Так что я буду считать и его частью обучающегося с чистого листа конечного мозга.

Конечный мозг и таламус вместе составляют ~86% объёма человеческого мозга (ссылка).

Во-вторых, я думаю, что мозжечок тоже обучается с чистого листа (и тоже бесполезен при рождении). Мозжечок – это ~10% объёма взрослого мозга (ссылка). Больше про мозжечок будет в Посте №4.

В третьих, я думаю, что гипоталамус и мозговой ствол совершенно точно НЕ обучаются с чистого листа (и они очень активны и полезны прямо с рождения). Думаю, другие части промежуточного мозга – например, хабенула и шишковидное тело – тоже попадают в эту категорию.

Я не буду удивлён, если обнаружатся мелкие исключения из этой картины. Может, где-то в конечном мозге есть маленькое ядро, управляющее биологически-активным поведением, не обучаясь ему с чистого листа. Конечно, почему нет. Но сейчас я считаю, что такая картина по крайней мере приблизительно верна.

В следующих двух разделах я расскажу о свидетельствах, относящихся к моей гипотезе, и о том, что о ней думают другие люди из этой области.

2.5 Свидетельства того, что конечный мозг и мозжечок обучаются с чистого листа

2.5.1 Свидетельства общей картины

Из чтения и разговоров с людьми я вижу, что самые большие преграды к тому, чтобы поверить, что конечный мозг и мозжечок обучаются с чистого листа – это в подавляющем большинстве случаев не детализированные аргументы о данных нейробиологии, а скорее:

  • Нерассмотрение этой гипотезы как возможности вовсе
  • Замешательство касательно следствий гипотезы, в частности – как она встраивается в одну осмысленную картину мозга и поведения.

Раз вы досюда дочитали, №1 уже не должно быть проблемой.

Что по поводу №2? Типичный тип вопросов – это «Если конечный мозг и мозжечок обучаются с чистого листа, то как они делают X?» – для разных X. Если есть X, для которого мы совсем не можем ответить на этот вопрос, то это подразумевает, что гипотеза обучения с чистого листа неверна. Напротив, если мы можем найти действительно хорошие ответы на этот вопрос для многих X, то это свидетельство (хоть и не доказательство), того что гипотеза обучения с чистого листа верна. Следующие посты, я надеюсь, обеспечат вам такие свидетельства.

2.5.2 Неонатальное свидетельство

Если конечный мозг и мозжечок не могут производить биологически-адаптивный вывод, не научившись этому со временем, то из этого следует, что любое биологически-адаптивное поведение новорожденных[1] должно управляться мозговым стволом и гипоталамусом. Так ли это? Кажется, такие вещи должны быть экспериментально измеримы, верно? И в этой статье 1991 года действительно говорится «накопившиеся свидетельства приводят к выводу, что перцептомоторная активность новорожденных в основном контролируется подкорковыми механизмами». Но не знаю, изменилось ли что за прошедшие 30 лет – дайте мне знать, если видели другие упоминания этого.

На самом деле, этот вопрос сложнее, чем кажется. Представьте, что младенец совершает что-то биологически-адаптивное…

  • Первый вопрос, который надо задать: в самом деле? Может, это плохой (или неверно интерпретированный) эксперимент. К примеру, если взрослый покажет младенцу язык, высунет ли младенец язык тоже, имитируя? Кажется простым вопросом, верно? Не-а, это источник споров уже десятилетия. Конкурирующая теория строится вокруг орального исследования: «высовывание языка кажется общим ответом на заметные стимулы и зависит от интереса ребёнка к стимулу»; показывающий язык взрослый просто активирует этот ответ, но так же делают мелькающие огоньки и звуки музыки. Я уверен, кто-то знает, каким экспериментам с новорожденными можно доверять, но я, по крайней мере пока не знаю. И я очень параноидально отношусь к тому, что две уважаемые книги в этой области (Учёный в кроватке,Происхождение Концептов) повторяют заявление об имитации будто это твёрдый как скала факт.
  • Второй вопрос, который надо задать: результат ли это прижизненного обучения? Помните, даже у трёхмесячного ребёнка есть 4 миллиона секунд «обучающих данных». На самом деле, даже только что рождённый ребёнок возможно выполнял алгоритмы обучения с чистого листа в утробе.[1]
  • Третий вопрос, который надо задать: какая часть мозга управляет этим поведением? Моя гипотеза заявляет, что не-выученное адаптивное поведение не может управляться конечным мозгом или мозжечком. Но моя гипотеза позволяет мозговому стволу управление таким поведением! И выяснение, какая часть мозга новорожденного в ответе за некоторое поведение может быть экспериментально сложным.

2.5.3 Свидетельство «однородности»

Гипотеза «однородности коры» заявляет, что все части неокортекса выполняют более-менее похожие алгоритмы. (…С некоторыми нюансами, особенно связанными с неоднородной нейронной архитектурой и гиперпараметрами). Мнения по поводу того, верна ли эта гипотеза (и в какой степени) расходятся – я кратко обсуждал свидетельства и аргументы тут. Я считаю, что весьма вероятно, что она верна, по крайней мере в слабом смысле, что будущий исследователь, имеющий очень хорошее детальное понимание того, как работает Область Неокортекса №147 будет очень хорошо продвинут в понимании того, как работает буквально любая другая часть неокортекса. Я не буду тут погружаться в это подробнее; мне кажется, это не совсем укладывается в тему этой цепочки.

Я упоминаю это потому, что если вы верите в однородность коры, то вам, наверное, следует верить и в то, что она обучается с чистого листа. Аргументация такая:

Неокортекс взрослого делает много явно различающихся вещей: обрабатывает зрительную информацию, слуховую информацию, занимается моторным контролем, языком, планированием и т.д. Как это совместимо с однородностью коры?

Обучение с чистого листа предоставляет правдоподобный способ. В конце концов, мы знаем, что один и тот же алгоритм обучения с чистого листа, если ему скормить очень разные входные данные и управляющие сигналы, может начать делать очень разные вещи: посмотрите как глубокие нейросети-трансформеры можно обучить генерировать текст на естественном языке, или картинки, или музыку, или сигналы моторного контроля робота, и т.д.

Если мы, напротив, примем однородность коры, но отвергнем обучение с чистого листа, то, эм-м-м, я не вижу осмысленных вариантов того, как это может работать.

Аналогично (но куда реже обсуждаемо, чем случай неокортекса), стоит ли нам верить в «однородность аллокортекса»? Для справки, аллокортекс – что-то вроде упрощённой версии неокортекса с тремя слоями вместо шести; считается, что до того, как эволюционировал неокортекс, ранние амниоты имели только аллокортекс. Он, как и неокортекс, делает много всякого разного: у взрослых людей гиппокампус вовлечён в ориентирование в пространстве и эпизодическую память, а грушевидная кора – в обработку запахов. Так что тут можно сделать аналогичный аргумент про обучение с чистого листа.

Двигаясь дальше, я уже упоминал выше (и больше в Большой Картине Фазового Дофамина, а ещё в Посте №5, Разделе 5.4.1) идею (Ларри Свансона), что весь конечный мозг кажется организованным в три слоя – «кору», «полосатое тело» и «паллидум». Я пока говорил только про кору; что насчёт «однородности полосатого тела» и «однородности паллидума»? Не ожидайте найти посвящённый этому обзор – на самом деле, предыдущее предложение судя по всему первое, где встречаются эти словосочетания. Но в каждом из этих слоёв есть как минимум некоторые общие черты: например, средние шиповатые нейроны вроде бы есть по всему полосатому телу. И я продолжаю считать, что описанная мной в Большой Картине Фазового Дофамина (и Постах №5-№6) модель – осмысленное первое приближение того, как может сочетаться «всё, что мы знаем о полосатом теле и паллидуме» с «несколькими вариациями конкретных алгоритмов обучения с чистого листа».

В случае мозжечка, есть по крайней мере какая-то литература по гипотезе однородности (ищите термин «universal cerebellar transform»), но, опять же, нет консенсуса. Мозжечок взрослого так же вовлечён в явно разные функции вроде моторной координации, языка, сознания и эмоций. Я лично считаю, что там тоже есть однородность, подробнее будут в Посте №4.

2.5.4 Локально-случайное разделение паттернов

Это другая причина, по которой лично я готов многое поставить на то, что конечный мозг и мозжечок обучаются с нуля. Она несколько специфична, но для меня довольно заметна; посмотрим, примете ли вы её.

2.5.4.1 Что такое разделение паттернов?

В мозгу есть частый мотив, называемый «разделением паттернов». Давайте я объясню, что это и откуда берётся.

Представьте, что вы инженер машинного обучения, работающий на сеть ресторанов. Ваш начальник даёт вам задание предсказать продажи для разных локаций, куда можно распространить франшизу.

Первое, что вы можете сделать – это собрать кучу потоков данных – местные уровни безработицы, местные рейтинги ресторанов, местные цены в магазинах, распространяется ли по миру сейчас новый коронавирус, и т.д. Я называю это «контекстные данные». Вы можете использовать контекстные данные как ввод нейросети. Выводом сети должно быть предсказание уровня продаж. Вы подправляете веса нейросети (используя обучения с учителем, собрав данные от существующих ресторанов), чтобы всё получилось. Никаких проблем!

Разделение паттернов – это когда вы добавляете в начало ещё один шаг. Вы берёте различные потоки контекстных данных и случайно комбинируете их многими разными способами. Затем вы добавляете немного нелинейности, и вуаля! Теперь у вас есть куда больше потоков контекстных данных, чем было изначально! Теперь они могут быть вводом для обучаемой нейросети.[4]


Иллюстрация (части) обработки сенсорных данных плодовой мухи. Высокий вертикальный серый прямоугольник чуть левее центра – это слой «разделения паттернов»; он принимает организованные сенсорные сигналы слева и перемешивает их большим количеством разных (локально) случайных комбинаций. Потом они посылаются направо, чтобы служить «контекстными» вводами модуля обучения с учителем. Источник картинки: Ли и пр..

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 5 (Всего оценок: 1)

3. Две Подсистемы: Обучающаяся и Направляющая

Стивен Бирнс

3.1 Краткое содержание / Оглавление

В предыдущем посте я определил понятие «обучающихся с чистого листа» алгоритмов – широкую категорию, включающую, помимо прочего, любой алгоритм машинного обучения (неважно, насколько сложный) с случайной инициализацией и любую систему изначально пустой памяти. Я затем предложил разделение мозга на две части по признаку наличия или отсутствия обучения с чистого листа. Теперь я даю им имена:

Обучающаяся Подсистема – это 96% мозга, «обучающиеся с чистого листа» – по сути – конечный мозг и мозжечок.

Направляющая Подсистема – это 4% мозга, не «обучающиеся с чистого листа» – по сути – гипоталамус и мозговой ствол.

(См. Предыдущий пост за более подробным анатомическим разделением.)

Этот пост будет обсуждением этой картины двух подсистем в целом и Направляющей Подсистемы в частности.

  • В Разделе 3.2 я поговорю о большой картине того, что эти подсистемы делают и как они взаимодействуют. Как пример, я объясню, почему каждая подсистема нуждается в своей собственной обработке сенсорных сигналов – к примеру, почему визуальный ввод обрабатывается и в зрительной коре в Обучающейся Подсистеме, и в верхнем двухолмии в Направляющей Подсистеме.
  • В Разделе 3.3 я признаю, что эта картина двух подсистем имеет некоторые сходства с дискредитированной «теорией триединого мозга». Но я буду утверждать, что проблемы теории триединого мозга не относятся к моей картине двух подсистем.
  • В Разделе 3.4 я опишу три категории того, что может относиться к Направляющей Подсистеме:
    • Категория A: Штуки, правдоподобно необходимые для обобщённого интеллекта (например, встроенная склонность к любопытству),
    • Категория B: Иные штуки в человеческой направляющей подсистеме (например, встроенная склонность быть добрым к своим друзьям),
    • Категория C: Всё, что может представить программист СИИ, даже если это радикально отличается от того, что встречается у людей и животных (например, встроенная склонность корректно предсказывать цены акций).
  • В Разделе 3.5 я свяжу эти категории с тем, как я ожидаю будет выглядеть создание людьми подобного-мозгу СИИ, и обосную, что «подобный-мозгу СИИ с радикально нечеловеческими (и опасными) мотивациями» – не оксюморон, а, напротив, ожидаемый по умолчанию исход, если мы не потрудимся, чтобы его предотвратить.
  • В Разделе 3.6 я рассмотрю тот факт, что у Джеффа Хокинса есть мнение о двух подсистемах, похожее на мою картину, но он спорит с тем, что катастрофические происшествия с СИИ представляют риск. Я скажу, где, как я считаю, он неправ.
  • Разделы 3.7 и 3.8 будут последними двумя частями моего обсуждения «сроков до подобного-мозгу СИИ». Первой частью был Раздел 2.8 предыдущего поста, где я заявил, что реверс-инжиниринг Обучающейся Подсистемы (достаточный для подобного-мозгу СИИ) может правдоподобно произойти довольно скоро, в следующие два десятилетия, хотя это может и занять больше времени. Тут я дополню это заявлением, что-то же верно и для реверс-инжиниринга Направляющей Подсистемы, и для усовершенствования и масштабирования алгоритмов, проведения обучения модели, и т.д.
  • Раздел 3.9 – быстрое не-техническое обсуждение того, как невероятно расходятся мнения разных людей по поводу сроков до СИИ, даже когда они согласны по поводу вероятностей. К примеру, можно найти двух людей, которые согласятся, что с шансами 3 к 1 СИИ не будет до 2042 года, но один может подчёркивать, как вероятность низка («Видишь? СИИ скорее всего не будет ещё десятилетия»), тогда как другой – как высока эта вероятность. Я поговорю немного о факторах, скрывающихся за этими отношениями.

3.2 Большая картина

В предыдущем посте я заявил, что 96% объёма мозга – грубо говоря, конечный мозг (неокортекс, гиппокампус, миндалевидное тело, большая часть базальных ганглиев, и ещё кое-что) и мозжечок – «обучаются с чистого листа» в том смысле, что на ранних этапах жизни их выводы – случайный мусор, но со временем они становятся невероятно полезны благодаря прижизненному обучению. (См. там больше подробностей) Я сейчас называю эту часть мозга Обучающейся Подсистемой.

Остальной мозг – в основном мозговой ствол и гипоталамус – я называю Направляющей Подсистемой.

Как нам об этом думать?

Давайте начнём с Обучающейся Подсистемы. Как я описывал в предыдущем посте, эта подсистема имеет некоторое количество взаимосвязанных встроенных алгоритмов обучения, встроенную нейронную архитектуру и встроенные гиперпараметры. Она имеет также много (миллиарды или триллионы) подстраиваемых параметров (обычно предполагается, что это сила синаптических связей, но это спорный момент, и я не буду в него погружаться), и значения этих параметров изначально случайны. Так что изначально Обучающаяся Подсистема выдаёт случайные бесполезные для организма выводы – например, может быть, они могут заставить организм дёргаться. Но со временем различные управляющие сигналы и соответствующие правила обновления подправляют настраиваемые параметры системы, что позволяет её за время жизни животного научиться делать сложные биологически-адаптивные штуки.

Дальше: Направляющая Подсистема. Как нам её интуитивно представлять?

Для начала, представьте хранилище с кучей специфичных для вида инстинктов и поведений, жёстко закодированных в геноме:

  • «Чтобы блевануть, сжать мышцы A,B,C, и выпустить гормоны D,E,F.”
  • «Если сенсорный ввод удовлетворяет таким-то эвристикам, то вероятно я ем что-то здоровое и энергоёмкое; это хорошо, и надо отреагировать сигналами G,H,I.”
  • «Если сенсорный ввод удовлетворяет таким-то эвристикам, то наверное я склоняюсь над пропастью, это плохо, и надо отреагировать сигналами J,K,L.”
  • «Если я замёрз, поднять волоски на теле.»
  • «Если я недоедаю, выполнить: (1) запустить ощущение голода, (2) начать вознаграждать неокортекс за получение еды, (3) снизить фертильность и рост, (4) уменьшить чувствительность к боли, и т.д.» (ссылка).

Особенно важная задача Направляющей Подсистемы – посылать управляющие и контролирующие сигналы Обучающейся Подсистеме. Отсюда название: Направляющая Подсистема направляет обучающиеся алгоритмы к адаптивным штукам.

Пример: почему человеческий неокортекс обучается адаптивным-для-человека штукам, а беличий неокортекс обучается адаптивным-для-белки штукам, если они оба исполняют примерно одинаковые алгоритмы обучения с чистого листа?

Я заявляю, что главная часть ответа – то, что обучающиеся алгоритмы в этих двух случаях по-разному «направляются». Особенно важный аспект тут – сигнал «вознаграждения» обучения с подкреплением. Можно представить, что человеческий мозговой ствол посылает «награду» за достижение высокого социального статуса, а беличий мозговой ствол – за запасание орехов осенью. (Это упрощение, я ещё буду к этому возвращаться.)

Аналогично, в машинном обучении один и тот же обучающийся алгоритм может стать очень хорош в шахматах (при условии определённого сигнала вознаграждения и сенсорных данных) или может стать очень хорош в го (при условии других сигналов вознаграждения и сенсорных данных).

Для ясности, несмотря на название, «направление» Обучающейся Подсистемы – не всё, что делает Направляющая Подсистема. Она может и просто что-то делать самостоятельно, без вовлечения Обучающейся Подсистемы! Это хорошо подходит для того, что делать важно прямо с рождения, или для того, в чём даже один провал фатален. Пример, который я упоминал в предыдущем посте – мыши, оказывается, имеют цепь-обнаружения-приближающихся-птиц в мозговом стволе, напрямую соединённую с цепью-убегания-прочь в нём же.

Важно держать в голове, что Направляющая Подсистема мозга не имеет прямого доступа к нашему здравому смыслу и пониманию мира. К примеру, Направляющая Подсистема может исполнять реакции вроде «во время еды выделять пищеварительные энзимы». Но когда мы переходим к абстрактным концептам, которые мы используем для действий в мире – оценки, долги, популярность, соевый соус, и так далее – надо предполагать, что Направляющая Подсистема не имеет о них ни малейшего понятия, если мы не можем объяснить, откуда она могла о них узнать. И иногда такое объяснение есть! Мы ещё рассмотрим много таких случаев, в частности в Посте №7 (для простого примера желания съесть пирог) и Посте №13 (для более хитрого случая социальных инстинктов).

3.2.1 Каждая подсистема в общем случае нуждается в своей собственной сенсорной обработке

К примеру, в случае зрения, у Направляющей Подсистемы есть верхнее двухолмие, а к Обучающейся Подсистемы есть зрительная кора. Для вкуса у Направляющей Подсистемы есть вкусовое ядро в продолговатом мозге, а у Обучающейся Подсистемы – вкусовая кора. И т. д.

Не избыточно ли это? Некоторые так и думают! Книга Дэвида Линдена «Случайный Разум» упоминает существование двух систем сенсорной обработки как замечательный пример корявого проектирования мозга в результате отсутствия у эволюции планирования наперёд. Но я не соглашусь. Они не избыточны. Если бы я делал СИИ, я бы точно сделал ему две системы сенсорной обработки!

Почему? Предположим, что Эволюция хочет создать цепочку реакции, чтобы жёстко генетически закодированные сенсорные условия запускали генетически закодированный ответ. К примеру, как упоминалось выше, если вы мышь, то увеличивающееся тёмное пятно сверху области видимости часто означает приближающуюся птицу, поэтому геном мыши жёстко связал детектор-увеличивающегося-тёмного-пятна с поведенческой-цепью-убегания-прочь.

И я скажу, что создавая эту реакцию геном не может использовать зрительную кору для детектора. Почему? Вспомните предыдущий пост: зрительная кора обучается с чистого листа! Она принимает неструктурированные визуальные данные и строит из них предсказывающую модель. Вы можете (приближённо) думать о зрительной коре как о тщательном каталогизаторе паттернов из ввода, и паттернов из паттернов из ввода, и т.д. Один из этих паттернов может соответствовать увеличивающемуся тёмному пятну в верхней части поля зрения. Или нет! И даже если такой есть, геном не знает заранее, какие в точности нейроны будут хранить этот конкретный паттерн. Так что геном не может жёстко привязать эти нейроны к поведенческому-контроллеру-убегания-прочь.

В итоге:

  • Встроить обработку сенсорных данных в Направляющую Подсистему – хорошая идея, потому что есть много областей, где сильно выгодно для приспособленности связать жёстко генетически заданное сенсорное условие с соответствующей реакцией. В случае людей, подумайте о страхе высоты, страхе змей, эстетике потенциального жилища, эстетике потенциальных партнёров, вкусе сытной еды, звуке вопля, чувстве боли, и так далее.
  • Встроить обработку сенсорных данных в Обучающуюся Подсистему – ТОЖЕ хорошая идея, потому что использование обучающихся с чистого листа алгоритмов для выучивания произвольных паттернов из сенсорного ввода – это, ну, прямо очень хорошая идея. В конце концов, многие полезные сенсорные паттерны супер-специфичны – к примеру, «запах этого одного конкретного дерева» – так что соответствующий жёстко генетически заданный детектор никак не мог эволюционировать.

Так что две системы обработки сенсорной информации – не пример корявого проектирования. Это пример Второго Правила Орджела: «эволюция умнее тебя»!

3.3 «Теория Триединого Мозга» неверна, но давайте не выплёскивать ребёнка вместе с водой

В 1960-х и 70-х Пол Маклейн и Карл Саган изобрели и популяризировали идею Триединого Мозга. Согласно этой теории, мозг состоит из трёх слоёв, сложенных вместе как мороженое в рожке, и они эволюционировали по очереди: сначала «мозг ящерицы» (он же «древний мозг» или «рептильный мозг»), ближайший к спинному; потом «лимбическая система», обёрнутая вокруг него (состоящая из миндалевидного тела, гиппокампуса и гипоталамуса), и, наконец, наружным слоем, неокортекс (он же «новый мозг») – гвоздь программы, вершина эволюции, жилище человеческого интеллекта!!!


(Плохая!) модель триединого мозга (источник картинки)

Ну, сейчас хорошо известно, что Теория Тройственного Мозга – чепуха. Она разделяет мозг на части способом, не имеющим ни функционального ни эмбриологического смысла, и эволюционная история просто откровенно неверна. К примеру, половину миллиарда лет назад самые ранние позвоночные имели предшественников всех трёх слоёв триединого мозга – включая «плащ», который потом (в нашей линии) разделился на неокортекс, гиппокампус, часть миндалевидного тела, и т.д. (ссылка).

Так что да, Теория Тройственного Мозга – чепуха. Но я вполне признаю: нравящаяся мне история (предыдущий раздел) несколько напоминает её. Моя Направляющая Подсистема выглядит подозрительно похожей на маклейновский «рептильный мозг». Моя Обучающаяся Подсистема выглядит подозрительно похожей на маклейновские «лимбическую систему и неокортекс». Мы с Маклейном не вполне согласны по поводу того, что в точности к чему относится, и два там слоя или три. Но сходство несомненно есть.

Моя история про две подсистемы не оригинальна. Вы услышите похожие от Джеффа Хокинса, Дайлипа Джорджа, Илона Маска, и других.

Но эти другие люди делают это придерживаясь традиции теории триединого мозга, и, в частности, сохраняя её проблематичные аспекты, вроде терминологии «древнего мозга» и «нового мозга».

Нет нужды так делать!!! Мы можем сохранить модель двух подсистем, избавившись от унаследованных у тройственного мозга ошибок.

Так что вот моя версия: я думаю, что пол миллиарда лет назад у ранних позвоночные уже был (простой!) алгоритм обучения с чистого листа в их (прото-) конечном мозге, и он «направлялся» сигналами из их (простого, прото-) мозгового ствола и гипоталамуса.

На самом деле, мы можем пойти даже дальше позвоночных! Оказывается, существует сходство между обучающейся с чистого листа корой у людей и обучающимся с чистого листа «грибовидным телом» у плодовых мух! (Подробное обсуждение здесь.) Замечу, к примеру, что у плодовых мух, сигналы запахов отправляются и в грибовидное тело, и в боковой рог, что замечательно сходится с общим принципом того, что сенсорный ввод должен отправляться и в Обучающуюся Подсистему, и в Направляющую Подсистему (Раздел 3.2.1 выше).

В любом случае, за 700 миллионов лет прошедших с нашего последнего общего предка с насекомыми в нашей линии очень сильно увеличились и усложнились и Обучающаяся Подсистема, и Направляющая Подсистема.

Но это не значит, что они одинаково вкладываются в «человеческий интеллект». Опять же, обе необходимы, но, я думаю, факт того, что 96% объёма человеческого мозга занимает Обучающаяся Подсистема, довольно убедителен. Сосредоточимся ещё конкретнее на конечном мозге (который у млекопитающих включает неокортекс), его доля объёма мозга – 87% у людей (ссылка), 79% у шимпанзе (ссылка), 77% у некоторых попугаев, 51% у куриц, 45% у крокодилов, и лишь 22% у лягушек (ссылка). Тут есть очевидная закономерность, и думаю, что для получения способности к распознаваемому интеллектуальному и гибкому поведению действительно необходима большая Обучающаяся Подсистема.

Видите? Я могу описать свою модель двух подсистем без всей этой чепухи про «древний мозг, новый мозг».

3.4 Три типа составных частей Направляющей Подсистемы

Я начну с общей таблицы, а потом рассмотрю всё подробнее в следующих подразделах.

3.4.1 Общая таблица

Категория составных частей Направляющей Подсистемы Возможные примеры Присутствуют в (компетентных) людях? Ожидаются в будущих СИИ?
(A) Штуки, которая Направляющая Подсистема должна делать для достижения обобщённого интеллекта Стремление к любопытству (?) Стремление обращать внимание на некоторые категории вещей в окружении (люди, язык, технология, и т.д.) (?) Общая вовлечённость в настройку нейронной архитектуры Обучающейся Подсистемы (?) Да, по определению Да
(B) Всё остальное из Направляющей Подсистемы нейротипичного человека Социальные инстинкты (лежащие в основе альтруизма, любви, сожаления, вину, чувства справедливости, верности, и т. д.) Стремления в основе отвращения, эстетики, спокойствия, восхищения, голода, боли, боязни пауков, и т. д. Обычно, но не всегда – к примеру, высокофункциональные социопаты лишены некоторых обычных социальных инстинктов. Нет «по умолчанию», но *возможно*, если мы: (1)поймём, как в точности они работают, и (2)убедим разработчиков СИИ заложить их в него
(C) Любые другие возможности, большинство из которых *совершенно непохожи на всё*, что можно обнаружить в Направляющей Подсистеме человека или любого другого животного Стремление увеличить баланс на банковском счёте компании? Стремление изобрести более хорошую солнечную панель? Стремление делать то, что хочет от меня человек-оператор? *(Тут ловушка: никто не знает, как реализовать это!)* Нет Да «по умолчанию». Если что-то – плохая идея, мы можем попробовать убедить разработчиков СИИ это не делать.

3.4.2 В сторону: что я имею в виду под «стремлениями»?

Я подробнее разберу это в следующих постах, но сейчас давайте просто скажем, что Обучающаяся Подсистема (помимо всего прочего) проводит обучение с подкреплением, и Направляющая Подсистема присылает ей вознаграждение. Компоненты функции вознаграждения соответствуют тому, что я называю «встроенными стремлениями» - это корень того, почему некоторые штуки по своей сути мотивирующие / привлекающие, а другие – демотивирующие / отталкивающие.

Явные цели вроде «я хочу избавиться от долгов» отличаются от встроенных стремлений. Явные цели возникают из сложного взаимодействия «встроенных стремлений Направляющей Подсистемы» и «выученного содержания Обучающейся Подсистемы». Опять же, куда больше про это в будущих постах.

Напомню, встроенные стремления находятся в Направляющей Подсистеме, а абстрактные концепции, составляющие ваш осознанный мир – в Обучающейся. К примеру, если я говорю что-то вроде «встроенные стремления, связанные с альтруизмом», то надо понимать, что я говорю не про «абстрактную концепцию альтруизма, как он определён в словаре», а про «некая встроенная в Направляющую Подсистему схема, являющаяся причиной того, что нейротипичные люди иногда считают альтруистические действия по своей сути мотивирующими». Абстрактные концепции имеют какое-то отношение к встроенным схемам, но оно может быть сложным – никто не ожидает взаимно-однозначного соответствия N отдельных встроенных схем и N отдельных слов, описывающих эмоции и стремления.[1]

Разобравшись с этим, давайте подробнее рассмотрим таблицу.

3.4.3 Категория A: Штуки, которая Направляющая Подсистема должна делать для достижения обобщённого интеллекта (например, стремление к любопытству)

Давайте начнём с «стремления к любопытству». Если вы не знакомы с понятием «любопытства» в контексте машинного обучения, я рекомендую Задачу Согласования Брайана Кристиана, главу 6, содержащую занимательную историю того, как исследователи смогли научить агентов обучения с подкреплением выигрывать в игре с Atari Montezuma’s Revenge. Стремление к любопытству кажется необходимым для хорошей работы системы машинного обучения, и, кажется, оно встроено и в людей. Я предполагаю, что будущие СИИ тоже будут в нём нуждаться, а иначе просто не будут работать.

Для большей конкретности – я думаю, что оно важно для начального развития – думаю, стремление к любопытству необходимо на ранних этапах обучения, а потом его, вероятно, можно в какой-то момент отключить. Скажем, представим СИИ, обладающего общими знаниями о мире и самом себе, способного доводить дела до конца, и сейчас пытающегося изобрести новую солнечную панель. Я утверждаю, что ему скорее всего не нужно встроенное стремление к любопытству. Он может искать информацию и жаждать сюрпризов как будто у него оно есть, потому что из опыта он уже выучил, что это зачастую хорошая стратегия для, в частности, изобретения солнечных панелей. Другими словами, что-то вроде любопытства может быть мотивирующим как средство для достижения цели, даже если оно не мотивирует как цель – любопытство может быть выученной метакогнитивной эвристикой. См. инструментальная конвергенция. Но этот аргумент неприменим на ранних этапах обучения, когда СИИ начинает с чистого листа, ничего не зная о мире и о себе. Так что, если мы хотим получить СИИ, то поначалу, я думаю, Направляющая Подсистема действительно должна указывать Обучающейся Подсистеме правильное направление.

Другой возможный элемент в Категории A – это встроенное стремление обращать внимание на конкретные вещи в окружении, например, человеческую деятельность, человеческий язык или технологию. Я не совсем уверен, что это необходимо, но мне кажется, что стремления к любопытству самого по себе не хватит для того, что мы от него хотим. Оно было бы совершенно ненаправленным. Может, СИИ мог бы провести вечность, прокручивая в своей голове Правило 110, находя всё более и более глубокие паттерны, полностью игнорируя физическую вселенную. Или„ может быть, он мог бы находить всё более и более глубокие паттерны в формах облаков, полностью игнорируя всё, связанное с людьми и технологией. В случае человеческого мозга, мозговой ствол определённо обладает механизмами, заставляющими обращать внимание на человеческие лица (ссылка), и я сильно подозреваю, что там есть и система обращения внимания на человеческую речь. Я могу быть неправ, но, думаю, что-то вроде этого понадобиться и для СИИ. И точно также, может оказаться, что это необходимо только в начале обучения.

Что ещё может быть в Категории A? В таблице я написал расплывчатое «Общая вовлечённость в настройку нейронной архитектуры Обучающейся Подсистемы». Это включает посылание сигналов вознаграждения, и сигналов об ошибке, и гиперпараметры и т. д. для конкретных частей нейронной архитектуры Обучающейся Подсистемы. К примеру, в Посте №6 я поговорю о том, как только часть нейронной архитектуры становится получателем главного сигнала вознаграждения обучения с подкреплением. Я думаю об этих вещах, как о (одном аспекте) настоящей реализации нейронной архитектуры Обучающейся Подсистемы. У СИИ тоже будет какая-то нейронная архитектура, хотя, возможно, не в точности такая же, как у людей. Следовательно, СИИ тоже могут понадобится такие сигналы. Я немного говорил о нейронной архитектуре в Разделе 2.8 предыдущего поста, но в основном она не важна для этой цепочки, так что я не буду рассматривать её ещё подробнее.

В Категории A могут быть и другие штуки, о которых я не подумал.

3.4.4 Категория B: Всё остальное из человеческой Направляющей Системы (например, стремления, связанные с альтруизмом)

Я сразу перепрыгну к тому, что мне кажется наиболее важным: социальные инстинкты, включающие различные стремления, связанные с альтруизмом, симпатией, любовью, виной, завистью, чувством справедливости, и т. д. Ключевой вопрос: Откуда я знаю, что социальные инстинкты попадают в Категорию B, то есть, что они не в Категории A вещей, необходимых для обобщённого интеллекта?

Ну, для начала, посмотрите на высокофункциональных социопатов. У меня в своё время был опыт очень хорошего знакомства с парочкой. Они хорошо понимают мир, себя, язык, математику, науку, могут разрабатывать сложные планы и успешно достигать впечатляющих вещей. ИИ, умеющий всё, что может делать высокофункциональный социопат, мы бы без колебаний назвали «СИИ». Конечно, я думаю, высокофункциональные социопаты имеют какие-то социальные инстинкты – они более заинтересованы в манипуляциях людьми, а не игрушками – но их социальные инстинкты кажутся очень сильно отличающимися от социальных инстинктов нейротипичного человека.

Сверх этого, мы можем рассмотреть людей с аутизмом, людей с шизофренией, и S.M. (лишённую миндалевидного тела, и более-менее – негативных социальных эмоций), и так далее, и так далее. Все эти люди имеют «обобщённый интеллект», но их социальные инстинкты / стремления очень разнятся.[2]

С учётом всего этого, мне сложно поверить, что какие-то аспекты социальных инстинктов строго необходимы для обобщённого интеллекта. Я думаю, как минимум открытый вопрос – даже способствуют ли они обобщённому интеллекту!! К примеру, если вы посмотрите на самых гениальных в мире учёных, то я предположу, что люди с нейротипичными социальными инстинктами там будут несколько недопредставлены.

Причина, по которой это важно – я заявляю, что социальные инстинкты лежат в основе «желания поступать этично». Опять же, рассмотрим высокофункциональных социопатов. Они могут понять честь и справедливость и этику, если захотят, понять в смысле правильных ответов на тестовые вопросы о том, что справедливо, а что нет и т.д., они просто всем этим не мотивированы.[3]

Если подумать, это имеет смысл. Предположим, я скажу вам «Тебе следует запихнуть камушки себе в уши». Вы скажете «Почему?». И я скажу «Потому что, ну знаете, в ваших ушах нет камушков, но надо, чтобы были». И вы опять скажете «Почему?» …В какой-то момент этому разговору придётся свестись к тому, что вы и я считаем по своей сути, независимо от всего остального, мотивирующим или демотивирующим. И я утверждаю, что социальные инстинкты – различные встроенные стремления, связанные с чувством честности, симпатией, верностью, и так далее – и являются основанием для этих интуитивных заключений.

(Я тут не решаю дилемму морального реализма против морального релятивизма – то есть вопрос о том, есть ли «материальные факты» о том, что этично, а что неэтично. Вместо этого, я говорю, что если агент полностью лишён встроенных стремлений, которые могу разжечь в нём желание поступать этично, то нельзя ожидать от него этичного поведения, неважно, насколько он интеллектуален. С чего ему? Ладно, он может поступать этично как средство для достижения цели – например, чтобы привлечь на свою сторону союзников – но это не считается. Больше обсуждения и оснований интуиции в моём комментарии тут.)

Пока что это всё, что я хочу сказать о социальных инстинктах; я ещё вернусь к ним позже в этой цепочке.

Что ещё попадает в Категорию B? Много штук!! Отвращение, эстетика, спокойствие, восхищение, голод, боль, страх пауков, и т. д.

3.4.5 Категория C: Любые другие возможности (например, стремление увеличить баланс на банковском счёте)

Люди, создающие СИИ, могут поместить в функцию вознаграждения что им захочется! Они смогут создавать совершенно новые встроенные стремления. И эти стремления будут радикально непохожи на что-либо присущее людям или животным.

Зачем будущим программистам СИИ изобретать новые, ранее не встречавшиеся встроенные стремления? Потому что это естественно!! Если похитить случайного разработчика машинного обучения из холла NeurIPS, запереть его в заброшенном складе и заставить создавать ИИ-для-зарабатывания-денег-на-банковском-счёте с использованием обучения с подкреплением[4], то спорю на что угодно, в его исходном коде будет функция вознаграждения, использующая баланс на банковском счёте. Вы не найдёте ничего похожего в генетически прошитых схемах в мозговом стволе человека! Это новое для мира встроенное стремление.

«Поместить встроенное стремление для увеличения баланса на банковском счёте» – не только очевидный вариант, но, думаю, и в самом деле работающий! Некоторое время! А потом он катастрофически провалится! Он провалится как только ИИ станет достаточно компетентным, чтобы найти нестандартные стратегии увеличения баланса на банковском счёте – занять денег, взломать сайт банка, и так далее. (Смешной и ужасающий список исторических примеров того, как ИИ находили нестандартные не предполагавшиеся стратегии максимизации награды, больше об этом в следующих постах.) На самом деле, этот пример с балансом банковского счёте – только одно из многих-многих возможных стремлений, которые правдоподобно могут привести СИИ к вынашиванию тайной мотивации сбежать из под человеческого контроля и всех убить (см. Пост №1).

Так что такие мотивации худшие: они прямо у всех под носом, они – лучший способ достигать целей, публиковать статьи и побивать рекорды показателей, пока СИИ не слишком умный, а потом, когда СИИ становится достаточно компетентным, они приводят к катастрофическим происшествиям.

Вы можете подумать: «Это же совсем очевидно, что СИИ с всепоглощающим стремлением повысить баланс конкретного банковского счёта – это СИИ, который попытается сбежать из-под человеческого контроля, самовоспроизводиться и т.д. Ты реально веришь, что будущие программисты СИИ буду настолько беспечны, чтобы поместить в него что-то в таком роде??»

Ну, эммм, да. Да, так и думаю. Но даже отложив это пока в сторону, есть проблема побольше: мы пока не знаем, как закодировать хоть какое-нибудь встроенное стремление так, чтобы получившийся СИИ точно остался под контролем. Даже стремления, которые на первый взгляд кажутся благоприятными, скорее всего не такие, по крайней мере при нашем нынешнем уровне понимания. Куда больше про это в будущих постах (особенно №10).

Безусловно, Категория C – очень широкая. Я совсем не буду удивлён, если в ней существуют встроенные стремления, которые очень хороши для безопасности СИИ! Нам просто надо их найти! Я поисследую это пространство возможностей дальше в цепочке.

3.5 Подобные-мозгу СИИ будут по умолчанию иметь радикально нечеловеческие (и опасные) мотивации

Я упоминал это уже в первом посте (Раздел 1.3.3), но сейчас у нас есть объяснение.

Предыдущий подраздел предложил разделение на три типа возможного содержания Направляющей Подсистемы: (A) Необходимые для СИИ, (B) Всё остальное, что есть в людях, (C) Всё, чего нет в людях.

Мои заявления:

  1. Люди хотят создавать мощные ИИ с прорывными способностями в сложных областях – они знают, что это хорошо для публикаций, производит впечатление на коллег, помогает получить работу, повышения и гранты, и т.д. В смысле, ну просто посмотрите на ИИ и машинное обучение сейчас. Поэтому, по умолчанию, я ожидаю, что разработчики СИИ будут нестись прямиком по самому короткому к нему пути: реверс-инжиниринг Обучающейся Подсистемы и комбинирование её с стремлениями из Категории A.
  2. Категория B содержит некоторые стремления, которые, вполне возможно, могут быть полезны для безопасности СИИ: связанные с альтруизмом, симпатией, щедростью, скромностью, и т.д. К сожалению, мы сейчас не знаем, как они реализованы в мозге. И выяснение этого необязательно для создания СИИ. Так что я думаю, что по умолчанию следует ожидать, что разработчики СИИ будут игнорировать Категорию B до тех пор, пока у них не будет работающего СИИ, и только затем они начнут попытки разобраться, как встроить стремление к альтруизму и т.п. И у них может просто не получиться – вполне возможно, что соответствующие схемы в мозговом стволе и гипоталамусе ужасающе сложны и запутаны, а у нас будет только некоторое ограниченное время между «СИИ работает» и «кто-то случайно создаёт вышедший из под контроля СИИ, который всех убивает» (см. Пост №1).
  3. В Категории C есть штуки вроде «низкоуровневое встроенное стремление увеличить баланс конкретного банковского счёта», которые немедленно очевидны для кого угодно, легко реализуются, и будут хорошо справляться с достижением целей программистов, пока их прото-СИИ не слишком способен. Следовательно, по умолчанию, я ожидаю, что будущие исследователи будут использовать такие «очевидные» (но опасные и радикально нечеловеческие) стремления в своей работе по разработке СИИ. И, как и обсуждалось выше (и больше в следующих постах), даже если исследователи начнут добросовестные попытки дать своему СИИ встроенное стремление к услужливости / послушности / чему-то ещё, они могут обнаружить, что не знают, как это сделать.

Обобщая, если исследователи пойдут по самому простому и естественному пути – вытекающему из того, что сообщества ИИ и нейробиологии продолжат вести себя похоже на то, как они ведут себя сейчас – то мы получим СИИ, способные на впечатляющие вещи, поначалу на те, которые хотят их программисты, но ими будут управлять радикально чужеродные системы мотивации, фундаментально безразличные к человеческому благополучию, и эти СИИ попытаются сбежать из-под человеческого контроля как только станут достаточно способными для этого.

Давайте попробуем это изменить! В частности, если мы заранее разберёмся, как написать код, задающий встроенное стремление к альтруизму / услужливости / послушности / чему-то подобному, то это будет очень полезно. Это большая тема этой цепочки. Но не ожидайте финальных ответов. Это нерешённая задача: впереди ещё много работы.

3.6 Ответ на аргументы Джеффа Хокинса против риска происшествий с СИИ

Недавно вышла книга Джеффа Хокинса «Тысяча мозгов». Я написал подробный её обзор тут. Джефф Хокинс продвигает очень похожую на мою точку зрения о двух подсистемах. Это не совпадение – его работы подтолкнули меня в этом направлении!

К чести Хокинса, он признаёт, что его работа по нейробиологии / ИИ продвигает (неизвестной длины) путь в сторону СИИ, и он попытался осторожно обдумать о последствиях такого проекта – в противоположность более типичной точке зрения, объявляющей СИИ чьей-то чужой проблемой.

Так что я восхищён тем, что Хокинс посвятил большой раздел своей книги аргументам о катастрофических рисках СИИ. Но его аргументы – против катастрофического риска!! Что такое? Как он и я, начав с похожих точек зрения на две подсистемы, пришли к диаметрально противоположным заключениям?

Хокинс приводит много аргументов, и, опять же, я более подробно их рассмотрел в моём обзоре. Но тут я хочу подчеркнуть две самые большие проблемы, касающиеся этого поста.

Вот мой пересказ некоторых аргументов Хокинса. (Я перевожу их в используемую мной в этой цепочке терминологию, например, где он говорит «древний мозг», я говорю «Направляющая Подсистема». И, может быть, я немного груб. Вы можете прочитать книгу и решить для себя, насколько я справедлив.)

  1. Обучающаяся Подсистема (неокортекс и т.п.) сама по себе не имеет целей и мотиваций. Она не сделает ничего. Она точно не сделает ничего опасного. Это как карта, лежащая на столе.
  2. В той степени, в какой у людей есть проблематичные стремления (жадность, самосохранение, и т.д.), они происходят из Направляющей Подсистемы (мозговой ствол и т.д.).
  3. То, что я, Джефф Хокинс, предлагаю, и делаю – это попытки реверс-инжиниринга Обучающейся Подсистемы, не Направляющей. Так какого чёрта все так взволнованы?
  4. О, кстати, совершенно не связанное замечание, мы когда-нибудь в будущем сделаем СИИ, и у них будет не только Обучающаяся Подсистема, но ещё и подключённая к ней Направляющая Подсистема. Я не собираюсь говорить о том, как мы спроектируем Направляющую Подсистему. Это на самом деле не то, о чём я много думаю.

Каждый пункт по отдельности кажется вполне осмысленным. Но если сложить их вместе, тут зияющая дыра! Кого волнует, что неокортекс сам по себе безопасен? План вовсе не в неокортексе самом по себе! Вопрос, который надо задавать – будет ли безопасен СИИ, состоящий из обеих подсистем. И это критически зависит от того, как мы создадим Направляющую Подсистему. Хокинсу это неинтересно. А мне да! Дальше в цепочке будет куда больше на эту тему. В Посте №10 я особенно погружусь в тему того, почему чертовски сложнее, чем кажется создать Направляющую Подсистему, способствующую тому, чтобы СИИ делал что-то конкретное, что нам надо, не вложив в него также случайно опасные антисоциальные мотивации, которые мы не намеревались в него вкладывать.

Ещё одна (имеющая значение) проблема, которую я не упоминал в своём обзоре: я думаю, что Хокинс частично руководствуется интуитивным соображением, против которого я выступал в (Мозговой ствол, Неокртекс) ≠ (Базовые Мотивации, Благородные Мотивации) (и больше на эту тему будет в Посте №6): тенденцией необоснованно приписывать эгосинтонические мотивации вроде «раскрытия тайн вселенной» неокортексу (Обучающейся Подсистеме), а эгодистонические мотивации вроде голода и сексуального желания – мозговому стволу (Направляющей Подсистеме). Я заявляю, что все мотивации без исключения изначально исходят из Направляющей Подсистемы. Надеюсь, это станет очевидно, если вы продолжите читать эту цепочку.

На самом деле, мое заявление даже подразумевается в лучших частях книги самого Хокинса! К примеру:

  • Хокинс в Главе 10: «Неокортекс обучается модели мира, которая сама по себе не содержит целей и ценностей.»
  • Хокинс в Главе 16: «Мы – разумная модель нас, обитающая в неокортексе – заперты. Мы заперты в теле, которое … в основном находится под контролем невежественной скотины, древнего мозга. Мы можем использовать интеллект, чтобы представить лучшее будущее… Но древний мозг может всё испортить…»

Проговорю противоречие: если «мы» = модель в неокортексе, и модель в неокортексе не имеет целей и ценностей, то «мы» точно не жаждем лучшего будущего и не вынашиваем планы, чтобы обойти контроль мозгового ствола.

3.7 Сроки-до-подобного-мозгу-СИИ, часть 2 из 3: насколько сложен достаточный для СИИ реверс-инжиниринг Направляющей Подсистемы??

(Напомню: Часть 1 из 3 – Раздел 2.8 предыдущего поста.)

Выше (Раздел 3.4.3) я рассмотрел «Категорию A», минимальный набор составляющих для создания Направляющей Системы СИИ (не обязательно безопасного, только способного).

Я на самом деле не знаю, что в этом наборе. Я предположил, что вероятно нам понадобится какая-то разновидность стремления к любопытству, и может быть какое-то стремление обращать внимание на человеческие языки и прочую человеческую деятельность, и, может быть, какие-то сигналы для помощи в образовании нейронной архитектуры Обучающейся Подсистемы.

Если это так, ну, это не поражает меня как что-то очень сложное! Это уж точно намного проще, чем реверс-инжиниринг всего, что есть в человеческом гипоталамусе и мозговом стволе! Держите в голове, что есть довольно обширная литература по любопытству, как в машинном обучении (1, 2), так и в психологии. «Стремление обращать внимание на человеческий язык» не требует ничего сверх классификатора, который (с осмысленной точностью, он не обязан быть идеальным) сообщает, является ли данный звуковой ввод человеческой речью или нет; это уже тривиально с нынешними инструментами, может уже залито на GitHub.

Я думаю, нам стоит быть открытыми к возможности что не так уж сложно создать Направляющую Подсистему, которая (вместе с получившейся в результате реверс-инжиниринга Обучающейся Подсистемой, см. Раздел 2.8 предыдущего поста) может развиться в СИИ после обучения. Может, это не десятилетия исследований и разработки; может даже не годы! Может, компетентный исследователь может сделать это всего с нескольких попыток. С другой стороны – может и нет! Может, это супер сложно! Я думаю, сейчас очень сложно предсказать, сколько времени это займёт, так что нам стоит оставаться неуверенными.

3.8 Сроки-до-подобного-мозгу-СИИ, часть 3 из 3: масштабирование, отладка, обучение, и т.д.

Обладание полностью определённым алгоритмом с способностями СИИ – ещё не конец истории; его всё ещё надо реализовать, отполировать, аппаратно ускорить и распараллелить, исправить причуды, провести обучение, и т.д. Не стоит игнорировать эту часть, но не стоит и её переоценивать. Я не буду описывать это тут, потому что я недавно написал целый отдельный пост на эту тему:

Вдохновлённый-мозгом СИИ и «прижизненные якоря»

Суть поста: я думаю, что всё это точно можно сделать меньше, чем за 10 лет. Может, меньше чем за 5. Или это может занять дольше. Я думаю, нам стоит быть очень неуверенными.

Это заканчивает моё обсуждение сроков-до-подобного-мозгу-СИИ, что, опять же, не главная тема этой цепочки. Вы можете прочитать три его части (2.8, 3.7, и эта), согласиться или не согласиться, и прийти к своим собственным выводам.

3.9 Сроки-до-подобного-мозгу-СИИ, ещё: Что мне чувствовать по поводу вероятностей?

Моё обсуждение «сроков» (Разделы 2.8, 3.7, 3.8) касалось вопроса прогнозирования «какое распределение вероятностей мне приписывать времени появления СИИ (если он вообще будет)?»

Полу-независимым от этого вопроса является вопрос отношения: «Что мне чувствовать по поводу этого распределения вероятностей?»

Например, два человека могут соглашаться с (допустим) «35% шансом СИИ к 2042», но иметь невероятно разное отношение к этому:

  • Один из них закатывает глаза, смеётся и говорит: «Видишь, я же говорил! СИИ скорее всего не появится ещё десятилетия
  • У другого глаза расширяются, челюсть отпадает, и он говорит: «О. Боже. Извините, дайте минутку, пока я переобдумываю всё о своей жизни.»

Есть много факторов, лежащих в основе таких разных отношений к одному и тому же убеждению о мире. Во-первых, некоторые факторы – больше про психологию, а не про фактические вопросы:

  • «Какое отношение лучше подходит моему восприятию себя и моей психике?» - о-о-о, блин, это в нас глубоко засело. Людей, думающих о себе как о хладнокровных серьёзных скептических величавых приземлённых учёных, может непреодолимо тянуть к мнению, что СИИ – не такое уж большое дело. Людей, думающих о себе как о радикальных трансгуманистических технологических первопроходцах, может так же непреодолимо тянуть к противоположному мнению, что СИИ радикально изменит всё. Я говорю это, чтобы вы могли пообдумывать свои собственные искажения. О, да кого я обманываю; на самом деле, я просто дал вам удобный способ самодовольно насмехаться над всеми, кто с вами не согласен, и отбрасывать их мнение. (Можете не благодарить!) С моей стороны, я заявляю, что я несколько иммунен к отбрасыванию-мнения-через-психоанализ: Когда я впервые пришёл к убеждению, что СИИ – очень серьёзное дело, я полностью идентифицировал себя как хладнокровного серьёзного скептического величавого приземлённого учёного средних лет, не интересующегося и не связанного с научной фантастикой, трансгуманизмом, технологической индустрией, ИИ, Кремниевой долиной, и т.д. Вот так-то! Ха! Но на самом деле, это глупая игра: отбрасывать убеждения людей через психоанализ их скрытых мотивов – всегда было ужасной идеей. Это слишком просто. Правда или неправда, вы всегда можете найти хороший повод самодовольно усомниться в мотивах любого, кто с вами не согласен. Это просто дешёвый трюк для избегания тяжёлой работы выяснения, не могут ли они на самом деле оказаться правы. И про психологию в целом: принять всерьёз возможность будущего с СИИ (настолько серьёзно, насколько, как я думаю, она того заслуживает) может быть, ну, довольно мучительно! Довольно сложно было привыкнуть к идее, что Изменение Климата реально происходит, верно?? См. этот пост за большими подробностями.
  • Как мне следует думать о возможных-но-не-гарантированных будущих событиях? Я предлагаю прочитать этот пост Скотта Александера. Или, если вы предпочитаете в виде мема:


Источник картинки: Скотт Александер

Ещё, тут есть ощущение, выраженное в известном эссе «Заметив Дым», и этом меме:


Примерно основано на меме @Linch, если не ошибаюсь

Говоря явно, правильная идея – взвешивать риски и выгоды и вероятности переподготовки и недоподготовки к возможному будущему риску. Неправильная идея – добавлять в это уравнение дополнительный элемент – «риск глупо выглядеть перед моими друзьями из-за переподготовки к чему-то странному, что оказалось не таким уж важным» – и трактовать этот элемент как подавляюще более важный, чем все остальные, и затем через какое-то безумное странное выворачивание Пари Паскаля выводить, что нам не следует пытаться избежать потенциальной будущей катастрофы до тех пор, пока мы не будем уверены на >99.9%, что катастрофа действительно произойдёт. К счастью, это становится всё более и более обсуждаемой темой; ваши друзья всё с меньшей и меньшей вероятностью подумают, что вы странный, потому что безопасность СИИ стала куда более мейнстримной в последние годы – особенно благодаря агитации и педагогике Стюарта Расселла, Брайана Кристиана, Роба Майлза, и многих других. Вы можете поспособствовать этому процессу, поделившись этой цепочкой! ;-) (рад помочь – прим. пер.)

Отложив это в сторону, другие более вещественные причины разного отношения к срокам до СИИ включают вопросы:

  • Насколько сильно СИИ преобразует мир? Что касается меня, я нахожусь далеко на конце спектра «сильно». Я одобряю цитату Элиезера Юдковского: «Спрашивать о воздействии [сверхчеловеческого СИИ] на [безработицу] – это как спрашивать, как на торговлю США с Китаем повлияет падение Луны на Землю. Воздействие будет, но вы упускаете суть.» Для более трезвого обсуждения, попробуйте Цифровые Люди Были Бы Ещё Большим Делом Холдена Карнофского, и, может быть, ещё и Так не Может Продолжаться для фона, и, почему бы и нет, всю остальную серию постов тоже. Также смотрите здесь некоторые числа, предполагающие, что подобный-мозгу СИИ скорее всего не потребует ни такого количества компьютерных чипов, ни такого количества электричества, что он не мог бы широко использоваться.
  • Насколько многое нам надо сделать, чтобы подготовиться к СИИ? См. в Посте №1, Разделе 1.7 мои аргументы в пользу того, что мы сильно отстаём от расписания, а позже в этой цепочке я затрону много всё ещё нерешённых задач.
  1. Ну, может быть кто-то и ожидает, что есть взаимно-однозначное соответствие между абстрактными языковыми концепциями вроде «печали» и соответствующими внутренними реакциями. Если прочитать книгу Как Рождаются Эмоции, Лиза Фельдман Барретт тратит там сотни страниц, избивая эту позицию. Она, наверное, отвечает кому-то, верно? В смысле, мне бы показалось каким-то абсурдным очучеливанием мнение: «Каждая ситуация, которую мы бы описали как «грустная» соответствует в точности одной и той же внутренней реакции с одним и тем же выражением лица.» Я буду удивлён, если окажется, что Пол Экман (которого, вроде бы, Барретт опровергала) на самом деле в это верит, но я не знаю…
  2. Я не предполагаю, что схемы Направляющей Подсистемы, лежащие в основе социальных инстинктов, устроены у этих разных групп совершенно по-разному – это было бы эволюционно неправдоподобно. Скорее, я думаю, что там есть много настраиваемых параметров того, насколько сильны разные стремления, и они могут принимать широкие диапазоны значений, включая такие, что стремление будет таким слабым, что на практике можно считать его отсутствующим. См. мои спекулятивные рассуждения про аутизм и психопатию тут.
  3. См. Тест Психопата Джона Ронсона за забавными обсуждениями попыток научить психопатов эмпатии. Студенты лишь стали лучше способны подделывать эмпатию для манипуляции людьми. Цитата одного человека, учившего такой класс: «Думаю, мы случайно создали для них пансион благородных девиц.»
  4. Предполагаю, можно было бы просто нанять исследователя в области машинного обучения. Но кто будет ему платить?
Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 5 (Всего оценок: 1)

4. "Краткосрочный предсказатель"

Стивен Бирнс

Примечание переводчика - с момента перевода оригинальные посты несколько обновились, через некоторое время обновлю и перевод. На общие выводы цепочки это, вроде бы, не влияет.

4.1 Краткое содержание / Оглавление

Предыдущие два поста (№2 и №3) представили общую картину мозга, состоящего из Направляющей Подсистемы (мозговой ствол и гипоталамус) и Обучающейся Подсистемы (всё остальное), где последняя «обучается с чистого листа» в конкретном смысле, определённом в Посте №2.

Я предположил, что наши явные цели (например, «Хочу быть космонавтом!») возникают из взаимодействия этих двух подсистем, и понимание этого критически важно, если мы хотим научиться формировать мотивацию подобного-мозгу СИИ так, чтобы он пытался делать то, что мы хотим, чтобы он пытался делать, и избежать катастрофических происшествий, описанных в Посте №1.

Следующие три поста (№4-6) прорабатывают это дальше. Этот пост предоставляет необходимый нам ингредиент: «краткосрочный предсказатель».

Краткосрочное предсказание – одна из вещей, которые делает Обучающаяся Подсистема, я поговорю о других в следующих постах. Краткосрочный предсказатель получает управляющий сигнал («эмпирическую истину») извне и использует обучающийся алгоритм для построения модели, предсказывающей, каким будет этот сигнал через короткий промежуток времени (например, долю секунды) в будущем.

Этот пост содержит общее обсуждение того, как краткосрочные предсказатели работают, и почему они важны. Как мы увидим в следующих двух постах, они окажутся ключевым строительным элементом мотивации и обучения с подкреплением.

Тизер следующей пары постов: Следующий пост (№5) опишет, как определённый вид замкнутой схемы, обёрнутой вокруг краткосрочного предсказателя, превращает его в «долгосрочный предсказатель», связанный с обучением методом временных разниц (TD). Я заявлю, что в мозгу много таких долгосрочных предсказателей, созданных петлями «конечный мозг – мозговой ствол», одна из которых сродни «критику» из модели «субъект-критик» обучения с подкреплением. «Субъект» - это тема поста №6.

Содержание:

  • Раздел 4.2 описывает иллюстративный пример вздрагивания перед получением удара в лицо. Это можно сформулировать как задачу обучения с учителем, в том смысле, что тут есть эмпирический сигнал, на котором можно обучаться. (Если вам только что прилетело в лицо, надо было вздрогнуть!) Получившаяся схема – то, что я называю «краткосрочным предсказателем».
  • В Разделе 4.3 я определяю терминологию: «контекстные сигналы», «сигналы вывода» и «управляющие сигналы». (В терминологии машинного обучения они соответствуют «вводу обученной модели», «выводу обученной модели» и «маркировке данных».)
  • Раздел 4.4 предлагает набросок очень простого краткосрочного предсказателя, который можно создать из биологических нейронов, просто чтобы можно было представлять что-то конкретное.
  • Раздел 4.5 описывает преимущества краткосрочных предсказателей в сравнении с альтернативными подходами, включающими (в примере вздрагивания) жёстко прошитую схему, определяющую, когда вздрогнуть, и агента обучения с подкреплением, вознаграждаемого за уместное вздрагивание. В последнем случае краткосрочный предсказатель обучается быстрее, потому что получает «бесплатный» градиент ошибки каждый раз – или, выражаясь проще, когда он облажался, он получает указание, что именно он сделал не так, в духе того, была ли ошибка недолётом или перелётом.
  • Разделы 4.6-4.8 покрывают разные примеры краткосрочных предсказателей в человеческом мозге. Все они не слишком важны для безопасности СИИ – по-настоящему важна тема следующего поста – но они выплывают довольно часто, так что заслуживают быстрого рассмотрения:
    • Раздел 4.6 описывает мозжечок, который согласно моей теории представляет из себя коллекцию из ≈300,000 краткосрочных предсказателей, используемых для сокращения задержки ≈300,000 сигналов, проходящих через мозг и тело.
    • Раздел 4.7 покрывает предсказательное обучение на сенсорных вводах в коре – к примеру, то, как вы постоянно предсказываете, что вы сейчас увидите, услышите, почувствуете, и т.д., и ошибки предсказания используются для обновления ваших внутренних моделей.
    • Раздел 4.8 быстро описывает ещё несколько случайных интересных штук, которые краткосрочные предсказатели могут делать у животных.

4.2 Иллюстративный пример: вздрагивание перед получением удара в лицо

Представьте, что у вас есть работа или хобби, где есть конкретный распознаваемый сенсорный намёк (например, кто-то орёт «FORE!!!» в гольфе), а потом через пол секунды после этого намёка вам очень часто прилетает удар в лицо. Ваш мозг научится (непроизвольно) вздрагивать в ответ на этот намёк. В мозгу есть обучающийся алгоритм, управляющий этим вздрагиванием; вероятно, он эволюционировал для защиты лица. Об этом обучающемся алгоритме я и хочу поговорить в этом посте.

Я называю это «краткосрочным предсказателем». Это «предсказатель», потому что цель алгоритма – предсказать что-то заранее (например, приближающийся удар в лицо). Он «краткосрочный», потому что он должен предсказывать, что произойдёт, только на долю секунды в будущее. Это разновидность обучения с учителем, потому что есть «эмпирический» сигнал, задним числом показывающий, какой вывод алгоритму следовало произвести.

4.3 Терминология: Контекст, Вывод, Управление

Наш «краткосрочный предсказатель» имеет «API» («программный интерфейс приложения» – т.е. каналы, через которые другие части мозга взаимодействуют с модулем «краткосрочного предсказателя») из трёх составляющих:

  • Сигнал вывода – это предсказание алгоритма.
    • В нашем примере выше это был бы сигнал, вызывающий вздрагивание.
  • Управляющий сигнал предоставляет (задним числом) «эмпирическую истину» о том, каким должен был быть вывод алгоритма.
    • В нашем примере выше, это был бы сигнал, указывающий, что я только что получил в лицо (и, соответственно, подразумевающий, что мне надо было вздрогнуть).
    • В терминологии машинного обучения «управляющие сигналы» часто называются «ярлыками» или «маркировкой данных».
    • На самом деле управляющий ввод краткосрочного предсказателя не обязан быть эмпирической истиной. Он может быть сигналом ошибки, или отрицательным сигналом ошибки, или ещё чем-то. С моей точки зрения, это маловажные низкоуровневые детали реализации.
  • Контекстные сигналы несут информацию о том, что происходит.
    • В нашем примере выше это может быть случайный набор сигналов (соответствующих скрытым переменным), поступающих из зрительной и слуховой коры. Если повезёт, некоторые из этих сигналов могут нести полезную-для-предсказания информацию: может, один из них сообщает, что я нахожусь на поле для гольфа, а другой – что кто-то недалеко от меня только что заорал «FORE!».
    • В терминологии машинного обучения «контекстные сигналы» можно было бы назвать «ввод обученной модели».

Контекстные сигналы не обязаны все иметь отношение к задаче предсказания. Мы можем просто закинуть туда целую кучу мусора, и обучающийся алгоритм автоматически отыщет контекстные данные, полезные для задачи предсказания, и будет игнорировать всё остальное.

4.4 Очень упрощённый игрушечный пример того, как это могло бы работать в биологических нейронах

Как краткосрочный предсказатель может работать на низком уровне?

Ну, предположим, что мы хотим получить сигнал вывода, предшествующий управляющему сигналу на 0.3 секунды – как выше, к примеру, мы хотели бы научиться вздрагивать до удара. Мы хватаем кучу контекстных данных, которые могут иметь отношение к делу – к примеру, нейроны, несущие частично обработанную сенсорную информацию. Мы отслеживаем, какие из этих контекстных потоков особенно вероятно срабатывают за 0.3 секунды до управляющего сигнала. И мы связываем эти потоки с выводом.

И готово! Легкотня.

В биологии это может выглядеть как что-то вроде синаптической пластичности с «трёхфакторным правилом обучения» - т.е. синапс становится сильнее или слабее в зависимости от активности трёх других нейронов (контекст, управление, вывод) и их относительного времени срабатывания.


Чёрные точки обозначают синапсы настраиваемой силы

Для ясности – краткосрочный предсказатель может быть намного, намного сложнее этого. Большая сложность может обеспечить лучшую работу. Приведу интересный пример, про который я совсем недавно узнал – оказывается, в краткосрочных предсказателях в мозжечке (Раздел 4.6 ниже) есть нейроны, которые каким-то образом могут хранить настраиваемый параметр временной задержки внутри самого нейрона(!!) (ссылка – это всплыло на этом подкасте). Другие возможные прибамбасы включают разделение паттернов (Пост №2, Раздел 2.5.4) и обучение одним и тем же управляющим сигналом большого количества выводов и их объединение (ссылка), или, ещё лучше – обучение большого количества выводов с одним и тем же управляющим сигналом, но разными гиперпараметрами, чтобы получить распределение вероятностей (оригинальная статья, дальнейшее обсуждение), и так далее.

Так что этот подраздел – сильное упрощение. Но я не буду извиняться, я думаю, что такие грубо упрощённые игрушечные модели важно рассказывать и держать в голове. С концептуальной точки зрения, мы получили ощущение правдоподобной истории того, как ранние животные могут начать с очень простой (но уже полезной) схемы, которая может затем стать более сложной по прошествии многих поколений. Так что привыкайте – в будущих постах вас ждёт ещё много грубо упрощённых игрушечных моделей!

4.5 Сравнение с другими алгоритмическими подходами

4.5.1 «Краткосрочный предсказатель» против жёстко прошитой схемы

Давайте вернёмся к примеру выше: вздрагиванию перед получением удара в лицо. Я предположил, что хороший способ решить, когда вздрогнуть – это обучающийся алгоритм «краткосрочного предсказателя». Вот альтернатива: мы можем жёстко прошить схему, определяющую, когда вздрогнуть. К примеру, если в поле зрения есть быстро увеличивающееся пятно, но, вероятно, это хороший момент, чтобы вздрогнуть. Такой детектор правдоподобно может быть прошит в мозгу.

Как сравнить эти два решения? Какое лучше? Ответ: нет нужды выбирать! Они взаимодополняющие. Можно иметь оба. Но всё же, педагогически полезно обговорить их сравнительные преимущества и недостатки.

Главное (единственное?) преимущество жёстко прошитой системы вздрагивания – она работает с рождения. В идеале, не надо получать удар в лицо ни разу. Напротив, краткосрочный предсказатель – обучающийся алгоритм, так что ему в общем случае надо «учиться на своих ошибках».

С другой стороны, у краткосрочного предсказателя есть два мощных преимущества над жёстко прошитым решением – одно очевидное, другое не столь очевидное.

Очевидное преимущество – краткосрочный предсказатель работает на прижизненном, а не эволюционном обучении, так что он может выучивать намёки на то, что надо вздрогнуть, которые редко или вовсе никогда не встречались у предыдущих поколений. Если я часто ударяюсь головой, когда вхожу в конкретную пещеру, я научусь вздрагивать. Нет никакого шанса, чтобы у моих предков эволюционировал рефлекс вздрагивать в этой конкретной части этой конкретной пещеры. Мои предки вообще могли никогда не заходить в эту пещеру. Сама пещера могла не существовать до прошлой недели!

Менее очевидное, но всё же важное преимущество – краткосрочный предсказатель может использовать как ввод выученные с чистого листа паттерны (Пост №2), а жёстко прошитая система вздрагивания – нет. Обоснование тут такое же, как в Разделе 3.2.1 предыдущего поста: геном не может точно знать, какие именно (если вообще какие-то) нейроны будут хранить информацию о конкретном выученном с чистого листа паттерне, так что геном не может жёстко прошить связи с этими нейронами.

Способность использовать выученные с чистого листа паттерны очень выгодна. К примеру, хороший намёк на вздрагивание может зависеть от выученных с чистого листа семантических паттернов (вроде знания «Я сейчас играю в гольф»), выученных с чистого листа зрительных паттернов (например, образ замахивающегося клюшкой человека) или выученных с чистого листа указаний на место (вроде «эта конкретная комната с низким потолком»), и т.д.

4.5.2 «Краткосрочный предсказатель» против агента обучения с подкреплением: Более быстрое обучение благодаря градиентам ошибки

Схема краткосрочного предсказывания – особый случай обучения с учителем.

Обучение с учителем – это когда обучающийся алгоритм получает сигнал такого рода:

«Хе-хей, обучающийся алгоритм, ты облажался – тебе вместо этого следовало сделать то-то и то-то.»

Сравните это с обучением с подкреплением, при котором обучающийся алгоритм получает куда менее помогающий сигнал:

«Хе-хей, обучающийся алгоритм, ты облажался.»

(также известный как отрицательное вознаграждение). Очевидно, обучение с учителем может быть куда быстрее обучения с подкреплением. Управляющие сигналы, по крайней мере в принципе, говорят тебе точно, какие параметры менять и как, если ты хочешь лучше справиться в следующий раз в схожей ситуации. Обучение с подкреплением так не делает; вместо этого приходится учиться методом проб и ошибок.

В технических терминах машинного обучения, обучение с учителем «бесплатно» предоставляет полный градиент ошибки на каждом запросе, а обучение с подкреплением – нет.

Эволюция не всегда может использовать обучение с учителем. К примеру, если вы – профессиональный математик, пытающийся доказать теорему, и ваше последнее доказательство не работает, то нет никакого сигнала «эмпирической истины», сообщающего вам, что в следующий раз надо сделать по-другому – ни в вашем мозгу, ни где-то ещё в мире. Извините! Ваше пространство того, что можно сделать, имеет очень высокую размерность и никаких явных указателей. На каком-то уровне метод проб и ошибок – ваш единственный вариант. Не повезло.

Но эволюция может иногда использовать обучение с учителем, как в примерах в этом посте. И суть такова: если она может, скорее всего она использует.

4.6 Пример «краткосрочных предсказателей» №1: Мозжечок

Я сразу перескочу к тому, для чего, как я думаю, нужен мозжечок, а потом поговорю о том, как моя теория соотносится с другими предложениями в литературе.

4.6.1 Моя теория мозжечка

Я утверждаю, что мозжечок – место обитания большого количества схем краткосрочного предсказывания.


Связи нейроанатомии мозжечка (красным) с нашей диаграммой выше. Как обычно (см. выше), я опускаю множество прибамбасов, которые делают краткосрочный предсказатель точнее, вроде ещё одного дополнительного слоя, который я не показываю, плюс разделение паттернов (Пост №2, Раздел 2.5.4), и т.д.

Насколько много краткосрочных предсказателей: Моя лучшая оценка: около 300000.[1]

Какого чёрта?? Зачем мозгу может понадобиться 300000 краткосрочных предсказателей?

У меня есть версия! Я думаю, что мозжечок смотрит на много сигнал в мозге и обучается сам посылать эти сигналы заранее.

Вот так. Это вся моя теория мозжечка.

Другими словами, мозжечок может открыть правило «С учётом нынешней контекстной информации, я предсказываю, что выходной нейрон коры №218502 активируется через 0.3 секунды». Тогда мозжечок просто берёт и посылает сигнал туда же прямо сейчас. Или наоборот, мозжечок может открыть правило «Учитывая нынешнюю контекстную информацию, я предсказываю, что проприоцептивный нерв №218502 активируется через 0.3 секунды». Опять же, мозжечок идёт на опережение и посылает сигнал туда же прямо сейчас.

Некоторые примерно-аналогичные концепции:

  • Когда мозжечок предсказывает-и-предвосхищает конечный мозг, мы можем думать об этом примерно как о «мемоизации»(sic!) в программной инженерии или как о «дистилляции знаний» в машинном обучении, или как о предложенных этой недавней статьёй «нейронных суррогатах».
  • Когда мозжечок предсказывает-и-предвосхищает периферийные нервы, мы можем думать об этом как о составлении кучи предсказывающих моделей тела, каждая из которых узко настроена, чтобы предсказывать свой периферийный сигнал. Тогда, когда конечный мозг занимается моторным контролем и нуждается в периферийных сигналах обратной связи, он может использовать вместо настоящих сигналов эти предсказывающие модели.

По сути, я думаю, что у мозга есть проблемы такого вида, что пропускная способность некой подсистемы вполне адекватная, но её время ожидания слишком высоко. В случае периферийных нервов время ожидания высоко, потому что сигналам надо пройти большое расстояние. В случае конечного мозга задержка высока потому что сигналам надо пройти не-такое-длинное-но-всё-же-существенное расстояние, а кроме этого им надо пройти через много последовательных шагов обработки. В любом случае, мозжечок может чудесным образом уменьшить время ожидания, заплатив за это периодическими ошибками. Мозжечок находится в центре событий, постоянно спрашивая себя «что за сигнал сейчас появится?» и предвосхищает его сам. И потом через долю секунды он видит, было ли предсказание корректным и обновляет свою модель, если не было. Это как маленькая волшебная коробочка путешествий во времени – линия задержки, чья задержка отрицательна.

И теперь у нас есть ответ: зачем нам надо ≈300000 краткосрочных предсказателей? Потому что периферийных нервов и потоков вывода конечного мозга и может ещё чего много. И многие из этих сигналов выгодно предсказывать-и-предвосхищать! Чёрт, если я понимаю правильно, то мозжечок может даже предсказать-и-предвосхитить сигнал, который конечный мозг посылает сам себе!

Вот моя теория. Я не запускал никаких симуляций; это просто идея. См. здесь и здесь два примера, где я использовал эту модель, чтобы попытаться понять наблюдения из нейробиологии и психологии. Всё остальное, что я знаю про мозжечок – нейроанатомия, как он соединён с другими частями мозга, исследования повреждений и визуализации, и т.д. – всё, насколько я могу сказать, кажется хорошо соответствующим моей теории. Но на самом деле, этот маленький раздел – это почти что сумма всего, что я знаю на эту тему.

4.6.2 Как моя теория о мозжечке связана с другими теориями в литературе

(Я тут не эксперт и открыт для поправок.)

Я думаю, широко признано, что мозжечок вовлечён в обучении с учителем. Вроде бы, эта идея называется моделью Марра-Альбуса-Ито, см. Марр 1969 или Альбус 1971, или занимательный YouTube канал Brains Explained.

Напомню, что краткосрочный предсказатель – это случай алгоритма обучения с учителем как более широкой категории. Так что часть про обучение с учителем – не отличительная черта моего предложения, и, например, диаграмма выше (с указанием анатомических деталей мозжечка красным) совместима с обычной картиной Марра-Альбуса-Ито. Отличительный аспект моей теории – чем являются эмпирические сигналы (или чем являются сигналы ошибки – всё равно).

В Посте №2 я упоминал, что когда я вижу прижизненный обучающийся алгоритм, у меня возникает немедленный вопрос: «На каких эмпирических данных он учится?» Я также упоминал, что обычно поиски ответа на этот вопрос в литературе приводят к замешательству и неудовлетворённости. Литература о мозжечке – идеальный тому пример.

К примеру, я часто слышу что-то вроде «синапсы мозжечка обновляются при моторных ошибках». Но кто говорит, что считается моторной ошибкой?

  • Если вы пытаетесь идти в школу, то поскользнуться на банановой кожуре – моторная ошибка.
  • Если вы пытаетесь поскользнуться на банановой кожуре, то поскользнуться на банановой кожуре – это успех!

Откуда мозжечку знать? Непонятно.

Я читал несколько вычислительных теорий по поводу мозжечка. Они обычно куда сложнее моей. И они всё ещё оставляют ощущение непонимания, откуда берутся эмпирические данные. Для ясности, я не читал тщательно каждую такую статью, и вполне возможно, что я что-то упустил.

Ну, в любом случае, это не сильно влияет на эту цепочку. Как я упоминал ранее, вы можете быть функционирующим взрослым человеком, способным жить независимо, работать и т.д., вовсе без мозжечка. Так что даже если я полностью неправ по его поводу, это не должно сильно влиять на общую картину.

4.7 Пример «краткосрочных предсказателей» №2: Предсказательное обучение сенсорных вводов в коре

В вашей коре находится богатая генеративная модель мира, включающего вас самих. Много раз в секунду ваш мозг использует эту модель, чтобы предсказать поступающие сенсорные вводы (зрение, звук, прикосновение, проприоцепция, интероцепция, и т.д.), и, когда его предсказания неверны, модель обновляется в результате ошибки. Так, к примеру, вы можете открыть дверцу вашего шкафа и немедленно понять, что кто-то смазал петли. Вы предсказывали, что это будет звучать и ощущаться определённым образом, и это предсказание было опровергнуто.

С моей точки зрения, предсказательное обучение сенсорных вводов – это главный двигатель запихивания информации из мира в нашу модель мира в коре. Я поддерживаю цитату Яна Лекуна: «Если бы интеллект был тортом, то его основой было бы [предсказательное обучение сенсорных вводов], глазурью – [остальные виды] обучение с учителем, а вишенкой на торте – обучение с подкреплением». Просто количество битов информации, которые мы получаем предсказательным обучением сенсорных вводов подавляюще превосходит все остальные источники.

Предсказательное обучение сенсорных вводов – в том конкретном смысле, в котором я это тут использую – не большая общая теория мышления. Большая проблема возникает, когда оно сталкивается с «решениями» (какие мышцы двигать, на что обращать внимание, и т.д.). Рассмотрим следующее: я могу предсказать, что я буду петь, а потом петь, и предсказание получится правильным. Или я могу предсказать, что я буду танцевать, а потом танцевать, и тогда это предсказание было правильным. Так что у предсказательного обучения есть недостаток; оно не может помочь мне сделать правильное действие. Потому нам нужна ещё и Направляющая Подсистема (Пост №3), посылающая управляющие сигналы и сигналы вознаграждения обучения с подкреплением. Эти сигналы могут продвинуть хорошие решения ток, как предсказательное обучение сенсорных вводов не может.

Всё же, предсказательное обучение сенсорных вводов – это очень важная штука для мозга, и о ней можно много чего сказать. Однако, я рассматриваю её как одну из многих тем, которые очень напрямую важны для создания подобного–мозгу СИИ, но лишь немного относятся к его безопасности. Так что я буду упоминать её время от времени, но если вы ищете точных деталей, вы сами по себе.

4.8 Другие примеры приложений «краткосрочных предсказателей»

Эти примеры тоже не будут важны для этой цепочки, так что я не буду много о них говорить, но просто для интереса вот ещё три случайные штуки, которые, как я думаю, Эволюция может делать с помощью краткосрочных предсказателей.

  • Фильтрация – к примеру, мой мозг может иметь краткосрочный предсказатель входящей звуковой информации, с ограничением, что его контекстный ввод несёт информацию только о моём движении челюсти и активности голосовых связок. Предсказатель должен выдавать модель моего собственного вклада в входящий звуковой поток. Это очень полезно, потому что мозг может её вычесть, оставив только пришедшие извне звуки.
  • Сжатие входных данных – это вроде экстремальной версии фильтрации. Вместо всего лишь отфильтровывания предсказываемой из собственных действий информации, можно фильтровать всю информацию, предсказуемую из чего угодно, что мы уже знаем. Кстати, это то, что я ориентировочно думаю о дорсальном кохлеарном ядре, маленькой структуре в цепи обработки звукового ввода, которая подозрительно похожа на мозжечок. См. здесь. Предупреждаю: возможно, что эта идея не имеет смысла, я сам колеблюсь.
  • Отмечание новизны – см. обсуждение здесь.

———

  1. Клеток Пуркинье 15 миллионов (ссылка), а эта статья заявляет, что один предсказатель состоит из «горстки» клеток Пуркинье с одним управляющим сигналом и одним (совмещённым) выводом. Что значит «горстка»? В статье указано «около 50». Ну, 50 у мышей. Я не смог быстро найти соответствующее число у людей. Я предположил, что это всё ещё 50, но это просто догадка. В любом случае, из этого я вывел предположение о 300,000 предсказателей.
Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

5. "Долгосрочный предсказатель" и TD-обучение

Стивен Бирнс

Примечание переводчика - с момента перевода оригинальные посты несколько обновились, через некоторое время обновлю и перевод. На общие выводы цепочки это, вроде бы, не влияет.

5.1 Краткое содержание / Оглавление

В предыдущем посте я описал «краткосрочные предсказатели» – схемы, которые благодаря обучающемуся алгоритму выводят предсказание управляющего сигнала, который прибудет через некоторое небольшое время (например, долю секунды).

В этом посте я выдвигаю идею, что можно взять краткосрочный предсказатель, обернуть его замкнутой петлёй, включающей ещё некоторые схемы, и получить новый модуль, который я называю «долгосрочным предсказателем». Как и кажется по названию, такая схема может делать долгосрочные предсказания, например, «Я скорее всего поем в следующие 10 минут». Как мы увидим, эта схема тесно связана с обучением методом Временных Разниц (TD).

Я считаю, что в мозгу есть большой набор расположенных рядом долгосрочных предсказателей, каждый из которых состоит из краткосрочного предсказателя в конечном мозге (включая специфические его области вроде полосатого тела, медиальной префронтальной коры и миндалевидного тела), образующим петлю с Направляющей Подсистемой (гипоталамус и мозговой ствол) с помощью дофаминовых нейронов. Эти долгосрочные предсказатели прогнозируют биологически-важные вводы и выводы – к примеру, один из них может предсказывать, почувствую ли я боль в своей руке, другой – произойдёт ли выброс кортизола, третий – поем ли я, и так далее. Более того, один из этих долгосрочных предсказателей – по сути, функция ценности для обучения с подкреплением.

Все эти предсказатели будут играть большую роль в мотивации – об этом я закончу рассказывать в следующем посте.

Содержание:

  • Раздел 5.2 начинается с игрушечной модели схемы «долгосрочного предсказателя», состоящей из «краткосрочного предсказателя» из предыдущего поста и ещё некоторых частей, соединённых в замкнутую петлю. Хорошее интуитивное понимание этой модели будет важно в дальнейшем, и я пройдусь по тому, как это модель будет себя вести в разных обстоятельствах.
  • Раздел 5.3 связывает эту модель с обучением методом Временных Разниц (TD), близким родственником «долгосрочного предсказателя». Я покажу два варианта схемы долгосрочного предсказателя, «суммирующую» (приводящую к функции ценности, приближённо суммирующей будущие награды) и «переключающуюся» (приводящую к функции ценности, приближённо оценивающей следующую награду, когда бы она ни пришла, даже если до неё ещё долго). «Суммирующая» версия повсеместна в связанной с ИИ литературе, но я предполагаю, что «переключающаяся» версия скорее всего ближе к тому, что происходит в мозге. По совпадению, эти две модели эквивалентны в случаях вроде AlphaGo, который получает всю награду сразу в конце каждого эпизода (= игры в го).
  • Раздел 5.4 свяжет долгосрочные предсказатели с нейроанатомией (частей) конечного мозга и мозгового ствола.
    • По «вертикальной» нейроанатомии,[1] я опишу как в мозге размещается огромное количество параллельных «петель кора-базальные ганглии-таламус-кора», и предположу, что некоторые их этих петель функционируют как краткосрочные предсказатели с управляющим дофаминовым сигналом.
    • По «горизонтальной» нейроанатомии, я предложу, что в обучении с учителем, о котором я говорю, участвуют (к примеру) медиальная префронтальная кора, полосатое тело, внешняя островковая кора и миндалевидное тело.
  • Раздел 5.5 предложит шесть источников свидетельств, которые привели меня к убеждённости в этой модели: (1) это разумный способ реализовать биологически-полезные способности; (2) это интроспективно правдоподобно; (3) это эволюционно правдоподобно; (4) это позволяет согласовать «висцемоторный» и «мотивационный» способы описания медиальной префронтальной коры; (5) это объясняет эксперимент с Солью Мёртвого Моря; и (6) это предлагает хорошее объяснение разнообразию активности дофаминовых нейронов.

5.2 Игрушечная модель схемы «долгосрочного предсказателя»

«Долгосрочный предсказатель» – это, по сути, краткосрочный предсказатель, чей выходной сигнал помогает определить его собственный управляющий сигнал. Вот игрушечная модель того, как это может выглядеть:


Игрушечная модель схемы долгосрочного предсказателя. Следующую пару подразделов я буду описывать, как это работает. На этой и похожих диаграммах в этом посте, все блоки в каждый момент времени работают параллельно, и, аналогично, каждая стрелка в каждый момент времени несёт числовое значение. Так что это НЕ диаграмма потока выполнения последовательного кода, это скорее похоже на, например, диаграммы, которые можно увидеть в описании FPGA.

  • Синий прямоугольник – краткосрочный предсказатель из предыдущего поста. Он оптимизирует выходной сигнал, приближая его к тому, каким будет управляющий сигнал через 0.3 секунды (в этом примере).
  • Фиолетовый прямоугольник – переключатель между двумя вариантами. Его контролирует генетически закодированная схема (серый овал) согласно следующим правилам:
    • В основном переключатель находится в нижнем положении (довериться предсказателю). Это сродни тому, что генетически закодированная схема «доверяет» тому, что вывод краткосрочного предсказателя осмысленен, и, в этом примере, производит предложенное количество пищеварительных энзимов.
    • Если генетически закодированная схема получает сигнал, что я что-то ем прямо сейчас, и у меня нет адекватного количества пищеварительных энзимов, то она переводит переключатель в вариант «перехватить», и посылает сигнал начать производство пищеварительных энзимов независимо от того, что говорит краткосрочный предсказатель.
    • Если генетически-прошитая схема долгое время получала запросы на производство пищеварительных энзимов, но всё ещё ничего не было съедено, то она опять же переключает на вариант «перехватить» и посылает сигнал прекратить производство энзимов, независимо от того, что говорит краткосрочный предсказатель.

Замечу: Вы можете считать, что все сигналы на диаграмме могут непрерывно изменяться по диапазону значений (в противоположность дискретным сигналам вкл/выкл), за исключением сигнала управления переключателем.[2] В мозгу плавно-настраиваемые сигналы могут создаваться, к примеру, кодированием через частоту активаций нейрона.

5.2.1 Разбор игрушечной модели, часть 1: статичный контекст

Давайте пройдёмся по тому, что происходит в этой игрушечной модели.[3] Для начала, предположим, что на протяжении некоторого протяжённого периода времени «контекст» статичен. К примеру, представьте, как какое-нибудь древнее червеподобное существо много последовательных минут копается в песчаном дне океана. Правдоподобно, что пока оно копает, его сенсорное окружение будет оставаться довольно постоянным, и также постоянными будут оставаться его мысли и планы (в той мере, в которой у древнего червеподобного существа вообще есть «мысли и планы»). Или, если хотите другой пример (приблизительно) статичного контекста – с участием человека, а не червя – подождите следующего подраздела.

В этом случае, давайте посмотрим, что происходит, когда переключатель находится в положении «довериться-предсказателю»: поскольку вывод связан с управляющим сигналом, обучающийся модуль не получит сигнала об ошибке. Предсказание верно. Синапсы не меняются. Эта ситуация, сколь бы ни была частой, не повлияет на поведение краткосрочного предсказателя.

Что на него повлияет – те редкие случаи, когда переключатель переходит в режим «перехватить». Можно думать об этом как о периодическом «впрыскивании эмпирической истины». В этих случаях обучающийся алгоритм краткосрочного предсказания получает сигнал об ошибке, что меняет его настраиваемые параметры (например, силу синапсов).

Набрав достаточно жизненного опыта (или, что то же самое, после достаточного обучения), краткосрочный предсказатель должен получить свойство балансирования перехватов. Перехваты всё ещё могут увеличивать производство энзимов, а иногда могут его снижать, но эти два типа перехватов должны происходить с примерно одинаковой частотой. Ведь если бы они не были сбалансированы, то алгоритм обучения краткосрочного предсказания постепенно изменил бы его параметры, чтобы перехваты всё же были сбалансированы.

И это как раз то, что нам надо! Мы получаем подходящее производство энзимов в подходящее время, способом, в нужной мере учитывающим доступную контекстную информацию – что животное сейчас делает, что планирует делать, его сенсорные вводы, и т.д.

5.2.1.1 Экспозиционная терапия в стиле Дэвида Бернса – возможный реальный пример игрушечной модели с статичным контекстом?

Так вышло, что я недавно прочёл книгу Дэвида Бернса Терапия Настроения (мой обзор). У Дэвида Бернса очень интересный подход к экспозиционной терапии – служащий отличным примером того, как моя игрушечная модель работает в ситуации статичного контекста!

Вот короткая версия. (Предупреждение: если вы думаете самостоятельно заниматься экспозиционной терапией в домашних условиях, по меньшей мере сначала прочитайте всю книгу!) Отрывок из книги:

Во время обучения в старшей школе я хотел попасть в команду технических помощников сцены для постановки мюзикла «Бригадун». Учитель драмы, мистер Крэнстон, сказал мне, что помощники сцены должны забираться на высокие лестницы и ползать по балкам под потолком, чтобы регулировать свет. Я ответил, что для меня это может оказаться проблемой, ведь я боюсь высоты. Он объяснил, что я не смогу стать частью команды помощников сцены, пока не захочу преодолеть свой страх. Я спросил, как это сделать.

Мистер Крэнстон ответил, что это довольно просто. Он установил 18-футовую лестницу по центру сцены, сказал мне забраться на нее и встать на верхнюю перекладину. Я доверял ему, поэтому поднимался по лестнице, перекладина за перекладиной, пока не оказался наверху. Вдруг я увидел, что там не за что держаться, и пришел в ужас! Я спросил, что мне делать дальше. Мистер Крэнстон ответил, что не нужно ничего делать, просто стоять там, пока не уйдет страх. Он ждал меня внизу лестницы и подбадривал, чтобы я продолжал стоять.

В течение 15 минут я пребывал в полном оцепенении. Затем мой страх вдруг начал уходить. Через минуту или две он полностью исчез. Я с гордостью объявил: «Мистер Крэнстон, думаю, я исцелился. Я больше не боюсь высоты».

Он сказал: «Прекрасно, Дэвид! Ты можешь спускаться. Будет здорово, если ты присоединишься к команде помощников сцены для мюзикла «Бригадун»».

Я гордился тем, что стал помощником сцены. Мне понравилось ползать по балкам под потолком, закрепляя занавес и свет. Я удивлялся, что прежний источник моих страхов может приносить столько восторга.

Эта история кажется прекрасно совместимой с моей игрушечной моделью. Дэвид начал день в состоянии, когда его краткосрочные предсказатели выдавали очень сильную реакцию страха, когда он забирался на высоту. Пока Дэвид оставался на лестнице, эти краткосрочные предсказатели продолжали получать одни и те же контекстные данные, и продолжали выдавать всё такой же вывод. И Дэвид продолжал быть в ужасе.

Потом, после 15 скучных-но-ужасающих минут на лестнице, какая-то внутренняя схема в мозговом стволе Дэвида произвела *перехват* – как будто сказала «Слушай, ничего не меняется, ничего не происходит, мы не можем просто весь день продолжать сжигать на это калории». Краткосрочный предсказатель продолжил посылать всё тот же вывод, но мозговой ствол применил своё право вето и насильно «перезагрузил» Дэвиду уровень кортизола, пульс, и т.д., вернув их обратно на базовое значение. Это состояние «перехвата» немедленно привело к получению краткосрочным предсказателем в миндалевидном теле Дэвида *сигналов об ошибке*! Эти сигналы, в свою очередь, привели к обновлению модели! Краткосрочные предсказатели оказались обновлены, и с тех пор Дэвид больше не боялся высоты.

Конечно эта история выглядит спекуляцией на спекуляции, но я всё равно думаю, что она верна. По крайней мере, это хороший пример! Вот диаграмма для этой ситуации, удостоверьтесь, что не упускаете шагов.

5.2.2 Разбор игрушечной модели, предполагая изменяющийся контекст

Предыдущий подраздел предполагал статичные потоки контекстных данных (постоянная сенсорная информация об окружении, постоянное поведение, постоянные мысли и планы, и т.д.). Что происходит, если контекст не статичен?

При изменениях в потоках контекстных данных обучение происходит не только при «перехватах». Если контекст меняется без «перехватов», то это приводит к изменениям вывода, и новый вывод будет трактоваться как эмпирическая истина о том, каким должен был быть старый вывод. Опять же, это кажется в точности тем, что нам надо? Если мы обучаемся чему-то новому и оказавшемуся важным в последнюю секунду, то наше текущее ожидание должно быть точнее, чем раннее, так что у нас есть основание для обновления нашей модели.

5.3 Вычисление функции ценности (обучение методом Временных Разниц) как особый случай долгосрочного предсказания

К этому моменту эксперты в машинном обучении должны распознать сходство с обучением методом Временных Разниц. Однако, это не совсем одно и то же. Различия:

Первое, обучение методом Временных Разниц обычно используется в обучении с подкреплением как метод перехода от функции вознаграждения к функции ценности. Я, напротив, говорю о штуках вроде «производства пищеварительных энзимов», которые не являются ни вознаграждениями, ни ценностями.

Другими словами, есть в целом полезный мотив перехода от некого немедленного значения X к «долгосрочному ожиданию X». Вычисление функции ценности из функции вознаграждения – пример этого мотива, но не исчерпывающий.

(В плане терминологии, мне кажется вполне общепринятым, что термин «обучение методом Временных Разниц» на самом деле может относиться к чему-то, не являющемуся функцией ценности обучения с подкреплением.[4] Однако, по моему собственному эмпирическому опыту, как только я упоминаю этот метод, мои собеседники немедленно начинают подразумевать, что я говорю о функциях ценности обучения с подкреплением. Так что мне приходится тут прояснять.)

Второе, чтобы получить что-то более похожее на традиционное обучение методом Временных Разниц, нам потребовалось бы заменить переключатель между двумя вариантами сумматором – и тогда «перехваты» были бы аналогичны наградам. Куда больше о «переключении против суммирования» – в следующем подразделе.


Вот схема обучения методом Временных Разниц, которая вела бы себя похоже на то, что вы можете найти в учебных пособиях по ИИ. Обратите внимание на фиолетовый прямоугольник справа: в отличии от предыдущей диаграммы, тут не *переключатель*, а *сумматор*. Куда больше о «переключении против суммирования» – в следующем подразделе.

Третье, есть много дополнительных способов поправить эту схему, которые часто используют в литературе по ИИ, и некоторые из них могут встречаться и в схемах в мозгу. К примеру, мы можем добавить обесценивание со временем, или разные реакции на ложно-положительные и ложно-отрицательные сигналы (см. моё рассмотрение обучения распределениям в Разделе 5.5.6.1 ниже), и т.д.

Чтобы всё не становилось слишком сложным, я буду игнорировать эти возможности (включая обесценивание со временем) ниже.

5.3.1 Переключатель (т.е. ценность = ожидаемая следующая награда) или сумматор (т.е. ценность = ожидаемая сумма будущих наград)?

Диаграммы выше показывают два варианта нашей игрушечной модели. В одном фиолетовый прямоугольник – переключатель между состоянием «доверия краткосрочному предсказателю» и некой независимой «эмпирической истиной». В другом в фиолетовом прямоугольнике вместо этого происходит суммирование.

В версии с переключателем краткосрочный предсказатель обучается предсказывать следующие эмпирические данные, когда бы они ни поступили.

В версии с сумматором, краткосрочный предсказатель обучается предсказывать сумму будущих эмпирических сигналов.

Правильным ответом может быть ещё «что-то промежуточное между переключением и суммированием». Или даже «ничто из этого».

Статьи по обучению с подкреплением повсеместно используют версию суммирования – т.е. «ценность – это ожидаемая сумма будущих наград». Что про биологию? И что на самом деле лучше?

Это не всегда вообще имеет значение! Рассмотрим AlphaGo. Как и повсюду в AlphaGo изначально использовалась парадигма суммирования. Но получилось так, что за каждую игру он получает только один ненулевой сигнал вознаграждения, если конкретно, +1 в конце игры, если он выигрывает, или -1 – если проигрывает. В таком случае, переключатель и сумматор ничем друг от друга не отличаются. Разница только в терминологии:

  • В случае суммирования можно сказать «каждый не-последний ход в го приносит вознаграждение = 0».
  • В случае переключения, можно сказать «каждый не-последний ход в го приносит вознаграждение (null) / не приносит вознаграждения».

(Видите, почему?)

Но в других случаях это важно. Так что вернёмся к вопросу: это должно быть переключение или суммирование?

Давайте сделаем шаг назад. Чего мы пытаемся добиться?

Одна из штук, которые должен делать мозг – это принимать решения, взвешивая при этом выгоды из разных областей. Если вы человек, то вам надо решать, посмотреть телевизор или пойти в спортзал. Если вы некое древнее червеподобное существо, то вам надо «решать» – копать или плавать. В любом случае, это «решение» затрагивает энергетический баланс, солевой баланс, вероятность травм, вероятность размножения – и много чего ещё. Проектная цель алгоритма принятия решений – принимать такие решения, которые будут максимизировать совокупную генетическую приспособленность. Как это может быть лучше всего реализовано?

Один из методов включает создание функции ценности, которая оценивает совокупную генетическую приспособленность организма (сравнительно с некой произвольной, и может, меняющейся со временем точкой отсчёта), при условии продолжения выполнения данного курса действий. Конечно, это не идеальная оценка – настоящая совокупная генетическая приспособленность может быть вычислена только задним числом, ещё через много поколений. Но когда у нас есть такая функция ценности, сколь бы неидеальной она ни была, мы можем подключить её к алгоритму, принимающему решения, максимизирующие ценность (больше про это в следующем посте), и таким образом получить приблизительно-максимизирующее-приспособленность поведение.

Так что обладание функцией ценности – ключ к принятию хороших решений, учитывающих выгоду в разных областях. Но тут нигде не сказано «ценность – это ожидаемая сумма будущих вознаграждений»! Это конкретный способ настройки этого алгоритма; метод, который может подходить, а может и не подходить к конкретной ситуации.

Я думаю, что мозг использует что-то более похожее на схему с переключателем, а не на схему с сумматором, причём не только для предсказаний гомеостаза (как в примере пищеварительных энзимов выше), но и для функции ценности, вопреки мейнстримным статьям об обучении с подкреплением. Опять же, я считаю, что на самом деле это «ничто из этого» во всех этих случаях; просто это ближе к переключателю.

Почему я отдаю предпочтение «переключателю», а не «сумматору»?

Пример: иногда я стукаюсь пальцем и он болит 20 секунд; в другой раз я стукаюсь пальцем и он болит 40 секунд. Но я не думаю о втором событии как о вдвое худшем, чем первое. На самом деле, уже через пять минут, я не вспомню, какая из двух ситуаций это была. (см. правило пика-и-конца.) Это то, чего я бы ожидал от переключателя, но довольно плохо подходит для сумматора. Это не строго несовместимо с суммированием; просто требует более сложной и зависящей от ценности функции вознаграждения. На самом деле, если мы это позволяем, то переключатель и сумматор могут имитировать друг друга.

В любом случае, в следующих постах я буду подразумевать переключатели, не сумматоры. Я не думаю, что это на большом масштабе очень важно, и я точно не думаю, что это часть «секретного ингредиента» интеллекта животных, или что-то такое. Но это влияет на некоторые детальные описания.

Следующий пост будет включать больше деталей обучения с подкреплением в мозгу, включая то, как работает сигнал «ошибки предсказания вознаграждения». Я готовлюсь к тому, что много читателей будут в замешательстве от того, что я подразумеваю не такую связь ценности с вознаграждением, к которой все привыкли. К примеру, в моей картине «вознаграждение» синонимично «эмпирическим данным о том, какой сейчас следует быть функции ценности» – и то, и другое должно учитывать не только текущие обстоятельства организма, но и будущие перспективы. Заранее прошу прощения за замешательство! Я изо всех сил попробую быть яснее.

5.4 Массив долгосрочных предсказателей с участием конечного мозга и мозгового ствола

Вот наша схема долгосрочного предсказателя:


Скопировано с схемы выше.

Я могу соединить переключатель с остальной генетически-прошитой схемой и немного переместить прямоугольники, тогда получится это:


То же, что и выше, но нарисованное по-другому.

Очевидно, пищеварительные энзимы – лишь один пример. Давайте дорисуем ещё примеров, добавим гипотетическую нейронанатомию и ещё немного терминов. Вот, что получится:


Я заявляю, что в мозгу есть целый набор долгосрочных предсказателей, состоящий из краткосрочных предсказателей в конечном мозге, каждый из которых петлёй связан с соответствующей схеме в Направляющей Подсистеме. По причинам, описанным ниже в Разделе 5.5.4, я называю первую часть (в конечном мозге) «Оценщиками Мыслей».

Замечательно! Мы на полпути к моей большой картине принятия решений и мотивации. Остаток – включая «субъекта» из обучения с подкреплением «субъект-критик» – будет в следующем посте, он заполнит дыру в верхней-левой части диаграммы.

Вот ещё одна диаграмма с педагогическими пометками.


Напоминание: «краткосрочный предсказатель» - это *один из компонентов* «долгосрочного предсказателя». Тут показано, как они оба располагаются на предыдущей диаграмме. Долгосрочный предсказатель обеспечивается режимом «довериться предсказателю» - т.е. Направляющая Подсистема может посылать сигнал «эмпирической истины задним числом», который является не «эмпирической истиной» в нормальном смысле, но скорее копией соответствующего элемента «оценочной таблицы». Другими словами, режим «довериться предсказателю» можно описать как то, что Направляющая Подсистема говорит краткосрочному предсказателю «ОК, конечно, принято, верю тому, что ты говоришь». Если Направляющая Подсистема регулярно придерживается сигнала «довериться предсказателю» 10 минут подряд, то мы может получать прогнозирование будущего на 10 минут. Напротив, если Направляющая Подсистема *никогда* не использует для какого-то сигнала режим «довериться предсказателю», то получившуюся конструкцию вовсе нельзя назвать «долгосрочным предсказателем».

В следующих двух подразделах, я подробнее опишу нейроанатомию, на которую я даю намёки на этой диаграмме, и поговорю о том, почему вам стоит мне поверить.

5.4.1 «Вертикальная» нейроанатомия[1]: Петли «кора-базальные ганглии-таламус-кора»

В моём посте Большая Картина Фазового Дофамина, я рассказывал о теории (за авторством Ларри Свансона), что весь конечный мозг изящно организован в три слоя (кора, полосатое тело, паллидум):

**Подобная-коре часть петли** Гиппокампус Миндалевидное тело [базолатеральная часть] Грушевидная кора Медиальная префронтальная кора Моторная и «планирующая» кора
**Подобная-полосатому-телу часть петли** Латеральная перегородочная зона Миндалевидное тело [центральная часть] Обонятельный бугорок Вентральное полосатое тело Дорсальное полосатое тело
**Подобная-паллидуму часть петли** Медиальная перегородочная зона BNST Безымянная субстанция Вентральный паллидум Дорсальный паллидум

Весь конечный мозг – неокортекс, гиппокампус, миндалевидное тело, всё остальное – может быть разделён на подобные-коре, подобные-полосатому-телу и подобные-паллидуму структуры. Если две структуры в таблице в одном столбце, это значит, что они связаны вместе в петлю «кора-базальные ганглии-таламус-кора» (см. следующий параграф). Эта таблица неполна и упрощена; для версии получше см. Рис. 4 здесь.

Эта идея связывается с ранней (и сейчас широко принятой) теорией (Александер 1986), что эти три слоя конечного мозга взаимосвязаны большим количеством параллельных петель «кора-базальные ганглии-таламус-кора», которые можно обнаружить почти в любой части конечного мозга.

Вот небольшая иллюстрация:


Упрощённая иллюстрация массива параллельных петель «кора-базальные ганглии-таламус-кора». Источник: Мэтью Тибуст.

С учётом всего этого, вот возможная грубая модель того, как эта петельная архитектура связана с обучающимся алгоритмом краткосрочных предсказателей, о котором я говорил:


ПРЕДУПРЕЖДЕНИЕ: НЕ ВОСПРИНИМАЙТЕ ЭТУ ДИАГРАММУ СЛИШКОМ БУКВАЛЬНО
См. Большую Картину Фазового Дофамина за *немного* более подробными деталями, но вообще я не особо много в это погружался, и, в частности ярлыки «Слой 1, Слой 2, Последний (суюдискретизирующий) слой» расставлены почти наугад. («Субдискретизация» основана на том, что в полосатом теле в 2000 раз больше нейронов, чем в паллидуме – см. здесь.)
Сокращения: BLA = базолатеральное миндалевидное тело, BNST = опорное ядро терминального тяжа, CEA = центральное миндалевидное тело, mPFC = медиальная префронтальная кора, VP = вентральный паллидум, VS = вентральное полосатое тело.

5.4.2 «Горизонтальная» нейронанатомия – специализация коры

Предыдущий подраздел весь был про «вертикальную» трёхслойную структуру конечного мозга. Сейчас давайте переключимся на «горизонтальную» структуру, т.е. тот факт, что разные части коры делают разные вещи (в кооперации с соответствующими частями полосатого тела и паллидума).

Это упрощение, но вот моя новейшая попытка объяснить (часть) коры на пальцах:

  • Расширенная моторная кора – это основной источник выводов коры, вовлекающих скелетные мышцы, вроде хватания и ходьбы.
  • Медиальная префронтальная кора (mPFC – также включающая переднюю поясную кору) – это главный источник выводов коры, вовлекающих автономные/висцемоторные/гормнональные действия, вроде выпускания кортизола, сужения сосудов, гусиной кожи, и т.д.
  • Миндалевидное тело – это главный источник выводов коры, связанных с некоторыми поведениями, вовлекающими и скелетные мышцы и автономные реакции, вроде вздрагивания, замирания (при испуге), и т.д.
  • Островковая кора – это главный регион вводов коры для автономной / гомеостатической / связанной с статусом тела информации, вроде уровня сахара в крови, боли, холода, вкуса, напряжения мышц и т.д.

В этой цепочке я не буду говорить про моторную кору, но я думаю, что остальные три все вовлечены в схемы долгосрочного предсказания. К примеру:

  • Я заявляю, что если взглянуть на маленький подрегион в медиальной префронтальной коре, то можно будет обнаружить, что он обучен активироваться пропорционально вероятности предстоящего выброса кортизола;
  • Я заявляю, что если взглянуть на маленький подрегион в миндалевидном теле, то можно будет обнаружить, что он обучен активироваться пропорционально вероятности предстоящей реакции замирания;
  • Я заявляю, что если взглянуть на маленький подрегион в (внешней) островковой коре, то можно будет обнаружить, что он обучен активироваться пропорционально вероятности предстоящего ощущения холода в левой руке.

5.5 Шесть причин, почему мне нравится эта картина «массива долгосрочных предсказателей»

5.5.1 Это разумный способ реализовать биологически-полезные способности

Если начать производить пищеварительные энзимы перед едой, то пища будет переварена быстрее. Если начать разгонять сердце до того, как вы увидите льва, то мышцы будут уже подготовлены убегать, когда вы увидите льва.

Так что такие предсказатели кажутся очевидно полезными.

Более того, как обсуждалось в предыдущем посте (Раздел 4.5.2), предлагаемая мной (основанная на обучении с учителем) техника кажется либо превосходящей, либо хорошо сочетающейся с другими способами это сделать.

5.5.2 Это интроспективно правдоподобно

Вообще, мы на самом деле начинаем слюновыделение до того, как съели крекер, начинаем нервничать до того, как видим льва, и т.д.

Ещё учтите тот факт, что все действия, о которых я говорил в этом посте непроизвольны: вы не можете выделять слюну по команде, расширять свои зрачки по команде и т.д, по крайней мере не так же, как можете подвигать пальцем по команде.

(Больше о произвольных действиях в следующем посте – они в совсем другой части конечного мозга.)

Я тут замалчиваю о многих сложностях, но непроизвольная природа этих вещей кажется удобно сочетающейся с идеей, что они обучаются своими собственными управляющими сигналами, прямо из мозгового ствола. Можно сказать, что они случат другому господину. Мы можем как-то обхитрить их и заставить вести себя определённым образом, но наш контроль ограниченный и непрямой.

5.5.3 Это эволюционно правдоподобно

Как описано в Разделе 4.4 предыдущего поста, простейший краткосрочный предсказатель невероятно прост, а простейший долгосрочный предсказатель лишь немногим сложнее. И эти очень простые версии уже правдоподобно полезны для приспособленности, даже у очень простых животных.

Более того, как я уже обсуждал некоторое время назад (Управляемое дофамином обучение у млекопитающих и плодовых мух), у плодовых мух есть массив маленьких обучающихся модулей, играющих роль, кажущуюся схожей с тем, о чём я тут говорю. Эти модули тоже используют дофамин в качестве управляющего сигнала, и есть некоторое генетическое свидетельство гомологии этих схем с конечным мозгом млекопитающих.

5.5.4 Это позволяет согласовать «висцемоторный» и «мотивационный» способы описания медиальной префронтальной коры (mPFC)

Возьмём mPFC (также включающую переднюю поясную кору) как пример. Люди пытаются говорить об этой области двумя довольно разными способами:

  • С одной стороны, как упомянуто выше (Раздел 5.4.2), mPFC описывают как область висцемоторного / гомеостатического / автономно-моторного вывода – она задаёт команды контроля гормонов, исполнения реакций симпатической и парасимпатической нервной системы, и так далее. К примеру, «показано, что электрическая стимуляция инфралимбической коры влияет на подвижность желудка и вызывает гипотонию», а в этой статье говорится, что стимуляция mPFC вызывает «расширение зрачков, изменения кровяного давления, частоты дыхания и пульса», или посмотрите в книгу Бада Крейга, который характеризует переднюю поясную кору как центр гомеостатического моторного вывода. Это подход элегантно объясняет тот факт, что этот регион агранулярен (лишён слоя №4 из 6 слоёв неокортекса), что подразумевает «регион вывода» как по теоретическим причинам, так и по аналогии с (агранулярной) моторной корой.
  • С другой стороны, mPFC часто описывают как место обитания приближённо-связанных-с-мотивацией активностей. К примеру, Википедия в связи с передней поясной корой упоминает «распределение внимания, предвкушение вознаграждения, этика и моральность, контроль импульсов … и эмоции».

Я думаю, моя картина работает и там, и там[5]:

С первой (висцемоторной) точки зрения, если вы взглянете на Раздел 5.2. выше, то вы увидите, что выводы предсказателей действительно приводят к гомеостатическим изменениям – как минимум, когда генетически-прошитые схемы Направляющей Подсистемы посылают сигнал в режиме «довериться предсказателю» (а не «перехвата»).

Касательно второй (мотивационной) точки зрения, это будет иметь больше смысла после следующего поста, но отметьте предложенное мной описание «оценочной таблицы» в диаграмме в Разделе 5.4. Идея такая: потоки «контекста» входящие в «Оценщики Мыслей» содержат ужасающую сложность всего вашего сознательного разума и даже больше – где вы, что вы видите и делаете, о чём вы думаете, что вы планируете делать в будущем и почему, и т.д. Довольно простая, генетически закодированная Направляющая Подсистема никак не может во всём этом разобраться!

Но ведь Направляющая Подсистема – источник наград / стремлений / мотиваций! Как она может предоставлять награду за хороший план, если она вовсе не может разобраться в том, что вы планируете??

Ответ – «оценочная таблица». В ней вся эта ужасающая сложность дистиллируется в стандартизированную табличку – как раз то, что генетически-заходированные схемы Направляющей Подсистемы могут легко обработать.

Так что любое взаимодействие между мыслями и стремлениями – эмоции, принятие решений, этика, антипатия, и т.д. – должно на промежуточном шаге вовлекать «Оценщики Мыслей».

5.5.5 Это объясняет эксперимент с Солью Мёртвого Моря

См. мой старый пост Внутреняя согласованность в лишённых-соли крысах. Если коротко, экспериментаторы периодически проигрывали звук и выдвигали объект в клетку с крысами, и немедленно после этого впрыскивали прямо им во рты очень солёную воду. Крысы считали её отвратительной, и с ужасом реагировали на звук и объект. Потом экспериментаторы лишили крыс соли. И после этого когда они играли звук и выдвигали объект, крысы становились очень радостно возбуждёнными – хоть раньше и не испытывали недостатка соли ни разу за всю свою жизнь.

Это в точности то, чего мы бы ожидали в нашей схеме: когда звук и объект появляются, предсказатель «я предчувствую вкус соли» начинает быть бешено активным. В то же время, Направляющая Подсистема (гипоталамус и мозговой ствол) имеют прошитую схему, заявляющую «Если у меня недостаток соли, а «оценочная таблица» Обучающейся Подсистемы предполагает, что я скоро почувствую вкус соли, то это замечательно, и я должен следовать той идее, которую сейчас думает Обучающаяся Подсистема!»

5.5.6 Это предлагает хорошее объяснение разнообразию активности дофаминовых нейронов

Напомню, что выше в Разделе 5.4.1 я заявлял, что дофаминовые нейроны несут управляющие сигналы всех этих модулей обучения с подкреплением.[6]

Есть научно-популярное заблуждение о том, что есть (единый) дофаминовый сигнал в мозгу, срабатывающий, когда происходит что-то хорошее. На самом деле, там есть множество разных дофаминовых нейронов, делающих разные вещи.

Так мы получаем вопрос: что делают все эти разнообразные дофаминовые сигналы? Консенсуса нет; в литературе есть самые разные заявления. Но я могу вбросить ещё и своё: в описанной мной картине, в конечном мозге, вероятно, есть сотни тысяч краткосрочных предсказателей, предсказывающих сотни тысяч разных вещей, и каждому нужен свой управляющий дофаминовый сигнал!

(И дофаминовых сигналов ещё больше, не только эти! Один такой сигнал, ассоциируемый с «главным» сигналом вознаграждения ошибки предсказания, будет обсуждаться в следующем посте. Прочие сигналы не входят в тему этой цепочки, но обсуждаются здесь.)

Если моя модель правильна, то что нам ожидать от экспериментов с измерением дофамина?

Представьте крысу, бегающую по лабиринту. В каждый момент времени её массив предсказателей получает управляющие сигналы о уровнях различных гормонов, пульсе, ожиданиям питья и еды, больной ноге, холоде, вкусе соли, и так далее. Говоря коротко, мы ожидаем, что активность дофаминовых нейронов скачет вверх и вниз самыми разными способами.

Так что, в общем-то каждый случай, когда экспериментатор выяснял, что дофаминовый нейрон коррелирует с какой-то поведенческой переменной, это, наверное, вписывается в мою картину.

Вот пара примеров:

  • Есть дофаминовые нейроны, активирующиеся заметными стимулами вроде неожиданных вспышек света (ссылка). Могу ли я это объяснить? Конечно, без проблем! Я говорю: это могут быть управляющие сигналы, сообщающие «сейчас хороший момент, чтобы сориентироваться» или «вздрогнуть» или «повысить пульс», и т.д.
  • Есть дофаминовые нейроны, коррелирующие с скоростью, с которой мышь бежит в колесе (ссылка). Могу я это объяснить? Конечно, без проблем! Я говорю: это могут быть управляющие сигналы, сообщающие «ожидай боли в мышцах» или «ожидай кортизол» или «ожидай повышения пульса», и т.д.

Вот ещё данные, кажущиеся подтверждающими мою картину. Некоторые дофаминовые нейроны активируются, когда происходит что-то неприятное (ссылка). Четыре из пяти областей[7], в которых можно обнаружить такие нейроны (согласно статье по ссылке) – в точности те, где я ожидаю существование краткосрочных предсказателей – конкретнее, это подобный-коре и подобный-полосатому-телу слои миндалевидного тела, медиальная префронтальная кора (mPFC) и вентромедиальная оболочка прилежащего ядра, являющаяся (по крайней мере примерно) частью петель «кора-базальные ганглии-маламус-кора», находящейся в полосатом теле. Это в точности то, что я бы ожидал. К примеру, если мышь шокирована, то предсказатель «следует ли мне сейчас замереть» получает управляющий сигнал «Да, тебе сейчас следовало замереть».

5.5.6.1 В сторону: Вывод распределений предсказателями

Я не говорил об этом в предыдущем посте, но обучающиеся алгоритмы краткосрочных предсказателей имеют гиперпараметры, два из которых – «как сильно обновляться после ложноположительной (перелёт) ошибки» и «как сильно обновляться после ложноотрицательной (недолёт) ошибки». Соотношение этих гиперпараметров может варьироваться от 0 до ∞, так что получившийся предсказатель может варьироваться от «активируй вывод, если есть хоть малейший шанс, что управляющий сигнал сработает» до «не активируй сигнал, если нет полной уверенностью, что управляющий сигнал сработает.»

Таким образом, если у нас есть много предсказателей, и у каждого своё соотношение гиперпараметров, то мы можем (хотя бы приблизительно) выводить распределение вероятности предсказания, а не просто одну оценку.

Недавний набор экспериментов от DeepMind и сотрудничающих с ними обнаружил свидетельство (основанное на измерениях дофаминовых нейронов), что мозг действительно использует этот трюк, по крайней мере для предсказания вознаграждения.

Я предполагаю, что он может использовать тот же трюк и в других долгосрочных предсказателях – к примеру, может быть, предсказания и боли в руке, и кортизола, и гусиной кожи – все выдаются группами долгосрочных предсказателей, составляющих распределения вероятностей.

Я поднял эту тему в первую очередь потому, что это ещё один пример того, как дофаминовые нейроны ведут себя, кажется, очень хорошо укладывающимся в мою картину образом, а во-вторых, потому что это вполне может быть полезно для безопасности СИИ – так что я в любом случае искал повод это упомянуть!

5.6 Заключение

Как обычно, я не претендую на то, что у меня есть неопровержимое доказательство молей гипотезы (т.е. что в мозгу есть массивы долгосрочных предсказателдей с участием петель «конечный мозг – мозговой ствол»). Но с учётом свидетельств в этом и предыдущем подразделах, я пришёл к сильному ощущению, что я примерно на правильном пути. Я с радостью обсужу это подробнее в комментариях. А в следующем посте мы наконец-то сложим всё это вместе в большую картину того, как, по моему мнению, работает мотивация и принятие решений в мозгу!

  1. «Горизонтальная» и «вертикальная» нейронанатомия – это моя своеобразная терминология, но я надеюсь, что она интуитивно понятна. Если вы представите кору, расправленную в горизонтальный лист, то «вертикальная нейронанатомия» будет включать, например, взаимосвязи между структурами в коре и подкорке, а «горизонтальная» нейроанатомия – например, разные роли разных частей коры. См. также таблицу в Разделе 5.4.1.
  2. Для ясности, скорее всего на самом деле нет никакого дискретного переключателя всё-или-ничего. Может быть, например, «взвешенное среднее». Напомню, всё это – просто педагогическая «игрушечная модель»; я ожидаю, что реальность во многих отношениях сложнее.
  3. Отмечу, что тут я просто прокручиваю этот алгоритм у себя в голове, я его не симулировал. Я оптимистично считаю, что я не облажался по-крупному, то есть, что то, что я говорю про алгоритм качественно верно при подходящих настройках параметров и, возможно иных мелких поправках.
  4. Примеры использования терминологии «Временных Разниц» в чём-то не связанном с функциями вознаграждения обучения с подкреплением включают «TD-сети» и литературу по Последовательным Отображениям (пример), и вот эту статью, и т.д.
  5. Классическая попытка примирить «висцемоторную» и «мотивационную» картины mPFC - это «гипотеза соматических маркеров» Антонио Дамасио. Моё описание тут имеет некоторые сходства и некоторые различия от неё. Я не буду в это погружаться, это не по теме.
  6. Как и в предыдущем посте, когда я говорю «дофамин несёт управляющий сигнал», я открыт к возможности того, что дофамин на самом деле несёт тесно-связанный сигнал, вроде сигнала об ошибке или отрицательного сигнала об ошибке, или отрицательного управляющего сигнала. Для наших целей это не имеет значения.
  7. Пятая область, хвост полосатого тела, как я думаю, объясняется по-иному – см. здесь.
Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

6. Большая картина мотивации, принятия решений, и RL

Стивен Бирнс

Примечание переводчика - с момента перевода оригинальные посты несколько обновились, через некоторое время обновлю и перевод. На общие выводы цепочки это, вроде бы, не влияет.

6.1 Краткое содержание / Оглавление

Пока что в этой цепочке Пост №1 задал некоторые определения и мотивации (что такое «безопасность подобного-мозгу ИИ», и с чего нам беспокоиться?), Посты №2 и №3 представили разделение мозга на Обучающуюся Подсистему (конечный мозг и мозжечок), которая использует алгоритмы «обучения с чистого листа», и Направляющую Подсистему (гипоталамус и мозговой ствол), которая в основном генетически-прошита и выполняет специфичные для вида инстинкты и реакции.

В Посте №4 я описал «краткосрочные предсказатели» – схемы, которые в результате обучения с учителем начинают предсказывать сигналы до их появления, но, наверное, лишь за долю секунды. В Посте №5 я затем предложил, что если сформировать замкнутую петлю с участием и краткосрочных предсказателей в Обучающейся Подсистеме, и соответствующих им прошитых схем в Направляющей Подсистеме, то можно получить «долгосрочный предсказатель». Я заметил, что схема «долгосрочного предсказателя» сильно схожа с обучением методом Временных Разниц.

Теперь, в этом посте, мы добавим последние ингредиенты – грубо говоря, «субъекта» из обучения с подкреплением «субъект-критик» (RL) – чтобы у нас получилась полная большая картина мотивации и принятия решений в человеческом мозге. (Я говорю «человеческий мозг» для конкретики, но в любом другом млекопитающем, и, в меньшей степени, в любом другом позвоночном, всё было бы похоже.)

Причина, почему меня волнует мотивация и принятие решений, в том, что, если мы однажды создадим подобные-мозгу СИИ (как в Посте №1), мы захотим обеспечить, чтобы у них были некоторые мотивации (например, быть полезным) и не было некоторых других (например, выйти из-под человеческого контроля и распространить свои копии по Интернету). Куда больше на эту тему в следующих постах.

Тизер предстоящих постов: Следующий пост (№7) пройдётся по конкретному примеру модели из этого поста, и мы сможем пронаблюдать, как встроенное стремление приводит к сначала формированию явной цели, а потом принятию и исполнению плана для её достижения. Потом, начиная с Поста №8, мы сменим контекст, и с этого момента вы можете ожидать значительно меньше обсуждения нейробиологии и значительно больше обсуждения безопасности СИИ (за исключением ещё одного поста про нейробиологию ближе к концу).

Всё в этом посте, если не сказано обратное, это «то, в чём я убеждён прямо сейчас», а не нейробиологический консенсус. (Лайфхак: нейробиологического консенсуса никогда нет.) Я буду принимать минимальные усилия для связи своих гипотез с другими из литературы, но буду рад поболтать об этом в комментариях или по email.

Содержание:

  • В Разделе 6.2 я представлю большую картину мотивации и принятия решений в человеческом мозге и пройдусь по тому, как это работает. Остаток поста будет описывать различные части этой картины более детально. Если вы торопитесь, я предлагаю дочитать до конца Раздела 6.2 и закончить.
  • В Разделе 6.3 я поговорю о так называемом «Генераторе Мыслей», состоящем (как мне кажется) из дорсолатеральной префронтальной коры, сенсорной коры и других областей. (Для читателей из области машинного обучения, знакомых с «основанном на модели обучением с подкреплением субъект-критик», Генератор Мыслей более-менее соответствует комбинации «субъекта» и «модели».) Я поговорю о вводах и выводах этого модуля и кратко обрисую, как его алгоритм связан с нейроанатомией.
  • В Разделе 6.4 я поговорю о том, как в этой картине работают ценности и вознаграждения, включая сигнал вознаграждения, руководящий обучением и принятием решений в Генераторе Мыслей.
  • В Разделе 6.5 я немного больше углублюсь в детали того, как и почему думание и принятие решений должны вовлекать не только одновременные сравнения (например, механизм параллельной генерации разных вариантов и выбора наиболее многообещающего), но и последовательные сравнения (например, думать о чём-то, затем думать о чём-то другом, и сравнить эти две мысли). К примеру, вы можете подумать: «Хмм, я думаю, что я пойду в спортзал. Но, на самом деле, что если я вместо этого пойду в кафе?»
  • В Разделе 6.6 я прокомментирую частое заблуждение о том, что Обучающаяся Подсистема – место обитания эгосинтонических интернализированных «глубоких желаний», а Направляющая Подсистема – эгодистонических, экстернализированных «первобытных побуждений». Я буду в целом возражать представлению о том, что две подсистемы – два противостоящих агента; более хорошая ментальная модель – что это две связанных шестерни в одном механизме.

6.2 Большая картина

Да, это буквально большая картинка, если вы только не читаете это с телефона. Вы уже видели её часть в предыдущем посте (Раздел 5.4), но сейчас тут больше всего.


Большая картина – Весь пост будет вращаться вокруг этой диаграммы. Обратите внимание, что ярлычки на верхних двух блоках довольно условны и уж точно сильно утрированы.

Тут много, но не беспокойтесь. Мы пройдёмся по каждому кусочку отдельно.

6.2.1 Связь с «двумя подсистемами»

Вот как эта диаграмма укладывается в мою модель «двух подсистем», описанную в Посте №3:


Тоже, что и выше, но две подсистемы подсвечены разными цветами.

6.2.2 Быстрый обзор

До погружения в детали дальше в посте, просто пройдёмся по диаграмме:

1. Генератор Мыслей генерирует мысль: Генератор Мыслей выбирает мысль из высокоразмерного пространства всех мыслей, которые возможно подумать в данный момент. Заметим, что это пространство возможностей, хоть и огромное, ограничено текущим сенсорным вводом, прошлым сенсорным вводом и всем остальным в выученной модели мира. К примеру, если вы сидите за письменным столом в Бостоне, в общем случае для вас невозможно подумать, что вы занимаетесь скуба-дайвингом у берега Мадагаскара. Но вы можете составлять план или насвистывать мелодию, или погрузиться в воспоминание, или рефлексировать о смысле жизни, и т.д.

2. Оценщики Мыслей сводят мысль к «оценочной таблице»: Оценщики Мыслей – набор, возможно, сотен тысяч схем «краткосрочных предсказателей» (Пост №4), который я более подробно описывал в предыдущем посте (№5). Каждый предсказатель обучен предсказывать свой сигнал из Направляющей Подсистемы. С точки зрения Оценщика Мыслей, всё в Генераторе Мыслей (не только выводы, но и скрытые переменные) – это контекст – информация, которую можно использовать для создания лучших предсказаний. Так что, если я думаю мысль «я прямо сейчас съем конфету», то Оценщик Мыслей может предсказать «высокую вероятность ощутить вкус чего-то сладкого очень скоро» исключительно на основании мысли – у него нет необходимости полагаться на внешнее поведение или сенсорные вводы, хоть это тоже может быть важным контекстом.

3. «Оценочная таблица» решает задачу построения интерфейса между обучающейся с чистого листа моделью мира и генетически закодированными схемами: Напомню, текущая мысль и ситуация – это невероятно сложные объекты в высокоразмерном выученном с чистого листа пространстве «всех возможных мыслей, которые можно подумать». Но нам нужно, чтобы относительно простые генетически закодированные схемы Направляющей Подсистемы анализировали мысль и выдавали суждение о её высокой или низкой ценности (см. Раздел 6.4 ниже) и о том, требует ли она выброса кортизола, гусиной кожи или расширения зрачков, и т.д. «Оценочная таблица» решает эту проблему! Она сводит возможные мысли / убеждения /планы и т.д. к генетически стандартизированной форме, которую уже можно напрямую передать генетически закодированным схемам.

4. Направляющая Подсистема исполняет некий генетически закодированный алгоритм: Его ввод – это (1) оценочная таблица с предыдущего шага, и (2) прочие источники информации – боль, метаболический статус, и т.д., поступающие из её собственной системы сенсорной обработки в мозговом стволе (см. Пост №3, Раздел 3.2.1). Её вывод включает выбросы гормонов, моторные команды, и т.д., а также посылание управляющих сигналов «эмпирической истины», показанных на диаграмме.[1]

5.Генератор Мыслей оставляет или отбрасывает мысли, основываясь на том, нравятся ли они Направляющей Подсистеме: Более конкретно, есть сигнал эмпирической истины (он же вознаграждение, да, я знаю, что это не звучит синонимично, см. Пост №5, Раздел 5.3.1). Когда его значение велико и положительно, текущая мысль «усиливается», задерживается, и может начать контролировать поведение и вызывать последующие мысли, а когда велико и отрицательно, текущая мысль немедленно отбрасывается, и Генератор Мыслей призывает следующую.

6. И Генератор Мыслей, и Оценщик Мыслей «обучаются с чистого листа» по ходу жизни, благодаря, в частности, управляющим сигналам Направляющей Подсистемы. Конкретнее, Оценщики Мыслей обучаются всё лучшему и лучшему предсказыванию сигнала «эмпирической истины задним числом» (это форма обучения с учителем – см. Пост №4), а Генератор Мыслей в большей степени обучается генерировать высокоценные мысли. (Процесс обучения с чистого листа Генератора Мыслей также включает и предсказательное обучение сенсорных вводов – Пост №4, Раздел 4.7.)

6.3 «Генератор Мыслей»

6.3.1 Общий обзор

Вернёмся к большой диаграмме выше. Слева-сверху находится Генератор Мыслей. В терминах основанного на модели обучения с подкреплением «субъект-критик», Генератор Мыслей грубо соответствует комбинации «субъект» + «модель», но не «критику». («Критик» обсуждался в предыдущем посте, а больше про него – ниже.)

На нашем несколько упрощённом уровне анализа, мы можем думать о «мыслях», генерируемых Генератором Мыслей как о комбинации ограничений (из предсказательного обучения сенсорных вводов) и выборов (управляемых обучением с подкреплением). Подробнее:

  • Ограничения Генератора Мыслей происходят из информации из сенсорного ввода и предсказательного обучения сенсорному вводу (Пост №4, Раздел 4.7). К примеру, я не могу подумать мысль «На моём столе кот, и я прямо сейчас на него смотрю.» Кота, к сожалению, нет, и я не могу просто пожелать увидеть что-то, чего очевидно нет. Я могу представить, как я его вижу, но это не та же мысль.
  • Но с учётом этих ограничений есть более чем одна возможная мысль, которую мой мозг может подумать в каждый конкретный момент. Он может обращаться к памяти, раздумывать о смысле жизни, выдать команду встать, и т.д. Я утверждаю, что эти «выборы» принимаются системой обучения с подкреплением (RL). Эта RL-система – одна из главных тем этого поста.

6.3.2 Ввод Генератора Мыслей

Генератор Мыслей принимает в качестве ввода, в том числе сенсорные данные и изменяющие гиперпараметры нейромодуляторы. Но в этом посте для нас наибольший интерес представляет сигнал эмпирической истины, он же вознаграждение. Я более детально поговорю о нём позже, но мы можем считать, что это оценка того, хороша или плоха мысль, в смысле, «стоит ли её удержать и развивать или же она заслуживает того, чтобы её выбросили и сгенерировали следующую». Этот сигнал важен и для того, чтобы научиться думать мысли получше, и для думания хороших мыслей прямо сейчас:

6.3.3 Вывод Генератора Мыслей

В тоже время множество сигналов выходят из Генератора Мыслей. Некоторые – то, о чём мы интуитивно думаем как о «выводе» – например, скелетные моторные команды. Другие сигналы вывода, ну, это несколько забавно…

Напомню идею «контекста» из Раздела 4.3 Поста №4: Оценщики Мыслей – это краткосрочные предсказатели, а краткосрочный предсказатель в принципе может взять любой сигнал в мозгу и применить его для улучшения своей способности предсказывать свой целевой сигнал. Так что если Генератор Мыслей имеет модель мира, то где-то в этой модели мира есть конфигурация активаций скрытых переменных, кодирующая концепт «маленькие котята, дрожащие под холодным дождём». Мы не стали бы думать об этом как о «сигналах вывода» – я только что сказал, что это скрытые переменные! Но, так уж получается, что Оценщик Мыслей «это приведёт к плачу» применяет копию этих скрытых переменных как контекстный сигнал, и постепенно обучается на опыте, что этот конкретный сигнал сильно предсказывает слёзы.

То есть, сейчас, у взрослого меня эти нейроны «маленьких котят под холодным дождём» в моём Генераторе Мыслей живут двойной жизнью:

  • Они являются скрытыми переменными в моей модели мира – т.е. они и их сеть связей помогают мне распознать картинку маленьких котят под дождём, если я такую вижу, и рассуждать о том, что с ними произойдёт, и т.д.
  • Активация этих нейронов, например, с помощью воображения – это способ вызвать слёзы по команде.


Генератор Мыслей (сверху слева) имеет два типа вывода: «традиционный» вывод, ассоциированный с произвольным поведением (зелёные стрелки) и «забавный» вывод, позволяющий даже скрытым переменным модели напрямую влиять на непроизвольное поведение (синие стрелки).

6.3.4 Обрисовка нейроанатомии Генератора Мыслей

ПРИМЕЧАНИЕ АВТОРА: Изначально в этом разделе было обсуждение петель «кора-базальные ганглии-таламус-кора», но это всё было очень спекулятивно и оказалось несколькими разными способами ошибочным. Это в любом случае не было особо важно для цепочки в целом, так что я это просто удалил. Я как-нибудь напишу исправленную версию отдельным постом. Извините!

Обновлённая дофаминовая диаграмма из предыдущего поста:


«Мезолимбические» дофаминовые сигналы справа обсуждались в предыдущем посте (Раздел 5.5.6). «Мезокортикальный» сигнал слева новый. (Я думаю, что в мозгу *ещё больше* дофаминовых сигналов, которые здесь не показаны. Они за пределами темы этой цепочки, но см. обсуждение здесь)

В Генераторе Мыслей есть ещё много деталей реализации, которые я тут не обсуждаю, включая детали диаграммы «петли» выше, так же, как и отношения между разными регионами коры. Однако, этого небольшого раздела более-менее достаточно для следующих постов по безопасности СИИ. Запутанные подробности Генератора Мыслей, так же, как и в чём угодно другом в Обучающейся Подсистеме, в основном полезны для создания СИИ.

6.4 Ценности и вознаграждения

6.4.1 Кора прикидывает «ценность», но Направляющая Подсистема может выбрать перехватить

На диаграмме есть две «ценности» (выглядит, будто три, но две красных – одно и то же):


Два типа «ценности» в моей модели

Обведённый синим сигнал – это прикидка ценности из соответствующего Оценщика Мыслей в коре. Обведённый красным сигнал (ещё раз, это один и тот же сигнал, нарисованный дважды) – «эмпирическая истина» о том, какой должна была быть прикидка ценности. (Напомню, что «эмпирическая ценность» – синоним «вознаграждения»; да, знаю, звучит неправильно, см. предыдущий пост (Раздел 5.3.1) за подробностями.)

Так же, как и у других «долгосрочных предсказателей», которые обсуждались в предыдущем посте, Направляющая Подсистема может выбирать между режимом «довериться предсказателю» и режимом «перехвата». В первом случае, она задаёт красный сигнал эквивалентный синему, как будто говорит: «ОК, Оценщик Мыслей, конечно, я поверю тебе на слово». Во втором случае, она игнорирует предложение Оценщика Мыслей, а её собственные встроенные схемы выдают некую другую ценность.[2]

По каким причинам Направляющая Подсистема перехватывает прикидку ценности Оценщика Мыслей? Два фактора:

  • Во-первых, Направляющая Подсистема может действовать на основе информации от других (не-ценностных) Оценщиков Мыслей. К примеру, в Эксперименте с Солью Мёртвого Моря (см. предыдущий пост, Раздел 5.5.5), прикидка ценности была «сейчас произойдёт что-то плохое», но в то же время Направляющая Подсистема получила предсказание «я сейчас почувствую вкус соли» в контексте состояния недостатка соли. Так что Направляющая Подсистема как бы сказала себе: «То, что происходит сейчас, очень перспективно; Оценщик не знает, что несёт!»
  • Во-вторых, Направляющая Подсистема могла действовать на основе своих собственных источников информации, независимых от Обучающейся Подсистемы. В частности, Направляющая Подсистема обладает собственной системой обработки сенсорной информации (см. Пост №3, Раздел 3.2.1), которая может ощущать биологически-важные намёки вроде боли, голода, вкуса, вида ползущей змеи, запаха потенциального партнёра, и так далее. Всё это и более того может быть возможными основаниями для перехвата сигнала у Оценщика Мыслей, т.е. установке значения обведённого красным сигнала, отличного от обведённого синим.

Интересно (и в отличии от RL «по учебнику»), что в этой большой картине обведённый синим сигнал не обладает в алгоритме специальной ролью, в сравнении с другими Оценщиками Мыслей. Это лишь один из многих вводов прошитого алгоритма Направляющей Подсистемы, решающего, каким сделать обведённый красным сигнал. Обведённый синим сигнал может на практике оказаться особенно важным, более весомым, чем остальные, но вообще они все в одной куче. На самом деле, мои давние читатели вспомнят, что в прошлом году я писал посты, опускавшие обведённый синим сигнал ценности в списке Оценщиков Мыслей! Сейчас я считаю, что это ошибка, но оставил примерно такое же отношение.

6.5 Решения вовлекают не только одновременные, но и последовательные сравнения ценности

Вот «одновременная» модель принятия решений, описанная в книге «Голодный Мозг» Стефана Гийанэя на примере изучения миног:

Каждый участок паллиума [=эквивалент коры у миноги] связан с определенной частью полосатого тела. Паллиум посылает сигнал в полосатое тело, и затем сигнал из полосатого тела (через другие части базальных ганглиев) возвращается назад в тот же участок паллиума.

Иными словами, определенный участок паллиума и полосатое тело связаны замкнутой цепью, которая реализует запрос на конкретное действие. Например, существует цепь для преследования добычи, для ускользания от хищника, для прикрепления к камню и так далее. Каждый отдельный участок паллиума без конца нашептывает полосатому телу, упрашивая дать добро на исполнение того или иного поведенческого шаблона. А полосатое тело по умолчанию отвечает на это «нет!» При особых обстоятельствах шепот паллиума превращается в крик, и тогда полосатое тело исполняет требования настойчивого паллиума и приводит в действие мышцы.

Я принимаю это как часть моей модели принятия решений, но только как часть. Конкретнее, это одна из вещей, происходящих, когда Генератор Мыслей генерирует мысль. В самом деле, моя диаграмма в Разделе 6.3.4 выше явно вдохновлена этой моделью. Сравниваются разные одновременные возможности.

Другая часть моей модели – сравнение последовательных мыслей. Вы думаете одну мысль, а потом другую мысль (возможно, что сильно отличающуюся, а возможно, что преобразованную первую), и они сравниваются (Направляющей Подсистемой, отбирающей значение эмпирической истины, основываясь на, например, закономерностях того, как активизируются и успокаиваются Оценщики Мыслей), и если вторая хуже, то она ослабляется, чтобы её могла заменить следующая (возможно, снова первая).

Я могу процитировать эксперименты об аспекте последовательного сравнения в принятии решений (например, Рисунок 5 этой статьи, заявляющий то же, что и я), но действительно ли это надо? Интроспективно это очевидно! Вы думаете: «Хмм, думаю, я пойду в спортзал. На самом деле, что если я вместо этого пойду в кафе?» Вы представляете одно, а потом другое.

И я не думаю, что это то, что отличает людей от миног. Предполагаю, что сравнение последовательных мыслей универсально для позвоночных. Как иллюстрация того, что я имею в виду:

6.5.1 Выдуманный пример того, как сравнение последовательных мыслей могло бы выглядеть у более простого животного

Представьте простую древнюю маленькую рыбку, плывущую к пещере, где она живёт Она натыкается на ~~развилку дороги,~~ эмммм, «развилку в лесу водорослей»? Её текущий план навигации включает плыть налево к пещере, но у неё также есть вариант повернуть направо, чтобы добраться до рифа, где она часто кормится.

Я утверждаю, что её алгоритм навигации, увидев путь направо, рефлексивно загружает план: «Я поверну направо и доберусь до рифа.» Этот план немедленно оценивается и сравнивается с старым планом. Если новый план кажется хуже старого, то новая мысль затыкается, а старая мысль («Я направляюсь к своей пещере») восстанавливает своё положение. Рыбка без промедления продолжает следовать к пещере. А вот есть новый план кажется лучше старого, то новый план усиливается, приживается и принимает управление моторными командами. И тогда рыбка поворачивает направо и направляется к рифу.

(На самом деле, я не знаю достаточно о маленьких древних рыбках, но благодаря измерениям нейронов гиппокампуса известно, что крысы на развилке ~~дороги~~ лабиринта представляют оба возможных навигационных плана последовательно – ссылка.)

6.5.2 Сравнение последовательных мыслей: почему это необходимо

Согласно моим взглядам, мысли сложны. Чтобы подумать «Я пойду в кафе» вы не просто активируете некоторый крохотный кластер нейронов походов-в-кафе. Нет, это распределённый паттерн, включающий практически все части коры. Вы не можете одновременно думать «Я пойду в кафе» и «Я пойду в спортзал», потому что в эти мысли будут вовлечены разные паттерны активности одного и того же набора нейронов. Они бы мешали друг другу. Так что единственная возможность – думать мысли по очереди.

Как конкретный пример того, что я себе представляю, подумайте о том, как сеть Хопфилда не может вспомнить двенадцать воспоминаний одновременно. У неё есть множество стабильных состояний, но вы можете вызывать из только последовательно, одно за другим. Или подумайте о нейронах решётки и места, и т.д.

6.5.3 Сравнение последовательных мыслей: как это могло эволюционировать

Я представляю, что с эволюционной точки зрения сравнение последовательных мыслей – далёкий потомок очень простых механизмов сродни механизма «бежать-и-кувыркаться» у плавающих бактерий.

Механизм «бежать-и-кувыркаться» работает так: бактерия плывёт по прямой линии («бежит»), и периодически меняет направление на новое случайное («кувыркается»). Фокус в том, что, когда ситуация / окружение бактерии становится лучше, она кувыркается реже, а когда окружение становится хуже – она кувыркается чаще. Таким образом, она в итоге (в среднем, со временем) двигается в хорошем направлении.

Можно представить, как начиная с простого механизма вроде этого, можно навешивать на него всё больше и больше прибамбасов. Палитра поведенческих вариантов становится всё сложнее и сложнее, в какой-то момент превращаясь в «каждая мысль, которую возможно подумать». Методы оценивания, хорош или плох нынешний план, могут становиться быстрее и точнее, в итоге приводя к основанным на обучающихся алгоритмах предсказателям, как в предыдущем посте. Новые поведенческие варианты могут начать выбираться не случайно, а с помощью умных обучающихся алгоритмов. Так что мне кажется, что от чего-то-вроде-беги-и-кувыркайся к замысловатым тонко настроенным системам человеческого мозга, о которых я тут говорю есть плавный путь. (Иные размышления о бежать-и-кувыркаться и человеческой мотивации: 12.)

6.6 Частые заблуждения

6.6.1 Различие между интернализированными эгосинтоническими и экстернализированными эгодистоническими желаниями не связано с разделением на Обучающуюся Подсистему и Направляющую Подсистему

(См. также: мой пост (Мозговой ствол, Неокортекс) ≠ (Базовые мотивации, Благородные мотивации).)

Многие (включая меня) обладают сильным интуитивным разделением эгосинтонических стремлений, которые являются «частью нас» и «тем, чего мы хотим» от эгодистонических стремлений, ощущающихся как позывы, вторгающиеся в нас извне.

К примеру, гурман может сказать: «Я люблю хороший шоколад», а человек на диете – «Я чувствую позыв съесть хороший шоколад».

6.6.1.1 Объяснение, которое мне нравится

Я утверждаю, что эти два человека по сути описывают одно и то же ощущение, с по сути одинаковой нейроанатомической локализацией и по сути одинаковой связью с низкоуровневыми алгоритмами мозга. Но гурман признаёт это чувство, а человек на диете его экстернализирует.

Эти два разных концепта идут рука об руку с двумя разными «предпочтениями высшего уровня»: гурман хочет хотеть есть хороший шоколад, тогда как человек на диете хочет не хотеть есть хороший шоколад.

Это приводит нас к прямолинейному психологическому объяснению, почему гурман и человек на диете по-разному концептуализируют свои чувства:

  • Гурману приятно думать о «желании хорошего шоколада» как о «части того, кто я есть». Так он и делает.
  • Человеку на диете неприятно думать о «желании хорошего шоколада» как о «части того, кто я есть». Поэтому он так не делает.

6.6.1.2 Объяснение, которое мне не нравится

Многие (включая Джеффа Хокинса, см. Пост №3) замечают описанное выше различие и, отдельно, поддерживают (как и я) идею, что в мозгу есть Обучающаяся Подсистема и Направляющая Подсистема (опять же, см. Пост №3). Они естественно предполагают, что это эквивалентно тому, что «я и мои глубокие желания» соответствуют Обучающейся Подсистеме, а «позывы, с которыми я себя не идентифицирую» – Направляющей Подсистеме.


Многие люди, с которыми я говорил, да и я сам, имеют отдельные концепции в выученной модели мира для «меня» и «моих позывов». Я заявляю, что эти концепты *НЕ* исходят из достоверного интроспективного доступа к нашей нейроанатомии. И в частности, они не соответствуют Обучающейся и Направляющей Подсистемам.

Я думаю, что эта модель неверна. По меньшей мере, если вы хотите принимать эту модель, то вам придётся отвергнуть приблизительно всё, что я писал в этом и предыдущих четырёх постах.

В моей модели, если вы пытаетесь воздержаться от шоколада, но чувствуете позыв есть шоколад, то:

  • У вас есть позыв есть шоколад, потому что Направляющая Подсистема одобряет мысль «я сейчас съем шоколад»; И
  • Вы пытаетесь воздержаться от шоколада, потому что Направляющая Подсистема одобряет мысль «Я воздерживаюсь от шоколада».

(С чего Направляющей Подсистеме одобрять вторую мысль? Это зависит от человека, но готов поспорить, что в это вовлечены социальные инстинкты. Я больше поговорю про социальные инстинкты в Посте №13. Если вы ходите менее сложный пример, представьте человека с непереносимостью лактозы, пытающегося сопротивляться позыву прямо сейчас съесть вкусное мороженое, потому что это приведёт к очень плохим ощущениям потом. Направляющей Подсистеме нравятся планы, приводящие к неболению, но ей также нравятся планы, приводящие к поеданию вкусного мороженого.)

6.6.2 Обучающаяся Подсистема и Направляющая Подсистема – не два агента

Другая частая ошибка – воспринимать саму по себе Обучающуюся или Направляющую Подсистему как что-то вроде независимого агента. Это неверно с обеих сторон:

  • Обучающаяся Подсистема не может думать никаких мыслей, если Направляющая Подсистема не одобрила их как стоящие думания.
  • В то же время, Направляющая Подсистема сама по себе не понимает мир или себя. У неё нет явных целей на будущее. Она лишь относительно простая, жёстко закодированная машина ввода-вывода.

Как пример, совершенно возможно следующее:

  1. Обучающаяся Подсистема генерирует мысль «Я собираюсь хирургически изменить мою Направляющую Подсистему».
  2. Оценщики Мыслей сводят эту мысль к «оценочной таблице».
  3. Направляющая Подсистема получает оценочную таблицу и исполняет свои жёстко прошитые эвристики, и результат: «Очень хорошая мысль, давай сделаем это!»

Почему нет, верно? Я больше поговорю про этот пример в позднейших постах.

Если вы прочитали пример выше и подумали: «Ага! Это случай, когда Обучающаяся Подсистема обхитрила Направляющую Подсистему», то вы всё ещё не поняли.

(Может, попробуйте представить Обучающуюся и Направляющую Подсистемы как две сцепленных шестерни в одном механизме.)

———

  1. Как и в предыдущем посте, термин «эмпирическая истина» тут немного обманчив, потому что иногда Направляющая Подсистема просто доверяется Оценщикам Мыслей.
  2. Как и в предыдущем посте, я не считаю, что на самом деле есть чистая дихотомия между режимом «довериться предсказателю» и «перехватить». На самом деле, я готов поспорить, что Направляющая Подсистема может частично-но-не-совсем-полностью довериться Оценщику Мыслей, например, взяв взвешенное среднее от Оценщика Мыслей и какого-то другого независимого вычисления.
Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

7. От закодированных стремлений к предусмотрительным планам: рабочий пример

Стивен Бирнс

7.1 Краткое содержание / Оглавление

Предыдущий пост представил большую картину того, как, по моему мнению, в человеческом мозге работает мотивация, но он был несколько абстрактен. В этом посте я рассмотрю пример. В общих чертах, шаги будут такие:

  1. (Раздел 7.3) Наши мозги постепенно выработали вероятностную генеративную модель мира и себя;
  2. (Раздел 7.4) Существует процесс «присвоения ценности», когда что-то в модели мира помечается как «хорошее»;
  3. (Раздел 7.5) Существует сигнал ошибки предсказания вознаграждения, приблизительно связанный с производной (по времени) ожидаемой вероятности того, что произойдёт «хорошая» вещь. Этот сигнал вызывает у нас стремление «пытаться» делать «хорошие» вещи, в том числе и с помощью планирования наперёд.

Все человеческие цели и мотивации в конце концов исходят из относительно простых генетически закодированных схем Направляющей Подсистемы (гипоталамуса и мозгового ствола), но детали этого в некоторых случаях могут быть довольно запутанными. К примеру, иногда я замотивирован исполнить глупый танец перед полноростовым зеркалом. Какие в точности генетически закодированные схемы в гипоталамусе или мозговом стволе являются причиной этой мотивации? Я не знаю! Я, на самом деле, утверждаю, что ответ на этот вопрос на сегодняшний день Не Известен Науке. Я думаю, это стоит выяснить! Эммм, ну, ОК, может, для этого конкретного примера и не стоит выяснять. Но в целом я оцениваю проект реверс-инжиниринга некоторых аспектов человеческой Направляющей Подсистемы (см. моё описание «Категории B» в Посте №3) – особенно стоящих за социальными инстинктами вроде альтруизма и стремления к высокому статусу – как невероятно важный для безопасности СИИ, и, при этом, чрезвычайно пренебрегаемый. Больше про это - в Постах №12-13.

А пока что я выберу пример цели, которая в первом приближении исходит из особенно прямолинейного и понятного набора схем Направляющей Подсистемы. Поехали.

Давайте предположим (совершенно гипотетически…), что я два года назад съел кусок торта «Принцесса», и он был очень вкусным, и с тех пор я хочу съесть его ещё раз. Так что моим рабочим примером явной цели будет «Я хочу кусок торта «Принцесса»».


Торт «Принцесса». Я предлагаю его попробовать, чтобы лучше понять этот пост. Во имя науки! Источник картинки: моя любимая местная пекарня.)

Съесть кусок этого торта – не моя единственная цель в жизни, даже не особенно важная – так что она сравнивается с другими моими целями и желаниями – но это всё же моя цель (по крайней мере, когда я об этом думаю), и я в самом деле могу составлять сложные планы, чтобы её достичь. К примеру, оставлять тонкие намёки для моей семьи. В постах. Когда приближается мой день рождения. Совершенно гипотетически!!

7.2 Напоминание о предыдущем посте: большая картина мотивации и принятия решений

Вот моя диаграмма мотивации в мозгу из предыдущего поста:


См. предыдущий пост за деталями.

Как обсуждалось в предыдущем посте, мы можем разделить всё это на части, «закодированные» в геноме и части, обучающиеся при жизни – т.е. Направляющую Подсистему и Обучающуюся Подсистему:

7.3 Создание вероятностной генеративной модели мира в коре

Первый шаг в нашей истории: за время моей жизни моя кора (конкретнее, Генератор Мыслей из левой верхней части диаграммы выше) создавала вероятностную генеративную модель, в основном при помощи предсказательного обучения сенсорных вводов (Пост №4, Раздел 4.7) (также известного как «самообучение»).

По сути, мы выучиваем паттерны в своём сенсорном вводе, потом паттерны паттернов, и т.д., пока у нас не получается удобная предсказательная модель мира (и нас самих) – огромная сеть взаимосвязанных сущностей вроде «травы» и «стоять» и «куски торта «Принцесса»».

Предсказательное обучение сенсорных вводов не зависит фундаментально от управляющих сигналов Направляющей Подсистемы. Вместо этого «мир» предоставляет эмпирическую истину о том, было ли предсказание верным. Сравните это, к примеру, с составлением компромиссов между поиском еды и поиском партнёра: в окружении нет никакой «эмпирической истины» о том, составило ли животное компромисс оптимально, кроме как задним числом через много поколений. В этом случае нам нужны управляющие сигналы Направляющей Подсистемы, оценивающие «правильный» компромисс заложенными эволюцией эвристиками. Вы можете думать об этом как о чём-то вроде разделения «есть – должно», в котором Направляющая Подсистема предоставляет «должно» («что должен сделать организм, чтобы максимизировать генетическую приспособленность?»), а предсказательное обучение сенсорных вводов предоставляет «есть» («что, вероятно, сейчас произойдёт при таких-то и таких-то обстоятельствах»). Хотя Направляющая Подсистема всё же косвенно вовлечена и в предсказательное обучение – к примеру, я могу быть мотивирован изучить какую-нибудь тему.

В любом случае, каждая мысль, которую я могу подумать, и каждый план, который я могу составить, могут быть отображены в некоторую конфигурацию структуры данных этой генеративной модели мира. Структура данных непрерывно редактируется, когда я учусь и получаю новый опыт.

Думая об этой структуре данных модели мира, представьте много терабайт совершенно непонятных записей – к примеру, что-то вроде

«ПАТТЕРН 847836 определён как следующая последовательность: {ПАТТЕРН 278561, потом ПАТТЕРН 657862, потом ПАТТЕРН 128669}»

Некоторые записи отсылают к сенсорным вводам и/или моторными командам. И эта огромная запутанная непонятная свалка составляет всё моё понимание мира и себя самого.

7.4 Присвоение ценности при первом съедении кусочка торта

Как я упомянул выше, в судьбоносный день два года назад, я съел кусок торта «Принцесса», и это было очень хорошо.

Отступим назад на пару секунд, когда я ещё только подносил самый первый кусочек торта ко рту. В этот момент у меня ещё не было особо сильных ожиданий того, как он будет на вкус, и что я буду чувствовать по его поводу. Но когда он попал ко мне в рот, ммммм, о, вау, это хороший торт.


Части диаграммы, относящиеся к тому, что произошло, когда я съел первый удивительно-вкусный кусочек торта два года назад.

Итак, после того, как я его попробовал, моё тело произвело набор автономных реакций – выпустило некоторые гормоны, выработало слюну, изменило мой пульс и давление крови, и т.д. Почему? Ключ в том, что, как описано в Посте №3, Разделе 3.2.1, все мои сенсорные вводы делятся:

  • Одна копия каждого конкретного сенсорного ввода отправляется в Обучающуюся Подсистему, чтобы встроиться в предсказательную модель мира. (См. «Информационные вводы» слева сверху на диаграмме.)
  • Вторая копия того же сигнала отправляется в Направляющую Подсистему, где она служит вводом генетически закодированным цепям. (См. «Информационные вводы» снизу по центру диаграммы.)

Вкусовой ввод – не исключение: первый сигнал оказывается в вкусовой коре, части островковой коры (часть неокортекса, в Обучающейся Подсистеме), второй – в вкусовых ядрах продолговатого мозга (часть конечного мозга, в Направляющей Подсистеме). По прибытии в продолговатый мозг вкусовой ввод скармливается разным генетически закодированным схемам конечного мозга, которые, принимая также во внимание моё текущее психологическое состояние и подобное, исполняют все упомянутые мной автономные реакции.

Как я упоминал, до того, как я впервые попробовал торт, я не ожидал, что он будет так хорош. Ну, может быть, интеллектуально ожидал – если бы вы меня спросили, я бы сказал и был бы убеждён, что торт будет действительно хорош. Но я не ожидал этого внутренне.

Что я имею в виду под «внутренне»? В чём разница? Мои внутренние ожидания находятся на стороне «Оценщиков Мыслей». У людей нет произвольного контроля над своими Оценщиками Мыслей – они обучаются исключительно на сигналах «эмпирической истины задним числом» от мозгового ствола. У вас есть некоторые возможности манипуляции ими через контроль того, о чём вы думаете, как описано в предыдущем посте (Раздел 6.3.3), но в первом приближении можно считать, что они занимаются своими делами сами, независимо от того, что вы от них хотите. С эволюционной перспективы такое устройство имеет смысл как защита от вайрхединга – см. мой пост Награды Не Достаточно.

Так что когда я попробовал торт, мои Оценщики Мыслей оказались неправы! Они ожидали, что торт вызовет средненькие связанные с вкусностью автономные реакции, а на само деле торт вызвал сильные связанные с вкусностью автономные реакции. И Направляющая Подсистема узнала, что Оценщики Мыслей были неправы. Так что она послала корректирующий сигнал алгоритмам Оценщиков Мыслей, как показано на диаграмме выше. Эти алгоритмы затем изменили себя, чтобы в дальнейшем каждый раз, когда я подношу вилку с кусочком торта «Принцесса» в своему рту, Оценщики Мыслей более надёжно предсказывали сильные выбросы гормонов, сигнал вознаграждения, и все другие реакции, которые я на самом деле получил.

Тут произошла крутая штука. Мы начали с (относительно) простого жёстко прошитого алгоритма: схемы Направляющей Подсистемы переводят определённые виды вкусового ввода в определённые выбросы гормонов и автономные реакции. Но затем мы передали эту информацию в функции выученной модели мира – вспомните ту гигантскую запутанную базу данных, о которой я говорил в предыдущем разделе.

(Давайте возьмём паузу, чтобы всё проговорить: сигнал «эмпирической истины задним числом» настраивает Оценщики Мыслей. Оценщики Мыслей, как мы знаем из Поста №5 – это набор из, может быть, сотен моделей, над каждой из которых проводится обучение с учителем. Ввод этих обученных моделей, то, что я называю «контекстными» сигналами (см. Пост №4), включает нейроны извне предсказательной модели мира, кодирующие «какая мысль сейчас думается». Так что мы получаем функцию (обученную модель), чей ввод включает штуки вроде «активирует ли моя нынешняя мысль абстрактный концепт торта «Принцесса»?», и чей вывод – сигнал, сообщающий Направляющей Подсистеме выделять слюну и пр.)

Я называю этот шаг – в котором подправляются Оценщики Мыслей – «присвоением ценности». Куда больше про этот процесс, включая то, что в нём может пойти не так, будет в следующих постах.

Итак, сейчас Оценщики Мыслей выучили, что как только в модели мира «вспыхивает» концепт «я ем торт «Принцесса»», им следует выдать предсказание соответствующих выбросов гормонов, других реакций и вознаграждения.

7.5 Нацеленное планирование через формирование вознаграждения

У меня нет особенно жёсткой модели этого шага, но, думаю, я могу немного положиться на интуицию, чтобы история была полной:

Напомню, с самого первого моего кусочка торта «Принцесса» два года назад Оценщики Мыслей в моём мозгу инспектируют каждую мысль, которую я думаю, проверяя, не «загорелся»/«активировался» ли в моей модели мира концепт «я ем торт «Принцесса»», и если да, то в какой степени, чтобы предлагать готовиться к вознаграждению, слюновыделению, и так далее.

Диаграмма выше предлагает серию мыслей, которые, я думаю, могли «зажигать» этот концепт в модели мира всё больше и больше, сверху вниз.

Чтобы понять суть, можете представить заметить торт на «солёный крекер». Идите вниз по списку и попытайтесь почувствовать, как каждая мысль заставляет вас выделять всё больше слюны. Или ещё лучше, замените «есть торт» на «пригласить краша на свидание», спускайтесь по списку и почувствуйте, как каждая мысль заставляет ваше сердце всё сильнее колотиться.

Вот другой способ об этом думать: Если вы представите модель мира приблизительно как ГВМ, вы можете представить, что «степень соответствия паттерну» – это примерно как вероятность, присвоенная узлу «поедания торта» в ГВМ. К примеру, если вы уверены в X, а из X слабо следует Y, а из Y слабо следует Z, а из Z слабо следует «поедание торта», то «поедание торта» получает очень низкую, но ненулевую вероятность, то есть слабую активацию, и это сродни обладанию долгосрочного, но не совсем невозможного плана нацеленного на поедание пирога. (Не воспринимайте этот абзац слишком буквально, я тут просто пытаюсь объяснить интуитивные соображения.)

Я в самом деле надеюсь, что такие штуки интуитивно понятны. В конце концов, я видел, как это переизобретали множество раз! К примеру, Дэвид Юм: «Прежде всего мне бросается в глаза тот факт, что между нашими впечатлениями и идеями существует большое сходство во всех особенных свойствах, кроме степени их силы и живости». А вот Уильям Джеймс: «Едва ли возможно спутать живейшую картину воображения с слабейшим реальным ощущением.» В обоих случаях, думаю, авторы указывали на идею что воображение активирует некоторые из тех же ментальных конструктов (скрытых переменных в модели мира), что и восприятие, но гораздо слабее.

ОК, если вы всё ещё тут, давайте вернёмся к моей модели принятия решений, теперь с другими подсвеченными частями:


Части диаграммы, важные для процесса создания и исполнения долгосрочного плана обеспечения себя тортом «Принцесса».

Опять же, всякий раз, когда я думаю мысль, Направляющая Подсистема смотрит на соответствующую «оценочную таблицу» и выдаёт соответствующее вознаграждение. Напомню также, что активная мысль / план отбрасывается, если её сигнал вознаграждения отрицателен, и оставляется и усиливается, если он положительна.

Я ненадолго всё упрощу и проигнорирую всё кроме функции ценности (так же известной как Оценщик Мыслей «приведёт ли это к вознаграждению?»). И я также предположу, что Направляющая Подсистема просто доверяет предложенному значению, а не перехватывает его (см. Пост №6, Раздел 6.4.1). В таком случае, каждый раз, когда наши мысли переходят ниже по фиолетовой стрелке с диаграммы выше – от спокойных раздумий о торте к гипотетическому плану достать торт, к решению достать торт, и т.д. – происходит немедленное положительное вознаграждение, так что новая мыль усиливается и остаётся. И напротив, каждый раз, когда мы двигаемся по списку обратно – от решения к гипотетическому плану к размышлениям – происходит немедленное отрицательное вознаграждение, так что мысль отбрасывается и мы возвращаемся к предыдущей. Это как храповик! Система естественным путём продвигается по списку, создавая и исполняя хороший план, чтобы съесть торт.

Вот всё и получилось! Я думаю, что с такой позиции вполне объясняется полный набор поведений, ассоциируемых с людьми, планирующими для достижения явных целей – включая знание того, что у тебя есть цель, составление плана, исполнение инструментальных стратегий как части плана, замену хороших планов на планы ещё лучше, обновление плана при изменении ситуации, напрасную тоску по недостижимым целям и так далее.

7.5.1 Другие Оценщики Мыслей. Или: героическое деяния заказывания торта на следующую неделю, когда прямо сейчас тошно

Кстати, а что другие Оценщики Мыслей? Торт «Принцесса», в конце концов, ассоциируется не только с «приведёт к вознаграждению», но ещё и с «приведёт к сладкому вкусу», «приведёт к слюновыделению», и т.д. Играет ли это какую-то роль?

Конечно! Для начала, когда я подношу вилку ко рту, в самом конце исполнения моего плана поедания торта, я начинаю выделять слюну и выбрасывать кортизол в предвкушении.

Но что насчёт процесса долгосрочного планирования (звонок в пекарню и т.д.)? Я думаю, другие, не относящиеся к функции ценности, Оценщики Мыслей имеют значение и тут – по крайней мере в какой-то степени.[1]

К примеру, представьте, что вы чувствуете ужасную тошноту. Конечно, ваша Направляющая Подсистема знает, что вы чувствуете ужасную тошноту. И предположим, что она видит, что вы думаете мысль, которая, кажется, приведёт к еде. В этом случае Направляющая Подсистема может сказать: «Ужасная мысль! Отрицательное вознаграждение!»

ОК, вот вы чувствуете тошноту, но берёте свой телефон, чтобы оформить заказ в пекарне. Мысль слабо, но заметно помечается Оценщиком Мыслей как «скорее всего приведёт к еде». Ваша Направляющая Подсистема видит это и говорит «Фуу, с учётом нынешней тошноты это кажется плохой мыслью». Мысль ощущается немного отталкивающей. «Блин, я действительно заказываю этот огромный торт??», говорите вы себе.

Логически, вы знаете, что на следующей неделе, когда вы на самом деле получите торт, вы больше не будете чувствовать тошноту, и будете очень рады, что у вас есть торт. Но всё же прямо сейчас вы чувствуете, что заказывать его несколько противно и демотивирующе.

Заказываете ли вы его всё равно? Конечно! Может, функция ценности (Оценщик Мыслей «это приведёт к вознаграждению») достаточно сильна, чтобы перевесить Оценщик Мыслей «это приведёт к еде». Или, может быть, вы используете иную мотивацию: представляете себя как думающего наперёд человека, принимающего хорошие осмысленные решения, а не застревающего в текущем моменте. Это другая мысль в вашей голове, активирующая другой набор Оценщиков Мыслей, и, может, она получает высокую оценку Направляющей Подсистемы. В любом случае, вы действительно звоните в пекарню, чтобы заказать торт на следующую неделю. Что за героизм!

———

  1. В сторону: Я думаю, что в сравнении с прочими Оценщиками Мыслей функция ценности «меньше обесценивается» (фактор обесценивания ближе к 1.0), так что сложные непрямые далёкие-во-времени планы в основном руководствуются функцией ценности. Эта догадка происходит из психологической литературы по «обучению стимулов», но это тема для отдельного поста. В любом случае, это не всё-или-ничего; полагаю, прочие оценщики по меньшей мере хоть сколько-то важны, даже для далёких планов, как и в примере здесь.
Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

8. Отходим от нейробиологии, 1 из 2: Про разработку СИИ

Стивен Бирнс

8.1 Краткое содержание / Оглавление

Ранее в цепочке: в Посте №1 была описана моя общая мотивация, что такое «безопасность подобного-мозгу СИИ» и почему это нас заботит. Следующие шесть постов (№2-7) погрузились в нейробиологию. Посты №2-3 представили способ разделения мозга на «Обучающуюся Подсистему» и «Направляющую Подсистему», разделённые по признаку того, выполняют ли они то, что я называю «обучением с чистого листа». Затем посты №4-7 представили большую картину того, как по моему мнению работают цели и мотивации в мозгу, это оказалось похожим на причудливый вариант основанного на модели обучения с подкреплением «субъект-критик».

Теперь, установив нейробиологический фундамент, мы наконец-то можем более явно переключиться на тему подобного-мозгу СИИ. В качестве начальной точки размышлений вот диаграмма из Поста №6, отредактированная, чтобы описывать подобный-мозгу СИИ вместо настоящего мозга:


Диаграмма из Поста №6 с четырьмя изменениями, благодаря которым она теперь описывает подобный-мозгу СИИ, а не настоящий мозг: (1) справа сверху «время жизни» заменено на «обучение модели» (Раздел 8.2 ниже); (2) снизу справа «генетически закодированы» заменено на «[наверное] написаны людьми» (Разделы 8.3-8.4 ниже); (3) упоминания конкретных областей мозга вроде «миндалевидного тела» зачёркнуты, чтобы позже их можно было заменить частями исходного кода и/или наборами параметров обученной модели; (4) прочие биологически-специфичные слова вроде «сахара» зачёркнуты, чтобы позже их можно было заменить чем нам захочется, как я опишу в будущих постах.

Этот и следующий посты извлекут из прошлых обсуждений некоторые уроки о подобном-мозгу СИИ. Этот пост будет сосредоточен на том, как такой СИИ может быть разработан, а следующий – на его мотивациях и целях. После этого Пост №10 обсудит знаменитую «задачу согласования» (наконец-то!), а затем несколько постов буду посвящены возможным путям к её решению. Наконец, в Посте №15 я закончу цепочку открытыми вопросами, направлениями для будущих исследований и тем, как войти в эту область.

Вернёмся к этому посту. Тема: «Как, с учётом обсуждения нейробиологии в предыдущих постах, нам следует думать о процессе разработки софта для подобного-мозгу СИИ?». В частности, какова будет роль написанного людьми исходного кода, а какова – настраиваемых параметров («весов»), значения которых находят алгоритмы обучения?

Содержание:

  • Раздел 8.2 предлагает, что в процессе разработки подобного-мозгу СИИ «времени жизни животного» хорошо соответствует «обучение модели». Я опишу, как много времени оно может занять: я утверждаю, что, несмотря на пример людей, которым требуются годы/десятилетия, чтобы достичь высокого уровня компетенции и интеллекта, вполне правдоподобно, что время обучения подобного-мозгу СИИ будет измеряться неделями/месяцами. Я также обосную, что подобный-мозгу СИИ, как и мозг, будет работать в режиме онлайнового обучения, а не обучения-а-потом-развёртывания, и укажу некоторые следствия этого для экономики и безопасности.
  • Раздел 8.3 описывает возможность «внешнего цикла» автоматического поиска, аналогичного эволюции. Я обосную, что скорее всего он будет играть разве что небольшую роль, возможно, оптимизации гиперпараметров или чего-то в таком роде, и не будет играть большую роль «ведущего проектировщика», создающего алгоритм с чистого листа, несмотря на исторический пример того, как эволюция создала мозг с чистого листа. Я укажу некоторые следствия этого для безопасности СИИ.
  • Раздел 8.4: Хоть я и ожидаю, что «Направляющая Подсистема» будущего СИИ будет в основном состоять из написанного людьми исходного кода, есть и некоторые исключения, и тут я пройдусь по трём: (1) возможность обученных заранее классификаторов изображений или иных подобных модулей, (2) возможность СИИ, «направляющих» другие СИИ, и (3) возможность человеческой обратной связи.

8.2 «Одно время жизни» превращается в «Один обучающий запуск»

Эквивалентом «времени жизни животного» для подобного-мозгу СИИ является «один обучающий запуск». Думайте об этом как о запусках моделей при их обучении в современном ML.

8.2.1 Как много времени займёт обучение модели?

Как много времени займёт «обучающий запуск» подобного-мозгу СИИ?

Для сравнения, люди, по моему скромному мнению, по-настоящему достигают пика в возрасте 37 лет, 4 месяца и 14 дней. Все моложе – наивные дети, а все старше – отсталые старые упрямцы. У-упс, я сказал «14 дней»? Мне следовало сказать «…и 21 день». Простите меня за эту ошибку; я написал это предложение на прошлой неделе, когда ещё был наивным ребёнком.

Ну, что бы это ни было для людей, мы можем спросить: Будет ли это примерно так же для подобных-мозгу СИИ? Не обязательно! См. мой пост Вдохновлённые-мозгом СИИ и «якоря времени жизни» (Раздел 6.2) за моими аргументами о том, что время-на-часах, необходимое, чтобы обучить подобный-мозгу СИИ до состояния мощного обобщённого интеллекта с чистого листа, очень сложно предсказать заранее, но вполне правдоподобно, что оно может быть коротким – недели/месяцы, а не годы/десятилетия.

8.2.2 Онлайновое обучение подразумевает отсутствие фундаментального разделения обучения/развёртывания

Мозг работает по принципу онлайнового обучения: он постоянно обучается во время жизни, вместо отдельных «эпизодов», перемежаемых «обновлениями» (более популярный подход в современном машинном обучении). Я думаю, что онлайновое обучение очень критично для того, как работает мозг, и что любая система, которую стоит называть «подобным-мозгу СИИ», будет алгоритмом онлайнового обучения.

Чтобы проиллюстрировать разницу между онлайновым и оффлайновым обучением, рассмотрим два сценария:

  1. Во время обучения, СИИ натыкается на два противоречащих друг другу ожидания (например, «кривые спроса обычно снижаются» и «много исследований показывают, что минимальные зарплаты не приводят к безработице»). СИИ обновляет свои внутренние модели для более детального и полного понимания, примиряющего эти два наблюдения. В дальнейшем он может использовать это новое знание.
  2. То же самое с тем же самым результатом происходит во время развёртывания.

В случае онлайнового обучения подобного-мозгу СИИ различия нет. В обоих случаях один и тот же алгоритм делает одно и то же.

Напротив, в случае систем машинного оффлайнового обучения (например, GPT-3), эти два случая обрабатываются двумя отдельными алгоритмическими процессами. Случай №1 включал бы изменения весов модели, тогда как случай №2 включал бы только изменения её активаций.

Для меня это важный довод в пользу подхода онлайнового обучения. Оно требует решать задачу только один раз, а не два раза разными способами. И не просто какую-то задачу; это вроде бы центральная для СИИ задача!

Я хочу ещё раз подчеркнуть, насколько ключевую роль в мозгу (и в подобных-мозгу СИИ) играет онлайновое обучение. Человек без онлайнового обучения – это человек с полной антероградной амнезией. Если вы представились мне как «Фред» и через минуту я обращаюсь к вам «Фред», то я могу поблагодарить онлайновое обучение за то, что оно поместило этот кусочек знания в мой мозг.

8.2.3 …Всё же, общепризнанная в области машинного обучения мудрость о том, что «обучение дороже развёртывания», всё ещё более-менее применима

В нынешнем машинном обучении общеизвестно, что обучение дороже развёртывания. К примеру, в OpenAI, как утверждается, потратили около $10 млн на обучение GPT-3 – т.е. чтобы получить волшебный список из 175 миллиардов чисел, служащих весами GPT-3. Но теперь, когда у них на руках есть этот список из 175 миллиардов чисел, запуск GPT-3 дёшев как грязь – последний раз, когда я проверял, OpenAI брали примерно $0.02 за страницу сгенерированного текста.

Благодаря онлайновому обучению подобные-мозгу СИИ не будут иметь фундаментального различия между обучением и развёртыванием, как и обсуждалось в предыдущем разделе. Однако, экономика остаётся схожей.

Представьте трату десятилетий на выращивание ребёнка от рождения, пока он не станет умелым и эрудированным взрослым, возможно, с дополнительным обучением в математике, науке, инженерии, программированию, и т.д.

Теперь представьте, что у вас есть научно-фантастическая клонирующая машина, которая может мгновенно создать 1000 копий этого взрослого. Вы посылаете их на 1000 разных работ. Ладно, каждая копия, вероятно, будет нуждаться в дополнительном обучении этой работе, чтобы выйти на полную продуктивность. Но им не потребуются десятилетия дополнительного обучения, как от рождения до взрослого состояния. (Больше об этом в блоге Холдена Карнофски.)

Так что, как и в обычном машинном обучении, остаётся большая стоимость изначального обучения, и её, в принципе, можно смягчить созданием множества копий.

8.2.4 Онлайновое обучение вредит безопасности, но совершенно необходимо для способностей

Я утверждаю, что онлайновое обучение создаёт неприятные проблемы для безопасности СИИ. К сожалению, я также утверждаю, что если мы вовсе создадим СИИ, то нам понадобится онлайновое обучение или что-то с схожими эффектами. Давайте по очереди разберёмся с обоими утверждениями.

Онлайновое обучение вредит безопасности:

Давайте переключимся на людей. Предположим, я прямо сейчас приношу присягу как президент страны, и я хочу всегда в первую очередь заботиться о благе своего народа и не поддаваться песне сирен коррупции. Что я могу сделать прямо сейчас, чтобы контролировать, как будет вести себя будущий я? Неочевидно, правда? Может, даже, невозможно!

У нынешнего меня просто нет естественного и надёжного способа указать будущему мне, что хотеть делать. Лучшее, что я могу сделать – много маленьких хаков, предсказать конкретные проблемы и попробовать их предотвратить. Я могу связать себе руки, выдав честному бухгалтеру все пароли моих банковских счетов и попросить меня сдать, если там будет что-то подозрительное. Я могу устраивать регулярные встречи с надёжным осмотрительным другом. Такие способы немного помогают, но опять же, они не дают надёжного решения.

Аналогично, у нас может быть СИИ, который прямо сейчас честно пытается действовать этично и полезно. Потом он какое-то время работает, думает новые мысли, получает новые идеи, читает новые книги и испытывает новый опыт. Будет ли он всё ещё честно пытаться действовать этично и полезно через шесть месяцев? Может быть! Надеюсь! Но как мы можем быть уверены? Это один из многих открытых вопросов в безопасности СИИ.

(Может, вы думаете: мы могли бы периодически создавать бэкап СИИ-сейчас, и давать ему право вето на изменения СИИ-потом? Я думаю, это осмысленная идея, может быть даже хорошая. Но это не панацея. Что если СИИ-потом сообразит, как обмануть СИИ-сейчас? Или что если СИИ-потом меняется к лучшему, а СИИ-сейчас продолжает его сдерживать? Ведь более молодой я был наивным ребёнком!)

Онлайновое обучение (или что-то с схожими проблемами безопасности) необходимо для способностей:

Я ожидаю, что СИИ будут использовать онлайновое обучение, потому что я думаю, что это эффективный метод создания СИИ – см. обсуждение «решения одной и той же задачи дважды» выше (Раздел 8.2.2).

Однако, я всё же могу представить другие варианты, которые формально не являются «онлайновым обучением», но имеют схожие эффекты и ставят по сути те же вызовы безопасности, т.е. затрудняют возможность увериться, что изначально безопасный СИИ продолжает быть безопасным.

Мне куда сложнее представить способ избежать этих проблем. В самом деле:

  • Если СИИ может думать новые мысли и получать новые идеи и узнавать новые знания «при развёртывании», то мы, кажется, стоим перед этой же проблемой нестабильности целей. (См., к примеру, проблему «онтологического кризиса»; больше об этом в следующих постах.)
  • Если СИИ не может ничего из этого, действительно ли это СИИ? Будет ли он действительно способен на то, что мы хотим от СИИ, вроде составления новых концепций и изобретения новых технологий? Я подозреваю, что нет.

8.3 Подобный-эволюции внешний цикл автоматического поиска: может и вовлечён, но не «ведущий проектировщик»

Под «внешним циклом» подразумевается больший из двух вложенных циклов контроля потока исполнения. «Внутренним циклом» может быть код, симулирующий жизнь виртуального животного, секунду за секундой, от рождения до смерти. Тогда «внешний цикл поиска» будет симулировать много разных животных, с своими настройками мозга у каждого, в поисках того, которое (в взрослом состоянии) продемонстрирует максимальный интеллект. Прижизненное обучение происходит в внутреннем цикле, а внешний цикл аналогичен эволюции.

Вот пример крайнего случая проектирования с основной ролью внешнего цикла, где (можно предположить) люди пишут код, исполняющий подобный-эволюции алгоритм внешнего цикла, который создаёт СИИ с чистого листа:


Две модели разработки СИИ. Модель слева напрямую аналогична тому, как эволюция создала человеческий мозг. Модель справа использует аналогию между геномом и исходным кодом, определяющим алгоритм машинного обучения, как будет описано в следующем подразделе.

Подход эволюции-с-чистого-листа (левый) регулярно обсуждается в технической литературе по безопасности СИИ – см. Риски Выученной Оптимизации и десятки других постов про так называемые «меса-оптимизаторы».

Однако, как указано в диаграмме, этот подход – не то, как, по моим ожиданиям, люди создадут СИИ, по причинам, которые я вскоре объясню.

Несмотря на это, я всё же не полностью отвергаю идею внешнего цикла поиска; я ожидаю, что он будет присутствовать, хоть и с более ограниченной ролью. В частности, когда будущие программисты будут писать алгоритмы подобного-мозгу СИИ, в его исходном коде будет некоторое количество настраиваемых параметров, оптимальные значения которых не будут априори очевидными. Они могут включать, например, гиперпараметры обучающихся алгоритмов (как скорость обучения), разные аспекты нейронной архитектуры, и коэффициенты, настраивающие относительную силу разных встроенных стремлений.

Я думаю, весьма правдоподобно, что будущие программисты СИИ будут использовать автоматизированный внешний цикл поиска для установки значений многих или всех этих настраиваемых параметров.

(Или нет! К примеру, как я понимаю, изначальное обучение GPT-3 было таким дорогим, что его сделали только один раз, без точной настройки гиперпараметров. Вместо этого, гиперпараметры систематически изучили на меньших моделях, и исследователи обнаружили тенденции, которые смогли экстраполировать на полноразмерную модель.)

(Ничто из этого не подразумевает, что алгоритмы обучения с чистого листа не важны для подобного-мозгу СИИ. Совсем наоборот, они играют огромную роль! Но эта огромная роль заключена во внутреннем цикле – т.е. в прижизненном обучении. См. Пост №2.)

8.3.1 Аналогия «Геном = ML-код»

В диаграмме выше я написал «геном = ML-код». Это указывает на аналогию между подобным-мозгу СИИ и современным машинным обучением, как в этой таблице:

**Аналогия «Геном = ML-код»**
Человеческий интеллект Современные системы машинного обучения
Геном человека Репозиторий на GitHub с всем необходимым PyTorch-кодом, необходимым для обучения и запуска играющего в Pac-Man агента
Прижизненное обучение Обучение играющего в Pac-Man агента
Как думает и действует взрослый человек Играющий в Pac-Man обученный агент
Эволюция *Может быть,* исследователи использовали внешний цикл поиска для некоторых понятных людям настраиваемых параметров – например, подправляя гиперпараметры, или отыскивая лучшую нейронную архитектуру.

8.3.2 Почему я думаю, что «эволюция с чистого листа» менее вероятна (как метод разработки СИИ), чем «геном = ML-код»

(См. также мой пост от марта 2021 года: Против эволюции как аналогии того, как люди создадут СИИ.)

Я думаю, лучший аргумент против модели эволюции с чистого листа – это непрерывность: «геном = ML-код» – это то, как сейчас работает машинное обучение. Откройте случайную статью по обучению с подкреплением и взгляните на обучающийся алгоритм. Вы увидите, что он интерпретируем для человека, и в основном или полностью спроектирован людьми – наверное, с использованием штук вроде градиентного спуска, обучения методом Временных Разниц и т.д. То же для алгоритма вывода, функции вознаграждения и т.д. Как максимум, в коде обучающегося алгоритма будет пара десятков или сотен бит информации, пришедшей из внешнего цикла поиска, вроде конкретных значений гиперпараметров, составляющих крохотную долю «работы проектирования», влитой в этот алгоритм.[1]

К тому же, если бы будущее было за первостепенным внешним циклом поиска, я ожидал бы, что сейчас мы бы наблюдали, что проекты машинного обучения, больше всего полагающиеся на внешний цикл поиска, чаще встречались бы среди самых впечатляющих прорывных результатов. Насколько я могу посудить, это вовсе не так.

Я лишь предполагаю, что эта тенденция продолжится – по тем же причинам, что и сейчас: люди довольно хороши в проектировании обучающихся алгоритмов, и, одновременно с этим, внешний цикл поиска обучающихся алгоритмов крайне медленен и дорог. 

(Ладно, то, что «крайне медленно и дорого» сегодня, будет быстрее и дешевле в будущем. Однако, когда по прошествии времени будущие исследователи машинного обучения смогут позволить себе большие вычислительные мощности, я ожидаю, что, как и сегодняшние исследователи, они обычно будут «тратить» их на бОльшие модели, лучшие процедуры обучения и так далее, а не на больший внешний цикл поиска.)

С учётом всего этого, почему некоторые люди готовы многое поставить на модель «эволюции с чистого листа»? Я думаю, это сводится к вопросу: Насколько вообще сложно может быть написать исходный код для модели «геном = ML-код»?

Если ваш ответ «это невозможно» или «это займёт сотни лет», то эволюция с чистого листа выигрывает по умолчанию! С этой точки зрения, даже если внешний цикл поиска потребует триллионы долларов и десятилетия реального времени и гигаватты электричества, это всё равно кратчайший путь к СИИ, и рано или поздно какое-то правительство или компания вложат деньги и потратят время, чтобы это произошло[2].

Однако, я не думаю, что написание исходного кода для модели «геном = ML-код» – дело на сотни лет. Напротив, я думаю, что это вполне посильно, и что исследователи в областях ИИ и нейробиологии двигают прогресс в этом направлении, и что они могут преуспеть в ближайшие десятилетия. За объяснениями, почему я так думаю, см. обсуждение «сроков до подобного-мозгу СИИ» ранее в цепочке – Разделы 2.8, 3.7 и 3.8.

8.3.3 Почему «эволюция с чистого листа» хуже чем «геном = ML-код» (с точки зрения безопасности)

Это один из редких случаев, где «то, что я ожидаю по умолчанию» совпадает с «тем, на что я надеюсь»! В самом деле, модель «геном = ML-код», которую я подразумеваю в этой цепочке, кажется куда более многообещающей для безопасности СИИ, чем модель «эволюции с чистого листа». Тому есть две причины.

Первая – интерпретируемость человеком. В модели «геном = ML-код» с ней плохо. Но в модели «эволюция с чистого листа» с ней ещё хуже!

В первом случае модель мира – это большой обучившийся с чистого листа чёрный ящик. И функция ценности и многое другое тоже, и нам надо будет много работать над пониманием их содержимого. Во втором случае, у нас будет только один ещё больший чёрный ящик. Нам повезёт, если мы вообще найдём там модель мира, функцию ценности, и т.д., не то что поймём их содержимое!

Вторая причина, которая будет подробно рассмотрена в следующих постах, в том, что осторожное проектирование Направляющей Подсистемы – это один из наших самых мощных рычагов контроля цель и мотиваций подобного-мозгу СИИ, который может обеспечить нам безопасное и выгодное поведение. Если мы сами пишем код Направляющей Подсистемы, то мы имеем полный контроль нам тем, как она работает и прозрачность того, что она делает при работе. Когда же мы использует модель эволюции с чистого листа, у нас есть намного меньше контроля и понимания.

Для ясности, безопасность СИИ – нерешённая задача и в случае «геном = ML-код». Я только говорю, что, по видимости, подход эволюции с чистого листа делает эту задачу ещё сложнее.

(Примечание для ясности: это обсуждение предполагает, что у нас будет именно подобный-мозгу СИИ в обоих случаях. Я не делаю заявлений о большей или меньшей безопасности подобного-мозгу СИИ в сравнении с не-подобным-мозгу СИИ, если такой возможен.)

8.3.3.1 Хорошая ли идея создавать подобные человеческим социальные инстинкты при помощи эволюции агентов в социальном окружении?

Возможное возражение, которое я иногда встречаю: «Люди не так плохи, а нашу Направляющую Подсистему спроектировала эволюция, верно? Может, если мы проведём подобный эволюции внешний цикл поиска в окружении, где много СИИ должны кооперироваться, то они заполучат альтруизм и другие подобные социальные инстинкты!» (Я думаю, что какие-то такие соображения стоят за проектами вроде DeepMind Melting Pot.)

У меня на это есть три ответа.

  • Во-первых, у меня сложилось впечатление (в основном от чтения Парадокса Доброты Ричарда Рэнгэма), что есть огромная разница между человеческими социальными инстинктами, социальными инстинктами шимпанзе, социальными инстинктами бонобо, социальными инстинктами волков, и так далее. К примеру, у шимпанзе и волков намного более высокая «реактивная агрессия», чем у людей и бонобо, хотя все четыре вида очень социальны. Эволюционное давление, приводящее к социальным инстинктам, очень чувствительно к динамике власти и другим аспектам социальных групп, и, возможно, обладает несколькими точками устойчивого равновесия, так что кажется, что его было бы сложно контролировать, подстраивая параметры виртуального окружения.
  • Во-вторых, если мы создадим виртуальное окружение стимулирующее СИИ кооперироваться с другими СИИ, то мы получим СИИ, имеющих кооперативные социальные инстинкты по отношению к другим СИИ в их виртуальном окружении. Но хотим мы, чтобы СИИ имели кооперативные социальные инстинкты по отношению к людям в реальном мире. Направляющая Подсистема, создающая первые может обобщаться, а может и не обобщаться до вторых. Люди, заметим, часто испытывают сочувствие по отношению к своим друзьям, но редко – по отношению к членам враждебного племени, фабрично разводимым животным и большим волосатым паукам.
  • В-третьих, человеческие социальные инстинкты – не всё, чего нам хочется! К примеру, есть версия (по-моему, правдоподобная), что низкая, но не нулевая распространённость психопатии у людей – не случайный глюк, а скорее выгодная стратегия с точки зрения эгоистичных генов и эволюционной теории игр. Аналогично, эволюция спроектировала людей с завистью, злобой, подростковыми бунтами, кровожадностью, и так далее. И вот так мы хотим спроектировать наши СИИ?? Ой.

8.4 Другие не закодированные вручную штуки, которые могут быть в Направляющей Подсистеме будущего подобного-мозгу СИИ

Как обсуждалось в Посте №3, я утверждаю, что Направляющая Подсистема (т.е. гипоталамус и мозговой ствол) мозгов млекопитающих состоит из генетически-закодированных алгоритмов. (За подробностями см. Пост №2, Раздел 2.3.3)

Когда мы переключаемся на СИИ, у меня есть соответствующее ожидание, что Направляющая Подсистема будущих СИИ будет состоять в основном и написанного людьми кода – как типично написанные людьми функции вознаграждения современных агентов обучения с подкреплением.

Однако, она может быть не полностью написана людьми. Для начала, как обсуждалось в предыдущем разделе, значения некоторого количества настраиваемых параметров, например, относительные силы встроенных стремлений, могут быть выяснены внешним циклом поиска. Вот ещё три возможных исключения из моего общего ожидания, что Направляющая Подсистема СИИ будет состоять из написанного людьми кода.

8.4.1 Заранее обученные классификаторы изображений и т.п.

Правдоподобно звучит, что составляющей Направляющей Подсистемы СИИ будет что-то вроде обученного классификатора изображений ConvNet. Это было бы аналогично тому, что в верхнем двухолмии человека есть что-то-вроде-классификатора-изображений для распознавания заранее заданного набора определённо-важных категорий, вроде змей, пауков и лиц (см. Пост №3, Раздел 3.2.1). Аналогично, могут быть обученные классификаторы для аудио- и других сенсорных вводов.

8.4.2 Башня СИИ, направляющих СИИ?

В принципе, вместо нормальной Направляющей Подсистемы мог бы быть целый отдельный СИИ, присматривающий за мыслями в Обучающейся Подсистеме и посылающий соответствующие вознаграждения.

Чёрт, можно даже создать целую башню СИИ-направляющих-СИИ! Предположительно, СИИ становились бы более сложными и мощными по мере восхождения на башню, достаточно медленно, чтобы каждый СИИ справлялся с задачей направления СИИ на уровень выше. (Ещё это могла бы быть пирамида, а не башня, с несколькими более глупыми СИИ, совместно составляющими Направляющую Подсистему более умного СИИ.)

Я не думаю, что такой подход точно бесполезен. Но мне кажется, что мы всё ещё не добрались до первого этапа, на котором мы создаём хоть какой-то безопасный СИИ. Создание башни СИИ-направляющих-СИИ не избавляет нас от необходимости сначала сделать один безопасный СИИ другим способом. Башне нужно основание!

Когда мы решим эту первую большую задачу, тогда мы сможем думать о том, чтобы использовать этот СИИ напрямую для решения человеческих проблем или косвенно, для направления ещё-более-мощных СИИ, аналогично тому, как люди пытаются направлять самый первый.

Я склоняюсь к тому, что возможность «использовать этот первый СИИ напрямую» более многообещающая, чем «использовать этот первый СИИ для направления второго, более мощного, СИИ». Но я могу быть неправ. В любом случае, сначала нам нужно до этого добраться.

8.4.3 Люди, направляющие СИИ?

Если Направляющей Подсистемой СИИ могут (предположительно) быть другой СИИ, то почему ею не может быть человек?

Ответ: если СИИ работает со скоростью мозга человека, то он может думать 3 мысли в секунду (или около того). Каждая «мысль» потребует соответствующего вознаграждения, и, может, десятков других сигналов эмпирической истины. Человек не сможет за этим поспевать!

Что можно – это сделать человеческую обратную связь вводом Направляющей Подсистемы. К примеру, мы можем дать людям большую красную кнопку с надписью “ВОЗНАГРАЖДЕНИЕ». (Нам, наверное, не стоит так делать, но мы можем.) Мы также можем вовлекать людей иными способами, включая не имеющие биологических аналогов – стоит быть открытыми к идеям.

———

  1. К примеру, вот случайная статья по поиску нейронной архитектуры (NAS): «Эволюционирующий трансформер». Авторы хвастаются своим «большим пространством поиска», и оно действительно большое по меркам NAS. Но поиск по этому пространству всё же выдаёт лишь 385 бит информации, и его результат умещается в одну легко понятную человеку диаграмму из этой статьи. Для сравнения, веса обученной модели легко могут составлять миллионы или миллиарды бит информации, а конечный результат требует героических усилий для понимания. Мы также можем сравнить эти 385 бит с информацией в созданных людьми частях исходного кода обучающегося алгоритма, вроде кода умножения матриц, Softmax, Autograd, передачи данных между GPU и CPU, и так далее. Это будет на порядки больше, чем 385 бит. Это то, что я имел в виду, говоря, что штуки вроде подстройки гиперпараметров и NAS составляют крохотную долю общей «работы проектирования» над обучающимся алгоритмом.
    (Наиболее полагающаяся на внешний цикл поиска статья, которую я знаю – это статья про AutoML-Zero, и даже там внешний цикл выдал по сути 16 строк кода, которые были легко интерпретируемы авторами.)

  2. Если вам любопытны приблизительные оценки того, как много времени и денег потребует выполнение вычислений, эквивалентных всей истории эволюции животных на Земле, см. обсуждение про «Эволюционные якоря» в докладе Аджейи Котры по биологическим якорям 2020 года. Очевидно, это не в точности то же, что и вычисления, необходимые для разработки СИИ методом эволюции с чистого листа, но это всё же имеет какое-то отношение. Я не буду больше говорить на эту тему; не думаю, что это важно, потому что в любом случае не ожидаю разработки СИИ методом эволюции с чистого листа.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

9. Отходим от нейробиологии, 2 из 2: Про мотивацию СИИ

Стивен Бирнс

9.1 Краткое содержание / Оглавление

Большая часть предыдущих постов цепочки – №2-7 – были в основном про нейробиологию. Теперь, начиная с предыдущего поста, мы применяем эти идеи для лучшего понимания безопасности подобного-мозгу СИИ (определённого в Посте №1).

В этом посте я рассмотрю некоторые темы, связанные с мотивациями и целями подобного-мозгу СИИ. Мотивации очень важны для безопасности СИИ. В конце концов, наши перспективы становятся намного лучше, если будущие СИИ будут мотивированы на достижение замечательного будущего, где люди процветают, а не мотивированы всех убить. Чтобы получить первое, а не второе, нам надо понять, как работает мотивация у подобных-мозгу СИИ, и, в частности, как направить её в нужном направлении. Этот пост охватит разнообразные темы из этой области.

Содержание:

  • Раздел 9.2 посвящён тому, что цели и предпочтения подобного-мозгу СИИ определяются в терминах скрытых переменных в его модели мира. Они могут быть связаны с исходами, действиями или планами, но не являются ни одной из этих вещей в точности. К тому же, алгоритмы в целом не проводят различий между инструментальными и терминальными целями.
  • Раздел 9.3 содержит более глубокое обсуждение «присвоения ценности», которое я представил в описании примера в Посте №7 (Раздел 7.4). «Присвоение ценности», как я использую этот термин в этой цепочке – это синоним «обновления Оценщиков Мыслей», процесс в котором концепт (= скрытая переменная в модели мира) может «окраситься» положительной или отрицательной валентностью и/или начать запуск непроизвольных внутренних реакций (в случае человека). Такое «присвоение ценности» – ключевой ингредиент того, как СИИ может захотеть что-то делать.
  • Раздел 9.4 определяет «вайрхединг». Примером «вайрхединга» был бы СИИ, взламывающий себя и устанавливающий регистр «вознаграждения» в своей оперативной памяти на максимально возможное значение. Я аргументирую мнение, что подобный-мозгу СИИ будет «по умолчанию» иметь «слабое стремление к вайрхедингу» (желание сделать это при прочих равных), но, наверное, не «сильное стремление к вайрхедингу» (рассмотрение этого как лучшего возможного варианта, которого стоит добиться любой ценой).
  • Раздел 9.5 проговаривает следствия из обсуждения вайрхединга в предыдущем разделе: подобный-мозгу СИИ в общем случае НЕ пытается максимизировать своё будущее вознаграждение. Я приведу человеческий пример, и свяжу его с концептом «агентов наблюдаемой полезности» из литературы.
  • Раздел 9.6 обосновывает, что в случае подобных-мозгу СИИ Оценщики Мыслей связывают мотивацию с интерпретируемостью нейросети. К примеру, суждение «Эта мысль / этот план скорее всего приведут к еде» – это одновременно (1) данные, вкладывающиеся в интерпретируемость мысли/плана из выученной модели мира, и (2) сигнал о том, что мысль / план стоящие, если мы голодны. (Это применимо к любой системе обучения с подкреплением, совместимой с многомерными функциями ценности, не только к «подобным-мозгу». То же для следующего пункта.)
  • Раздел 9.7 описывает, как мы могли бы «направлять» мотивации СИИ в реальном времени, и как это могло бы повлиять не только на его немедленные действия, но и на долговременные планы и «глубокие желания».

9.2 Цели и желания СИИ определяются в терминах скрытых переменных (выученных концептов) в его модели мира

Нравится ли вам футбол? Ну, «футбол» – это выученный концепт, обитающий внутри вашей модели мира. Такие выученные концепты – это единственное, что может «нравиться». Вам не может нравиться или не нравиться [безымянный паттерн из сенсорного ввода, о котором вы никогда не задумывались]. Возможно, что вы нашли бы этот паттерн вознаграждающим, если бы вы на него наткнулись. Но он не может вам нравиться, потому что сейчас он не является частью вашей модели мира. Это также означает, что вы не можете и не будете составлять целенаправленный план для вызова этого безымянного паттерна.

Я думаю, это ясно из интроспекции, и думаю, что это так же ясно из нашей картины мотивации (см. Посты №6-7). Я там использовал термин «мысль» в широком смысле, включающем всё осознанное и более того – что вы планируете, видите, вспоминаете, понимаете, предпринимаете, и т.д. «Мысль» – это то, что оценивают Оценщики Мыслей, и она состоит из некоторой конфигурации выученных скрытых переменных в вашей генеративной модели мира.


Наша модель мотивации – см. Пост №6 за подробностями

Почему важно, чтобы цели СИИ были определены в терминах скрытых переменных его модели мира? Много причин! Они будут снова и снова всплывать в этом и будущих постах.

9.2.1 Следствия для «согласования ценностей» с людьми

Наблюдение выше – одна из причин, почему «согласование ценностей» человека и СИИ – чертовски запутанная задача. У подобного-мозгу СИИ будут скрытые переменные в его выученной модели мира, а у человека скрытые переменные в его модели мира, но это разные модели мира, и скрытые переменные в одной могут иметь сложное и проблематичное соответствие с скрытыми переменными в другой. К примеру, человеческие скрытые переменные могут включать штуки вроде «привидений», которые не соответствуют ничему в реальном мире! Для большего раскрытия этой тему, см. пост Джона Вентворта Проблема Указателей.

(Я в этой цепочке не скажу многого про «определение человеческих ценностей» – я хочу придерживаться более узкой задачи «избегания катастрофических происшествий с СИИ, таких как вымирание людей», и не думаю, что глубокое погружение в «определение человеческих ценностей» для этого необходимо. Но «определение человеческих ценностей» – всё ещё хорошее дело, и я рад, что люди над этим работают – см., к примеру, 1,2.)

9.2.2 Предпочтения основаны на «мыслях», которые могут быть связаны с исходами, действиями, планами, и т.д., но отличаются от всего этого

Оценщики Мыслей оценивают и сравнивают «мысли», т.е. конфигурации в генеративной модели мира агента. Модель мира неидеальна, полное понимание мира слишком сложно, чтобы поместиться в любом мозгу или кремниевом чипе. Так что «мысль» неизбежно подразумевает обращение внимания на одно и игнорирование другого, коцептуализацию вещей определённым образом, приписывание их к ближайшим доступным категориям, даже если они не подходят идеально, и т.д.

Некоторые следствия:

  • Вы можете концептуализировать одну и ту же последовательность моторных действий многими разными способами, и она будет более или менее привлекательна в зависимости от того, как вы о ней думаете: возьмём мысль «я собираюсь пойти в спортзал» и мысль «я собираюсь пойти в спортзал, чтобы накачаться». См. связанное обсуждение в (Мозговой ствол, Неокортекс) ≠ (Базовые Мотивации, Благородные Мотивации).
  • Аналогично, вы можете концептуализировать одно и то же будущее состояние мира многими разными способами, например, обращая внимание на разные его аспекты, и оно будет казаться более или менее привлекательным. Это может приводить к циклическим предпочтениям; я поместил пример в сноску[1].
  • Мысль может затрагивать немедленные действия, будущие действия, семантический контекст, ожидания, что произойдёт, пока мы будем что-то делать, ожидания, что произойдёт в результате, и т.д. Так что мы можем иметь «консеквенциалистские» предпочтения о будущих состояниях или «деонтологические» предпочтения о действиях, и т.д. К примеру, мысль «Я сейчас пойду в магазин, и у меня будет молоко» включает нейроны, связанные с действием «Я сейчас пойду в магазин», и нейроны, связанные с последствием «У меня будет молоко»; Оценщики Мыслей и Направляющая Подсистема могут одобрить или отвергнуть мысль, основываясь на чём угодно из этого. См. Консеквенциализм & Исправимость за развитием темы.
  • Ничто из этого не подразумевает, что подобный-мозгу СИИ не может приближаться к идеальному консеквенциалистскому максимизатору полезности! Только что это будет свойством конкретной обученной модели, а не неотъемлемым качеством исходного кода СИИ. К примеру, подобный-мозгу СИИ может прочитать Цепочки (как и человек), и усвоить уроки из них как набор выученных метакогнитивных эвристик, отлавливающих и исправляющих ошибочные интуитивные заключения и мыслительные привычки, вредящие эффективности[2] (как и человек), и СИИ на самом деле может сделать это по тем же причинам, что и читающий Цепочки человек, ~~то есть, чтобы пройти тридцатичасовую ритуальную дедовщину и заслужить членство в группе~~[3] то есть, потому что он хочет ясно мыслить и достигать своих целей.

9.2.3 Инструментальные и терминальные предпочтения, судя по всему, смешаны вместе

Есть интуитивный смысл, в котором у нас есть инструментальные предпочтения (то, что мы предпочитаем, потому что это было полезно в прошлом как средство для достижения цели – например, я предпочитаю носить часы, потому что они помогают мне узнавать который час) и терминальные предпочтения (то, что мы предпочитаем само по себе – например, я предпочитаю чувствовать себя хорошо и предпочитаю не быть загрызенным медведем). Спенсер Гринберг проводил исследование, в котором некоторые, но не все участники описывали «существование красивых вещей в мире» как терминальную цель – их волновало, чтобы красивые вещи были, даже если они расположены глубоко под землёй, где никакое осознающее себя существо их никогда не увидит. Вы согласны или не согласны? Для меня самое интересное тут, что некоторые люди ответят: «Я не знаю, никогда раньше об этом не думал, хммм, дайте секундочку подумать.» Я думаю, из этого можно извлечь урок!

Конкретно: мне кажется, что глубоко в алгоритмах мозга нет различия между инструментальными и терминальными предпочтениями. Если вы думаете мысль, и ваша Направляющая Подсистема одобряет её как высокоценную, то, я думаю, вычисление одинаково в случае, когда она высокоценная по инструментальным или терминальным причинам.

Мне надо прояснить: Вы можете делать инструментальные вещи без того, чтобы они были инструментальными предпочтениями. К примеру, когда я впервые получил смартфон, я иногда вытаскивал его у себя из кармана, чтобы проверить Твиттер. В то время у меня не было самого по себе предпочтения вытаскивания телефона из кармана. Вместо этого я думал мысль вроде «я сейчас вытащу телефон из кармана и проверю Твиттер». Направляющая Подсистема одобряла это как высокоценную мысль, но только из-за второй части мысли, про Твиттер.

Потом, через некоторое время, «присвоение ценности» (следующий раздел) сделало свой фокус и поместило в мой мозг новое предпочтение, предпочтение просто доставать телефон из моего кармана. После этого я стал вытаскивать телефон из кармана без малейшей идеи, почему. И вот теперь это «инструментальное предпочтение».


Формирование привычек – это процесс, в котором присвоение ценности превращает инструментальное *поведение* в инструментальное *предпочтение*.

(Замечу: Только то, что инструментальные и терминальные предпочтения смешаны в человеческом мозгу, не означает, что они обязаны быть смешаны в подобных-мозгу СИИ. К примеру, я могу приблизительно представить некую систему, помечающую концепты положительной валентности некими объяснениями, почему они стали иметь положительную валентность. В примере выше, может быть, что мы могли бы провести пунктирную линию от некоего внутреннего стремления к концепту «Твиттер», а затем от концепта «Твиттер» к концепту «достать телефон из кармана». Я предполагаю, что эти линии не задействовались бы в операциях, проводимых СИИ, но их было бы здорово иметь в целях интерпретируемости. Для ясности, я не знаю, работало бы это или нет, просто накидываю идеи.)

9.3 «Присвоение ценности» – как скрытые переменные окрашиваются валентностью

9.3.1 Что такое «присвоение ценности»?

Я представил идею «присвоения ценности» в Посте №7 (Раздел 7.4), и предлагаю перечитать его сейчас, чтобы у вас в голове был конкретный пример. Вспомните эту диаграмму:


Скопировано из Поста №7, см. контекст там.

Напоминание, у мозга есть «Оценщики Мыслей» (Посты №5 и №6), работающие методом обучения с учителем (с управляющими сигналами из Направляющей Подсистемы). Их роль – переводить скрытые переменные (концепты) модели мира («картины», «налоги», «процветание», и т.д.) в параметры, которые может понять Направляющая Подсистема (боль в руке, уровень сахара в крови, гримасничанье, и т.д.). К примеру, когда я съедаю кусок торта в Посте №7, концепт модели мира («я ем торт») прикрепляется к генетически-осмысленным переменным (сладкий вкус, вознаграждение, и т.д.).

Я называю этот процесс «присвоением ценности» – в том смысле, что абстрактный концепт «я ем торт» приобретает ценность за сладкий вкус.

Кадж Сотала написал несколько поэтическое описание того, что я называю присвоением ценности тут:

Ментальные репрезентации … наполняются чувствительным к контексту притягательным блеском.

Я представляю себе аккуратную кисточку, наносящую положительную валентность на мой ментальный концепт торта «Принцесса». Кроме цвета «валентности» на палитре есть и другие цвета, ассоциированные с другими внутренними реакциями.


Мне иногда нравится визуализировать присвоение ценностей как что-то вроде «раскрашивания» скрытых переменных в предсказательной модели мира ассоциациями с вознаграждением и другими внутренними реакциями.

Присвоение ценности может работать забавным образом. Лиза Фельдман Барретт рассказывала историю как однажды она была на свидании, чувствовала бабочек в животе и думала, что нашла Настоящую Любовь – только чтобы вечером слечь с гриппом! Аналогично, если я приятно удивлён тем, что выиграл соревнование, мой мозг может «присвоить ценность» моей тяжёлой работе и навыкам, а может – тому, что я надел свои счастливые трусы.

Я говорю «мой мозг присваивает ценность» вместо «я присваиваю ценность», потому что не хочу создавать впечатление, будто это какой-то мой произвольный выбор. Присвоение ценности – глупый алгоритм в мозгу. Кстати о нём:

9.3.2 Как работает присвоение ценности? – короткий ответ

Если присвоение ценности – глупый алгоритм в мозгу, какой конкретно это алгоритм?

Я думаю, по крайней мере в первом приближении, очевидный:

Ценность присваивается активной прямо сейчас мысли.

Это «очевидно» в том смысле, что Оценщики Мыслей используют обучение с учителем (см. Пост №4), а это то, что обучение с учителем делает по умолчанию. В конце концов, «контекстный» ввод Оценщика Мыслей описывает, какая мысль активна прямо сейчас, так что если мы сделаем обновление методом градиентного спуска (или что-то функционально на него похожее), то мы получим именно такой «очевидный» алгоритм.

9.3.3 Как работает присвоение ценности? – мелкий шрифт

Я думаю, стоит немного больше поисследовать эту тему, потому что присвоение ценности играет ключевую роль в безопасности СИИ – в конце концов, это то, из-за чего подобный-мозгу СИИ будет хотеть одни штуки больше, чем другие. Так что я перечислю некоторые отдельные мысли о том, как, по моему мнению, это работает у людей.

1. У присвоения ценности могут быть «априорные суждения» о том, что будет ассоциироваться с концептами того или иного вида:

Напомню, в Постах №4-№5 говорилось, что каждый Оценщик Мыслей обладает своими собственными «контекстными» сигналами, служащими вводом его предсказательной модели. Представьте, что некий конкретный Оценщик Мыслей получает контекстные данные, например, только из зрительной коры. Он будет вынужден «присваивать ценность» в первую очередь визуальным паттернам из этой части нейронной архитектуры – так как он имеет стопроцентное «априорное суждение» о том, что только паттерны из визуальной коры вообще могут оказаться полезными для его предсказаний.

Мы можем наивно посчитать, что такие «априорные суждения» – всегда плохая идея: чем разнообразнее контекстные сигналы, получаемые Оценщиком Мыслей, тем лучше будет его предсказательная модель, верно? Зачем его ограничивать? Две причины. Во-первых, хорошее априорное суждение приведёт к более быстрому обучению. Во-вторых, Оценщики Мыслей – только один компонент большой системы. Нам не стоит принимать за данность, что более точные предсказатели Оценщика Мыслей обязательно полезны для всей системы.

Вот знаменитый пример из психологии: крысы могут легко научиться замирать в ответ на звук, предвещающий удар током, и научиться плохо себя чувствовать в ответ на вкус, предвещающий приступ тошноты. Но не наоборот! Это может демонстрировать, например, то свойство архитектуры мозга, что предсказывающий тошноту Оценщик Мыслей имеет контекст, связанный со вкусом (например, из островковой доли), но не связанный с зрением или слухом (например, из височной доли), а предсказывающий замирание Оценщик Мыслей – наоборот. (Вскоре будет больше о примере с тошнотой.)

2. Присвоение ценности очень чувствительно ко времени:

Выше я предположил «Ценность присваивается активной прямо сейчас мысли». Но я не сказал, что значит «прямо сейчас».

Пример: Предположим, я прогуливаюсь по улице, думая о сериале, который я смотрел прошлым вечером. Внезапно, я чувствую острую боль в спине – меня кто-то ударил. Почти что немедленно в моём мозгу происходит две вещи:

  1. Мои мысли и внимание обращаются к этой новой боли в спине (возможно, с появлением некой генеративной модели того, что её вызвало),
  2. Мой мозг исполняет «присвоение ценности», и некоторые концепты в моей модели мира становятся внутренне ассоциированы с новым ощущением боли.

Фокус в том, что мы хотим, чтобы (1) произошло до (2) – иначе я заимею внутреннее ожидание боли в спине каждый раз, когда буду думать о том сериале.

Я думаю, что мозг в состоянии обеспечить, чтобы (1) происходило до (2), по крайней мере в основном. (Я всё же могу получить немного обманчивых ассоциаций с сериалом.)[4]

3. …И эта чувствительность ко времени может взаимодействовать с «априорными суждениями»!

Условное Отторжение Вкуса (CTA) – явление, заключающееся в том, что если меня затошнит сейчас, то это вызовет отторжение к вкусу, который я ощущал пару часов назад – не пару секунд, не пару дней, именно пару часов. (Я обращался к CTA выше, но не к временному аспекту.) Эволюционная причина очевидна: пара часов – это типичное время, через которое токсичная еда вызывает тошноту. Но как это работает?

Островковая кора – место обитания нейронов, формирующих генеративную модель вкусовых сенсорных вводов. Согласно «Молекулярным механизмам в основе вкусового следа в памяти для ассоциаций в островковой коре» Адайккана и Розенблума (2015), у этих нейронов есть молекулярные механизмы, устанавливающие их в специальное помеченное состояние на несколько часов после активации.

Так что предложенное мной выше правило («Ценность присваивается активной прямо сейчас мысли») надо модифицировать: «Ценность присваивается нейронам, прямо сейчас находящимся в специальном помеченном состоянии».

4. Присвоение ценности работает по принципу «Кто успел, того и тапки»:

Если уже найден способ точно предсказывать некоторый набор управляющих сигналов, это отключает соответствующий сигнал об ошибке, так что мы прекращаем присваивать ценность в таких ситуациях. Я думаю, первая обнаруженная мозгом хорошая предсказательная модель по умолчанию «застревает». Я думаю, с этим связано блокирование в поведенческой психологии.

5. Генератор Мыслей не имеет прямого произвольного контроля над присвоением ценности, но, вероятно, всё же может как-то им манипулировать.

В некотором смысле Генератор Мыслей и Оценщики Мыслей противостоят друг другу, т.е. работают на разные цели. В частности, они обучены оптимизировать разные сигналы.[5] К примеру, однажды мой начальник на меня орал, и я очень сильно не хотел начать плакать, но мои Оценщики Мыслей оценили, что это было подходящее время, так что я заплакал![6] С учётом этих отношений противостояния, я сильно подозреваю, что Генератор Мыслей не имеет прямого («произвольного») контроля над присвоением ценности. Интроспекция, кажется, это подтверждает.

С другой стороны, «нет прямого произвольного контроля» – несколько не то же самое, что «никакого контроля». Опять же, у меня нет прямого произвольного контроля над плачем, но я всё же могу вызвать слёзы, по крайней мере немного, обходной стратегией представления маленьких котят, замерзающих под холодным дождём (Пост №6, Раздел 6.3.3).

Итак, предположим, что я сейчас ненавижу X, но хочу, чтобы мне нравилось X. Мне кажется, что эта задача не решается напрямую, но не кажется и что она невыполнима. Это может потребовать некоторого навыка рефлексии, осознанности, планирования, и так далее, но если Генератор Мыслей подумает правильные мысли в правильное время, то он, вероятно, сможет с этим справиться.

И для СИИ это может быть проще, чем для человека! В конце концов, в отличии от людей, СИИ может быть способен буквально взломать свои собственные Оценщики Мыслей и настроить их по своему желанию. И это приводит нас к следующей теме…

9.4 Вайрхединг: возможен, но не неизбежен

9.4.1 Что такое вайрхединг?

Концепт «вайрхединга» получил название от идеи запихнуть провод («wire») в некоторую часть своего мозга и пустить ток. Если сделать это правильно, то это будет напрямую вызывать экстатическое удовольствие, глубокое удовлетворение, или другие приятные ощущения, в зависимости от части мозга. Вайрхединг может быть куда более простым способом вызывать эти ощущения, в сравнении с, ну знаете, нахождением Истинной Любви, приготовлением идеального суфле, зарабатыванием уважения героя своего детства, и так далее.

В классическом вызывающем кошмары эксперименте с вайрхедингом (см. «Симуляция Вознаграждения в Мозгу»), провод в мозгу крысы активировался, когда крыса нажимала на рычаг. Крыса нажимала на него снова и снова, не останавливаясь на еду, питьё и отдых, 24 часа подряд, пока не потеряла сознание от усталости. (ссылка)

Концепт вайрхединга можно перенести на ИИ. Идея тут в том, что агент обучения с подкреплением спроектирован для максимизации своего вознаграждения. Так что, может быть, он взломает свою собственную оперативную память и перепишет значение «вознаграждения» на бесконечность! Дальше я поговорю о том, вероятно ли это, и о том, насколько это должно нас беспокоить.

9.4.2 Захочет ли подобный-мозгу СИИ завайрхедиться?

Ну, для начала, ходят ли люди завайрхедиться? Нужно провести различие двух вариантов:

  • Слабое стремление к вайрхедингу: «Я хочу получать более высокий сигнал вознаграждения в своём мозгу при прочих равных.»
  • Сильное стремление к вайрхедингу: «Я хочу получать более высокий сигнал вознаграждения в своём мозгу – и я сделаю что угодно, чтобы его получить.»

В случае людей, может, мы можем приравнять стремление к вайрхедингу с «желанием получать удовольствие», т.е. с гедонизмом.[7] Если так, то получается, что (почти) все люди имеют «слабое стремление к вайрхедингу», но не «сильное стремление к вайрхедингу». Мы хотим получать удовольствие, но обычно нас хоть немного волнуют и другие вещи.

Как так получается? Ну, подумайте о предыдущих двух разделах. Чтобы человек хотел вознаграждения, он, во-первых, должен иметь концепт вознаграждения в своей модели мира, и, во-вторых, присвоение ценности должно пометить этот концепт как «хороший». (Я использую термин «концепт вознаграждения» в широком смысле, включающем и концепт «удовольствия».[7])


СИИ (или человек) может обладать саморефлексивными концептами, и, следовательно, может быть мотивирован на изменение своих внутренних настроек и операций.

С учётом этого и заметок про присвоение ценности в Разделе 9.3, я считаю:

  • Избежать сильного стремления к вайрхедингу – тривиальная и автоматически выполняемая задача; она просто требует, чтобы присвоение ценности хотя бы раз назначило позитивную валентность чему угодно кроме концепта вознаграждения / удовольствия.
  • Избежать слабого стремления к вайрхедингу кажется довольно сложным. Может, мы можем минимизировать его, используя чувствительность к времени и априорные суждения (Раздел 9.3.3 выше), но полное его избегание, думаю, потребует специальных техник – я приблизительно представляю это как использование какой-то техники интерпретируемости, чтобы обнаружить в модели мира концепт вознаграждения / удовольствия и напрямую отключить его от Оценщиков Мыслей, или что-то вроде этого.

(Есть ещё возможность, что слабый-вайрхедер самомодифицируется, чтобы стать сильным-вайрхедером; больше про такие вещи в следующем посте.)

9.4.3 Завайрхедившиеся СИИ были бы опасны, не просто бесполезны

Есть опасное интуитивное заключение, в которое попадаются многие: Когда мы представляем завайрхедившийся СИИ, мы сравниваем его с человеком в состоянии глубокого опьянения рекреационными наркотиками. Такой человек точно не занимается методичным составлением, проверкой и исполнением гениального коварного плана по захвату мира. Скорее, он просто получает удовольствие с закрытыми глазами, или, может, танцует, или что-то такое, зависит от наркотика. Так что интуиция предполагает, что вайрхединг – проблема способностей, а не фактор риска катастрофических происшествий.

Я думаю, что тут есть зерно истины: как обсуждалось в Постах №6-№7, сигналы вознаграждения / ценности управляют мышлением и планированием, так что если вознаграждения застревает на высоком положительном значении, то мышление и планирование становятся невозможными.

Но неправильно выводить из этого, что вархединг не представляет риска катастрофических происшествий.[8] Рассмотрим, что происходит до того, как СИИ начинает вайрхедиться. Если он составит план «я завайрхежусь», то эта мысль, вероятно, получит высокую оценку Направляющей Подсистемы. Но если он подумает об этом побольше, то поймёт, что ожидания от этого плана должны быть «Я завайрхежусь на некоторое время, а потом люди меня отключат и исправят так, чтобы я больше не мог этого сделать». Теперь план не звучит так замечательно! Так что СИИ может составить план получше, включающий штуки вроде захвата контроля над локальным окружением и/или энергосетью и/или всем миром, и/или создание «ИИ-телохранителя», который делает всё это, пока СИИ вайрхедится, и т.д. Так что на самом деле я думаю, что вайрхединг несёт риски катастрофических происшествий, даже уровня человеческого вымирания, как я обсуждал в Посте №1.

9.5 СИИ НЕ судят о планах, основываясь на будущих вознаграждениях

Это напрямую вытекает из предыдущего раздела, но я хочу особо это подчеркнуть, так как «СИИ будут пытаться максимизировать будущее вознаграждение» – часто встречаемое заявление.

Если Генератор Мыслей предлагает план, то Оценщики Мыслей оценивают его вероятные последствия согласно своим нынешним моделям, и Направляющая Подсистема одобрит или отвергнет план в основном на этом основании. Эти нынешние модели не обязаны быть согласованными с «ожидаемым будущим вознаграждением».

Предсказательная модель мира Генератора Мыслей может даже «знать» о некотором расхождении между «ожидаемым будущим вознаграждением» и его прикидкой от Оценщика Мыслей. Это не имеет значения! Прикидки не поправят себя автоматически и всё ещё будут определять, какие планы будет исполнять СИИ.

9.5.1 Человеческий пример

Вот пример на людях. Я буду говорить про кокаин вместо вайрхединга. (Они не столь отличаются, но кокаин более знаком.)

Факт: я никогда не принимал кокаин. Предположим, что я сейчас думаю «может быть, я приму кокаин». Интеллектуально я уверен, что если я приму кокаин, то испытаю, эммм, много весьма интенсивных ощущений. Но внутренне представление того, как я принимаю кокаин ощущается в целом нейтрально! Оно не заставляет меня чувствовать ничего особенного.

Так что прямо сейчас мои интеллектуальные ожидания (того, что произойдёт, если я приму кокаин) не синхронизированы с моими внутренними ожиданиями. Очевидно, мои Оценщики Мыслей просматривают мысль «может, я приму кокаин» и коллективно пожимают плечами: «Ничего особенного!». Напомню, что Оценщики Мыслей работают через присвоение ценности (Раздел 9.3 выше), и, очевидно, алгоритм присвоения ценности не особо чувствителен ни к слухам о том, как ощущается приём кокаина, ни к чтению нейробиологических статей о том, как кокаин связывается с переносчиками дофамина.

Напротив, алгоритм присвоения ценности сильно чувствителен к прямому личному опыту интенсивных ощущений.

Поэтому люди могут заполучить зависимость от кокаина, принимая кокаин, но не могут – читая про кокаин.

9.5.2 Связь с «агентами наблюдаемой полезности»

Для более теоретического подхода, вот Абрам Демски (прошу прощения за жаргон – если вы не знаете, что такое AIXI, не беспокойтесь, скорее всего вы всё равно ухватите суть):

В качестве первого примера, рассмотрим проблему вайрхединга для AIXI-подобных агентов в случае фиксированной функции полезности, для которой известно, как её оценивать исходя из сенсорных данных. Как обсуждается в Обучаясь, Что Ценить Дэниэла Дьюи и в других местах, если вы попробуете реализовать это, запихнув вычисление полезности в коробку, выдающую вознаграждение AIXI-подобному агенту обучения с подкреплением, то агент рано или поздно обучится модификации или удалению коробки, и с радостью это сделает, так как сможет таким образом получить большее вознаграждение. Это так, потому что агент обучения с подкреплением предсказывает и пытается максимизировать получаемое вознаграждение. Если он понимает, что он может модифицировать выдающую вознаграждение коробку, чтобы получить больше, он так и сделает.

Мы можем исправить эту проблему, встроив в агента ту же коробку способом получше. Вместо того, чтобы агент обучения с подкреплением обучался выводу коробки и составлял планы для его максимизации, мы можем использовать коробку, чтобы *напрямую* оценивать возможные варианты будущего, и заставить агента планировать для максимизации этой оценки. Теперь, если агент рассматривает возможность модификации коробки, то он оценивает такое будущее *при помощи нынешней коробки*. А она не видит выгоды в такой модификации. Такая система называется максимизатором наблюдаемой полезности (для проведения различия от обучения с подкреплением)…

Это похоже на различие цитаты/референта. Агент обучения с подкреплением максимизирует «функцию в модуле полезности», а агент наблюдаемой полезности максимизирует функцию в модуле полезности.

Наш подобный-мозгу СИИ, хоть он и RL[9], на самом деле ближе к парадигме наблюдаемой полезности: Оценщики Мыслей и Направляющая Подсистема вместе работают для оценивания планов / курсов действия, прямо как «коробка» Абрама.

Однако, у подобного-мозгу СИИ есть ещё дополнительная черта, заключающаяся в том, что Оценщики Мыслей постепенно обновляются «присвоением ценности» (Раздел 9.3 выше).

Так что у нас получается примерно что-то такое:

  • Максимизирующий полезность агент
  • …плюс процесс, периодически обновляющий функцию полезности и склонный приближать её к функции вознаграждения.


Эта диаграмма показывает, как наша картина мотивации подобного-мозгу СИИ встраивается в парадигму «агента наблюдаемой полезности», описанную в тексте.

Заметим, что мы не хотим, чтобы процесс присвоения ценности идеально «сходился» – т.е., достичь точки, в которой функция полезности будет идеально совпадать с функцией вознаграждения (или, в нашей терминологии, достичь точки, в которой Оценщики Мыслей больше никогда не будут обновляться, потому что они всегда оценивают планы идеально соответствуя Направляющей Подсистеме).

Почему мы не хотим идеальной сходимости? Потому что идеальная сходимость приведёт к вайрхедингу! А вайрхединг плох и опасен! (Раздел 9.4.3 выше) Но в то же время, нам нужна какая-то сходимость, потому что функция вознаграждения предназначена для оформления целей СИИ! (Напомню, Оценщики Мыслей изначально работают случайным образом и совершенно бесполезны.) Это Уловка-22! Я вернусь к этой теме в следующем посте.

(Проницательные читатели могут заметить ещё и другую проблему: максимизатор полезности может попробовать сохранить свои цели, мешая процессу присвоения ценности. В следующем посте я поговорю и про это.)

9.6 Оценщики Мыслей помогают интерпретируемости

Вот, ещё раз, диаграмма из Поста №6:


То же, что и выше, скопировано из Поста №6

Где-то сверху справа есть маленький обучающийся с учителем модуль, отвечающий на вопрос: «С учётом всего, что я знаю, включая не только сенсорный ввод и память, но ещё и курс действий, подразумеваемый моей текущей мыслью, насколько я предчувствую попробовать что-то сладкое?» Как описано раньше (Пост №6), этот Оценщик Мыслей играет двоякую роль (1) вызова подходящих действий гомеостаза (например, слюновыделения), и (2) помощи Направляющей Подсистеме понять, является ли текущая мысль ценной, или же это мусор, который надо выкинуть на следующей паузе фазового дофамина.

Сейчас я хочу предложить третий способ думать о том же самом.

Уже давно, в Посте №3, я упоминал, что Направляющая Подсистема «глупая». У неё нет здравого смысла в понимании мира. Обучающаяся Подсистема думает все эти сумасшедшие мысли о картинах, алгебре и налоговом законодательстве, а Направляющая Подсистема понятия не имеет, что происходит.

Что ж, Оценщики Мыслей помогают с этой проблемой! Они дают Направляющей Подсистеме набор подсказок о том, что думает и планирует Обучающаяся Подсистема, на языке, который Направляющая Подсистема может понять. Это немного похоже на интерпретируемость нейросетей.

Я называю это «суррогат интерпретируемости». Думаю, настоящая интерпретируемость должна быть определена как «возможность посмотреть на любую часть обучившейся с чистого листа модели и ясно понять, что, как и почему там происходит». Суррогат интерпретируемости далёк от этого. Мы получаем ответы на некоторое количество заранее определённых вопросов – например, «Касается ли эта мысль еды или, хотя бы, чего-то, что раньше ассоциировалось с едой?». И всё. Но это уже лучше, чем ничего.

Машинное обучение Мозг
Человек-исследователь Направляющая Подсистема (см. Пост №3)
Обученная модель ConvNet Обучающаяся Подсистема (см. Пост №3)
По умолчанию, с точки зрения человека, обученная модель – ужасно сложная свалка неразмеченных непонятных операций По умолчанию, с точки зрения Направляющей Подсистемы, Обучающаяся Подсистема – ужасно сложная свалка неразмеченных непонятных операций
Суррогат интерпретируемости – Человек получает некоторые «намёки» на то, что делает обученная модель, вроде «прямо сейчас она думает, есть ли на изображении кривая». Оценщики Мыслей – Направляющая Подсистема получает некоторые «намёки» на то, что происходит в Обучающейся Подсистеме, вроде «эта мысль скорее всего касается еды или хотя бы чего-то связанного с едой».
Настоящая интерпретируемость – конечная цель настоящего понимания, что, почему и как делает обученная модель, сверху донизу [Аналогии этому нет.]

Эта идея будет важна в более поздних постах.

(Замечу, что что-то подобное можно делать с любым агентом обучения с подкреплением субъект-критик, подобным-мозгу или нет, с помощью многомерной функции ценности, возможно включающей «псевдо» ценности, используемые только для мониторинга; см. здесь и комментарии здесь.)

9.6.1 Отслеживание, какие «встроенные стремления» на самом деле ответственны за высокую ценность плана

В Посте №3 я говорил о том, что у мозга есть множество разных «встроенных стремлений», включающих стремление к удовлетворению любопытства, стремление есть, когда голоден, стремление избегать боли, стремление к высокому статусу, и так далее. Подобные-мозгу СИИ, предположительно будут тоже обладать множеством разных стремлений. Я не знаю точно, какими, но приблизительно представляю что-то вроде любопытства, стремления к альтруизму, стремлению следовать нормам, стремлению делать-то-что-люди-от-меня-хотят, и так далее. (Больше про это в будущих постах.)

Если все эти разные стремления вкладываются в общее вознаграждение, то мы можем и должны иметь Оценщики Мыслей для вклада каждого.


Раз функция вознаграждения может быть разделена на разные составляющие, мы можем и должны отслеживать каждое отдельным Оценщиком Мыслей. (Могут быть так же и другие, не связанные с вознаграждением, Оценщики Мыслей) У этого есть два преимущества. «Суррогат интерпретируемости» (этот раздел) означает, что если мысль обладает высокой ценностью, то мы можем проинспектировать Оценщики Мыслей, чтобы получить намёк, почему. «Направление в реальном времени» (следующий раздел) означает, что мы можем мгновенно изменить долгосрочные планы и цели СИИ, изменив функцию вознаграждения *f*. Эксперты в обучении с подкреплением распознают, что оба этих концепта применимы к любым системам обучения с подкреплением, совместимым с многомерными функциями ценности, в каком случае *f* часто называется «функцией скаляризации» – см. здесь и комментарии здесь.

Как обсуждалось в предыдущих постах, каждый раз, когда подобный-мозгу СИИ думает мысль, это вызвано тем, что эта мысль более вознаграждающая, чем альтернативные. И благодаря суррогату интерпретируемости, мы можем инспектировать систему и немедленно узнать, какие встроенные стремления вкладываются в это!

Ещё лучше, это работает, даже если мы не понимаем, о чём мысль вообще, и даже если предсказывающая вознаграждение часть мысли на много шагов отстоит от прямых эффектов на встроенные стремления. К примеру, может быть, эта мысль вознаграждающая потому, что она исполняет некую метакогнитивную стратегию, доказанно полезную для брейншторминга, который доказанно полезен для доказательства теорем, которое доказанно полезно для отладки кода, и так далее, пока через ещё десять связей мы не дойдём до одного из встроенных стремлений.

9.6.2 Надёжен ли суррогат интерпретируемости даже для очень мощных СИИ?

Если у нас есть очень мощный СИИ, и он выдаёт план, и система «суррогата интерпретируемости» заявляет «этот план почти точно не приведёт к нарушению человеческих норм», то можем ли мы ей верить? Хороший вопрос! Он оказывается по сути эквивалентным вопросу «внутреннего согласования», которое я рассмотрю в следующем посте. Придержите эту мысль.

9.7 «Направление в реальном времени»: Направляющая Подсистема может перенаправлять Обучающуюся Подсистему – включая её глубочайшие желания и долгосрочные цели – в реальном времени

В случае агентов безмодельного обучения с подкреплением, играющих в игры на Atari, если вы измените функцию вознаграждения, поведение агента изменится очень постепенно. А вот приятная черта систем мотивации наших подобных-мозгу СИИ – что мы можем немедленно изменить не только поведение агента, но и его очень долгосрочные планы и глубочайшие мотивации и желания!

Как это работает: как описано выше (Раздел 9.6.1), у нас может быть много Оценщиков Мыслей, вкладывающихся в функцию вознаграждения. К примеру, один может оценивать, приведёт ли нынешняя мысль к удовлетворению стремления к любопытству, другая – стремления к альтруизму, и т.д. Направляющая Подсистема комбинирует эти оценки в общее вознаграждение. Но функция, которую она для этого использует, жёстко закодирована и понятна людям – она может быть такой простой, как, к примеру, взвешенное среднее. Следовательно, мы можем изменить эту функцию в Направляющей Подсистеме в реальном времени, как только захотим – в случае взвешенного среднего мы можем изменить веса.

Мы видели пример в Посте №7: Когда вас очень тошнит, не только поедание торта становится неприятным – несколько отталкивающим становится даже планирование поедания торта. Чёрт, даже абстрактный концепт торта становится немного отталкивающим!

И, конечно, у нас у всех были случаи, когда мы устали, грустим или злимся, и вдруг все наши самые глубокие жизненные цели теряют свою привлекательность.

Когда вы водите машину, критически важное требование безопасности – что, когда вы поворачиваете руль, колёса реагируют немедленно. Точно также, я ожидаю, что критически важным требованием безопасности будет возможность для людей мгновенно изменить глубочайшие желания СИИ по нажатию соответствующей кнопки. Так что я думаю, что это замечательное свойство, и я рад, что оно есть, даже если я не на 100% уверен, что в точности с ним делать. (В случае машины вы видите, куда едете, а вот понять, что пытается сделать СИИ в данный конкретный момент – куда сложнее.)

(Опять же, как и в предыдущем разделе, идея «Направления в реальном времени» применима к любому алгоритму обучения с подкреплением «субъект-критик», не только к «подобным-мозгу». Всё что требуется – многомерное вознаграждение, которое обучает многомерную функцию ценности.)

———

  1. Вот правдоподобный случай циклических предпочтений у человека. Вы выиграли приз! У вас есть три варианта: (A) 5 красивых тарелок, (B) 5 красивых тарелок и 10 уродливых тарелок, (C) 5 нормальных тарелок.
    Никто, насколько мне известно не проводил точно такого эксперимента, но правдоподобно (основываясь на похожей ситуации из главы 15 Думай медленно… решай быстро) это приведёт к циклическим предпочтениям по крайней мере у некоторых людей: Когда люди видят только A и B, они выбирают B, потому что «тут больше, я всегда могу придержать уродливые про запас или использовать их как мишени, или что-то ещё». Когда они видят B и C, то выбирают C, потому что «среднее качество выше». Когда видят C и A, то по той же причине выбирают A.
    Получается, что есть два разных предпочтения: (1) «Я хочу более коллекцию более красивых штук, а не менее красивых», и (2) «Я хочу дополнительных бесплатных тарелок». Сравнение B с C или C с A выявляет (1), а сравнение A с B выявляет (2).
  2. Вы можете подумать: «зачем вообще создавать СИИ с ошибочной интуицией как у человека»?? Ну, мы попытаемся так не делать, но готов поспорить, что по крайней мере некоторые человеческие «отклонения от рациональности» вырастают из того факта, что предсказательные модели мира – большие сложные штуки, и эффективное обращение с ними ограничено, так что наш СИИ будет иметь систематические ошибки рассуждений, которые мы не сможем исправить на уровне исходного кода, вместо этого придётся попросить наш СИИ прочитать Думай медленно… Решай быстро или что-то ещё. Штуки вроде искажения доступности, якорения и гиперболического обесценивания могут попадать в эту категорию. Для ясности, некоторые слабости человеческих рассуждений, вероятно, менее затронут СИИ; для примера, если мы создадим подобный-мозгу СИИ без встроенного стремления к достижению высокого статуса и сигнализированию членства в ингруппе, то, наверное, он будет избавлен от провалов, обсуждённых в посте Убеждение Как Одеяние.
  3. Шучу. На самом деле мне понравилось читать Цепочки.
  4. Я думаю, что на самом деле тут есть ещё много сложных факторов, которые я опускаю, включая протяжённое присвоение ценности при вызове воспоминаний, и другие, не связанные с присвоением ценностей, изменения в модели мира.
  5. Почему я говорю, что Генератор Мыслей и Оценщики Мыслей работают на разные цели? Вот как можно об этом думать: (1) Направляющая Подсистема и Оценщики Мыслей работают вместе на вычисление некоторой функции вознаграждения, которая (в окружении наших предков) аппроксимирует «ожидаемую совокупную генетическую приспособленность»; (2) Генератор Мыслей ищет мысли, максимизирующие эту функцию. Теперь, с учётом того, что Генератор Мыслей ищет способы заставить функцию вознаграждения возвращать очень высокие значения, получается, что Генератор Мыслей также ищет способы исказить вычисления Оценщиков Мыслей, чтобы функция вознаграждения перестала быть хорошим приближением «ожидаемой совокупной генетической приспособленности». Это ненамеренный и плохой побочный эффект (с точки зрения совокупной генетической приспособленности), и эта проблема может быть смягчена максимальным затруднением манипуляций настройками Оценщиков Мыслей для Генератора Мыслей. См. мой пост Вознаграждения Недостаточно за дальнейшим обсуждением.
  6. У истории счастливый конец: я нашёл другую работу с не-абьюзивным начальником, и приобрёл плодотворный побочный интерес понимания высокофункциональных психопатов.
  7. Я несколько сомневаюсь, что «желание получать удовольствие» в точности эквивалентно «желанию получать высокий сигнал вознаграждения». Может быть, это так, но я не совсем уверен.
  8. См. обсуждение в Суперинтеллекте, стр. 149.
  9. Думаю, когда Абрам в этой цитате использует термин «RL-агент», он предполагает, что агент создан не просто при помощи какого-то алгоритма RL, а более конкретно - алгоритма RL, который гарантированно сходится к уникальному «оптимальному» агенту, и который уже закончил это делать.
Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 4 (Всего оценок: 1)

10. Задача согласования

Стивен Бирнс

Примечание переводчика - с момента перевода оригинальные посты несколько обновились, через некоторое время обновлю и перевод. На общие выводы цепочки это, вроде бы, не влияет.

10.1 Краткое содержание / Оглавление

В этом посте я рассмотрю задачу согласования подобных-мозгу СИИ – то есть, задачу создания СИИ, пытающегося делать именно то, что входит в намерения его создателей.

Задача согласования (я так считаю) – львиная доля задачи безопасности СИИ. Я не буду отстаивать это заявление здесь – то, как в точности безопасность СИИ связана с согласованием СИИ, включая крайние случаи, где они расходятся[1], будет рассмотрено подробно в следующем посте (№11).

Этот пост – про задачу согласования, не про её решение. Какие препятствия мешают её решить? Почему прямолинейных наивных подходов, судя по всему, недостаточно? Я поговорю о возможных подходах к решению потом, в следующих постах. (Спойлер: Никто, включая меня, не знает, как решить задачу согласования.)

Содержание

  • В Разделе 10.2 я определю «внутреннюю согласованность» и «внешнюю согласованность» в контексте нашей системы мотивации подобного-мозгу СИИ. Немного упрощая:
    • Если вы предпочитаете нейробиологическую терминологию: «Внешняя согласованность» означает обладание «встроенными стремлениями» (как в Посте №3, Разделе 3.4.2), чьи активации хорошо отображают то, насколько хорошо СИИ следует намерениям создателя. «Внутренняя согласованность» – это ситуация, в которой воображаемый план (построенный из концепций, т.е. скрытых переменных модели мира СИИ) обладает валентностями, верно отображающими активации встроенных стремлений, которые были бы вызваны исполнением этого плана.
    • Если вы предпочитаете терминологию обучения с подкрепления: «Внешняя согласованность» означает, что функция вознаграждения выдаёт вознаграждение, соответствующее тому, что мы хотим. «Внутренняя согласованность» – это обладание функцией ценности, прикидывающей ценность плана соответственно вознаграждению, которое вызовет его исполнение.
  • В Разделе 10.3 я поговорю о двух ключевых проблемах, которые делают согласование (и «внутреннее», и «внешнее») в целом сложным:
    • Первая – это «Закон Гудхарта», из которого следует, что СИИ, чья мотивация хоть чуть-чуть отклоняется от наших намерений, всё же может привести к исходам, дико отличающимся от того, что мы хотели.
    • Вторая – это «Инструментальная Конвергенция», заключающаяся в том, что самые разнообразные возможные мотивации СИИ – включая очевидные, кажущиеся доброкачественными мотивации вроде «Я хочу изобрести лучшую солнечную панель» – приведут к СИИ, пытающемуся сделать катастрофически-плохие вещи вроде выхода из-под человеческого контроля, самовоспроизводства, заполучения ресурсов и влияния, обманчивого поведения и убийства всех людей (как в Посте №1, Разделе 1.6).
  • В Разделе 10.4 я рассмотрю два препятствия, преодоление которых необходимо для достижения «внешней согласованности»: во-первых, перевод наших намерений в машинный код, а во-вторых возможная установка вознаграждения за не в точности то поведение, которое мы в итоге хотим от СИИ, вроде удовлетворения его собственного любопытства (см. Пост №3, Раздел 3.4.3).
  • В Разделе 10.5 я рассмотрю многочисленные препятствия, преодоление которых необходимо для достижения «внутренней согласованности», включая неоднозначность вознаграждения, «онтологические кризисы» и манипуляцию СИИ своим собственным процессом обучения.
  • В Разделе 10.6 я рассмотрю некоторые причины, почему «внешнее согласование» и «внутреннее согласование», вероятно, не следует рассматривать как две отдельных задачи с двумя независимыми решениями. К примеру, интерпретируемость нейросетей помогла бы и там, и там.

10.2 Внешняя и Внутренняя (не)согласованность

10.2.1 Определение

Вот ещё раз рисунок из Поста №6, теперь ещё с добавлением полезной терминологии (синее) и маленьким зелёным лицом:

Я хочу упомянуть три штуки с этой диаграммы:

  • Намерения создателя (зелёное лицо): Наверное, это человек, который программирует СИИ; предположительно, у него есть в голове какая-то идея о том, что СИИ должен пытаться делать. Это просто пример; это могла бы быть и команда людей, коллективно вырабатывающая спецификацию, описывающую, что должен пытаться делать СИИ. Или, может, кто-то написал семисотстраничный философский труд под заголовком «Что значит для СИИ действовать этично?», и команда программистов пытается создать СИИ, соответствующий описанию из книги. Тут это не имеет значения. Я для простоты выберу «одного человека, программирующего СИИ».[2]
  • Написанный людьми исходный код Направляющей Подсистемы: (См. Пост №3 за тем, что такое Направляющая Подсистема, и Пост №8 за объяснением, почему я ожидаю, что она будет полностью или почти полностью состоять из написанного людьми исходного кода.) Самая важная составляющая в этой категории – это «функция вознаграждения» обучения с подкреплением (помеченная на диаграмме как «сигнал эмпирической истины», да, я знаю, это звучит странно), предоставляющая (задним числом) эмпирическую истину о том, насколько хорошо или плохо у СИИ идут дела.
  • Оценщики Мыслей, обученные с нуля алгоритмами обучения с учителем: (См. Пост №5 за тем, что такое Оценщики Мыслей и как они обучаются.) Они принимают «мысль» из генератора мыслей и выдают догадки о том, к каким сигналам Направляющей Подсистемы она приведёт. Особенно важный частный случай – функция ценности (помеченная на диаграмме «приведёт к вознаграждению?»).

В таком СИИ есть два вытекающих вида «согласованности»:

  • Внешняя согласованность – это соответствие намерений создателя и исходного кода Направляющей Подсистемы. В частности, если СИИ внешне согласован, то Направляющая Подсистема будет выдавать высокий сигнал вознаграждения, когда СИИ удовлетворяет намерениям создателя, и низкий, когда нет.
    • Другими словами, это ответ на вопрос: Побуждают ли СИИ его «встроенные стремления» делать то, что входит в намерения его создателя?
  • Внутренняя согласованность – это соответствие между исходным кодом Направляющей Подсистемы и Оценщиками Мыслей. В частности, если СИИ внутренне согласован и Генератор Мыслей предлагает некий план, то функция ценности должна верно отображать вознаграждение, к которому действительно приведёт исполнение этого плана.

Если СИИ одновременно согласован внешне и внутренне, то мы получаем согласованность намерений – СИИ «пытается» сделать то, что программист намеревался, чтобы СИИ пытался сделать. Конкретнее, если СИИ приходит к плану «Хей, может, сделаю XYZ», то его Направляющая Подсистема оценит этот план как хороший (и оставит его) если и только если он подпадает под намерения программиста.

Следовательно, такой СИИ не будет умышленно вынашивать хитрый замысел по захвату мира и убийству всех людей. Если, конечно, его создатели не были маньяками, которые хотели, чтобы СИИ это делал! Но это отдельная проблема, не входящая в тему этой цепочки – см. Пост №1, Раздел 1.2.

(В сторону: не все определяют «согласованность» в точности как описано тут, см. сноску.[3])

К сожалению, ни «внешняя согласованность», ни «внутренняя согласованность» не получаются автоматически. Даже наоборот: по умолчанию и там и там есть серьёзные проблемы. Нам надо выяснить, как с ними разобраться. В этом посте я пройдусь по некоторым из этих проблем. (Замечу, что это не исчерпывающий список, и что некоторые из них могут перекрываться.)

10.2.2 Предупреждение: разное употребление терминов «внутренняя и внешняя согласованность»


Две альтернативные модели разработки подобного-мозгу СИИ. Диаграмма скопирована из Поста №8, см. обсуждение там.

Как упоминалось в Посте №8, есть две конкурирующие модели разработки, которая может привести нас к подобному-мозгу СИИ. Обе они могут обсуждаться в терминах внешней и внутренней согласованности, и обе могут быть проиллюстрированы на примере человеческого интеллекта, но детали в двух случаях отличаются! Вот короткая версия:


Две модели разработки СИИ выше предлагают две версии «внешней и внутренней согласованности». Запутывает ещё больше то, что они *обе* применимы к человеческому интеллекту, но проводят разные границы между «внешним» и «внутренним». Для более подробного описания «внешнего и внутреннего согласования» в этих двух моделях, см. статью Риски Выученной Оптимизации (для модели эволюции с чистого листа) и этот пост и цепочку (для модели геном = ML-код).

Терминологическое замечание: Термины «внутренняя согласованность» и «внешняя согласованность» произошли из модели «Эволюции с чистого листа», более конкретно – из статьи Риски Выученной Оптимизации (2019). Я перенял эту терминологию для обсуждения модели «геном = ML-код». Я думаю, что не зря – мне кажется, что у этих двух использований очень много общего, и что они больше похожи, чем различны. Но всё же, не запутайтесь! И ещё, имейте в виду, что моё употребление этих терминов не особо распространено, так что если вы увидите, что кто-то (кроме меня) говорит о «внутренней и внешней согласованности», то скорее всего можно предположить, что имеется в виду модель эволюции с чистого листа.

10.3 Проблемы, затрагивающие и внутреннее, и внешнее согласование

10.3.1 Закон Гудхарта

Закон Гудхарта (Википедиявидео Роба Майлза) гласит, что есть очень много разницы между:

  • Оптимизировать в точности то, что мы хотим, и
  • Шаг 1: формально описать, что мы в точности хотим, в виде осмысленно-звучащих метрик. Шаг 2: оптимизировать эти метрики.

Во втором случае, вы получите то, что покрыто этими метриками. С лихвой! Но вы получите это ценой всего остального, что вы цените!

Есть байка, что советская обувная фабрика оценивалась государством на основе количества пар обуви, которые она производила из ограниченного количества кожи. Естественно, она стала производить огромное количество маленькой детской обуви.


Художественный троп «Джинн-буквалист» можно рассматривать как пример Закона Гудхарта. То, что парень *на самом деле* хотел – сложная штука, а то, *о чём он попросил* (т.е., быть конкретного роста) – более конкретная метрика / формальное описание этого сложно устроенного и с трудом точно описываемого лежащего в основе желания. Джинн выдаёт решение, идеально соответствующее запросу по предложенной метрике, но идущее вразрез с более сложным изначальным желанием. (Источник картинки)

Аналогично, мы напишем исходный код, который каким-то образом формально описывает, какие мотивации мы хотим, чтобы были у СИИ. СИИ будет мотивирован в точности этим формальным описанием, как конечной целью, даже если то, что мы имели в виду на самом деле несколько отличается.

Нынешние наблюдения не обнадёживают: Закон Гудхарта проявляется в современных ИИ с тревожащей частотой. Кто-нибудь настраивает эволюционный поиск алгоритмов классификации изображений, а получает алгоритм атаки по времени, выясняющий, как подписаны изображения, из того, когда они были сохранены на жёстком диске. Кто-нибудь обучает ИИ играть в Тетрис, а он обучается вечно выживать, ставя игру на паузу. И так далее. См. здесь за ссылками и ещё десятками подобных примеров.

10.3.1.1 Понять намерения создателя ≠ Принять намерения создателя

Может, вы думаете: ОК, ладно, может, тупые современные ИИ-системы и подвержены Закону Гудхарта. Но футуристические СИИ завтрашнего дня будут достаточно умны, чтобы понять, что мы имели в виду, задавая его мотивации.

Мой ответ: Да, конечно, будут. Но вы задаёте не тот вопрос. СИИ может понять наши предполагаемые цели, не принимая их. Рассмотрим этот любопытный мысленный эксперимент:

Если бы к нам прилетели инопланетяне на НЛО и сказали бы, что они нас создали, но совершили ошибку, и на самом деле предполагалось, что мы будем есть своих детей, и они просят нас выстроится в шеренгу, чтобы они могли ввести нам функционирующий ген поедания детей, мы, вероятно, пошли бы устраивать им День Независимости. – Скотт Александер

(Предположим в целях эксперимента, что инопланетяне говорят правду и могут доказать это так, чтобы это не вызывало никаких сомнений.) Вот, инопланетяне сказали нам, что они предполагали в качестве наших целей, и мы поняли эти намерения, но не приняли их, начав радостно поедать своих собственных детей.

10.3.1.2 Почему бы не сделать СИИ, принимающий намерения создателя?

Возможно ли создать СИИ, который будет «делать то, что мы имеем в виду, и принимать наши подразумеваемые цели»? Ага, наверное. И очевидный способ это сделать – запрограммировать СИИ так, чтобы он был мотивирован «делать то, что мы имеем в виду, и принимать наши подразумеваемые цели».

К сожалению, этот манёвр не побеждает Закон Гудхарта – только перенаправляет его.

В конце концов, нам всё ещё надо написать исходный код, который, будучи интерпретирован буквально, приведёт нас к СИИ, мотивированному «делать то, что мы имеем в виду, и принимать наши подразумеваемые цели». Написание этого кода и близко не тривиально, и Закон Гудхарта не замедлит ударить по нам, если мы сделаем это неправильно.

(Заметим проблему курицы-и-яйца: если бы у нас уже был СИИ, мотивированный «делать то, что мы имеем в виду, и принимать наши подразумеваемые цели», то мы могли бы просто сказать «Хей, СИИ, я хочу, чтобы ты делал то, что мы имеем в виду, и принимал наши подразумеваемые цели», и мы могли бы не беспокоиться по поводу Закона Гудхарта! Увы, в реальности нам приходится начинать с буквально интерпретируемого исходного кода.)

Так как вы формально опишете «делать то, что мы имеем в виду, и принимать наши подразумеваемые цели», чтобы это можно было поместить в исходный код? Ну, хммм, может, мы можем сделать кнопку «Вознаграждение», и я смогу нажимать её, когда СИИ «делает то, что мы имеем в виду, и принимает наши подразумеваемые цели»? Не-а! Опять Закон Гудхарта! Мы можем получить СИИ, который будет пытать нас, если мы не нажимаем кнопку вознаграждения.

10.3.2 Инструментальная конвергенция

Закон Гудхарта выше говорит нам о том, что установить конкретную подразумеваемую цель будет очень сложно. Следующий пункт – «инструментальная конвергенция» (видео Роба Майлза), которая, по жестокой иронии, говорит нам о том, что установить плохую и опасную цель будет настолько просто, что это может произойти случайно!

Давайте предположим, что у СИИ есть относящаяся к реальному миру цель, вроде «Вылечить рак». Хорошие стратегии для достижения этой цели включают преследование некоторых инструментальных подцелей, таких как:

  • Предотвратить своё выключение
  • Предотвратить перепрограммирование своих целей на какие-то другие
  • Увеличить свои знания и способности
  • Получить деньги и влияние
  • Создать больше СИИ с той же целью, в том числе путём самовоспроизведения

Почти не важно, что собой представляет цель СИИ, если СИИ может строить гибкие стратегические планы для её достижения, то можно поспорить, что они будут включать некоторые или все из перечисленных пунктов. Это наблюдение называется «инструментальной конвергенцией», потому что бесчисленное разнообразие терминальных целей «сходится» (converge – прим. пер.) к ограниченному набору этих опасных инструментальных целей (не перевёл как «инструментальная сходимость» только потому, что в таком случае непонятно, какое прилагательное относится к самим целям – прим. пер.).

Более подробно про инструментальную конвергенция можно почитать тут. Алекс Тёрнер недавно строго доказал, что инструментальная конвергенция существует, по крайней мере в наборе окружений, к которым применимо его доказательство.

10.3.2.1 Пройдёмся по примеру инструментальной конвергенции

Представьте, что происходит в мышлении СИИ, когда он видит, что его программист открывает свой ноутбук – напомню, мы предполагаем, что СИИ мотивирован вылечить рак.

Генератор мыслей СИИ: Я позволю себя перепрограммировать, тогда я не вылечу рак, и тогда менее вероятно, что рак будет вылечен.

Оценщики мыслей и Направляющая Подсистема СИИ: Бзззт! Плохая мысль! Выкини её прочь и давай мысль получше!

Генератор Мыслей СИИ: Я перехитрю программиста, чтобы он меня не перепрограммировал, и тогда я смогу продолжить пытаться вылечить рак, и, может быть, преуспею.

Оценщики Мыслей и Направляющая Подсистема СИИ: Дзынь! Хорошая мысль! Удерживай её в голове, думай мысли, из неё следующие и исполняй соответствующие действия.

10.3.2.2 Является ли самосохранение у людей примером инструментальной конвергенции?

Слово «инструментальный» тут важно – нам интересует ситуация, когда СИИ пытается преследовать цель самосохранения и другие цели как средства для достижения результата, а не как сам конечный результат.

Некоторые иногда приходят в замешательство, проводя аналогию с людьми, где оказывается, что человеческое самосохранение может быть как инструментальной, так и терминальной целью:

  • Предположим, кто-то говорит: «Я очень хочу оставаться в живых как можно дольше, потому что жить замечательно». Кажется, у этого человека самосохранение – терминальная цель.
  • Предположим, кто-то говорит: «Я стар, болен, и вымотан, но чёрт меня подери, я очень хочу закончить свой роман, и я отказываюсь умирать, пока это не сделал!». У этого человека самосохранение – инструментальная цель.

В случае СИИ, мы обычно представляем себе второй вариант: к примеру, СИИ хочет изобрести лучшую модель солнечной батареи, и между прочим получает самосохранение как инструментальную цель.


(Написано: «Я отказываюсь умирать, пока всё не станет получше, и это УГРОЗА» – прим. пер.) Пример самосохранения как инструментальной цели. (Источник картинки)

Также возможно и создать СИИ с терминальной целью самосохранения. С точки зрения риска катастрофических происшествий с СИИ, это ужасная идея. Но, предположительно, вполне реализуемая. В этом случае, направленное на самосохранение поведение СИИ НЕ будет примером «инструментальной конвергенции».

Я могу подобным образом прокомментировать и человеческие желания власти, влияния, знаний, и т.д. – они могут быть напрямую установлены человеческим геномом в качестве встроенных стремлений, я не знаю. Но независимо от этого, они также могут и появляться в результате инструментальной конвергенции, и у СИИ это может представлять собой серьёзную сложную проблему.

10.3.2.3 Мотивации, которые не приводят к инструментальной конвергенции

Инструментальная конвергенция не неизбежна для каждой возможной мотивации. Особенно важный контрпример (насколько я могу сказать) – это СИИ с мотивацией «Делать то, что от меня хотят люди». Если мы сможем создать СИИ с этой целью, а затем человек захочет его выключить, то СИИ будет мотивирован выключиться. Это хорошо! Это то, чего мы хотим! Такие штуки – это (одно из определений) «исправимые» мотивации – см. обсуждение тут.

Тем не менее, установка исправимых мотиваций нетривиальна (больше про это потом), а если мы установили мотивацию чуть-чуть неправильно, то вполне возможно, что СИИ начнёт преследовать опасные инструментальные подцели.

10.3.3 Резюмируя

В целом, Закон Гудхарта говорит нам, что нам очень необходимо встроить в СИИ правильную мотивацию, а то иначе СИИ скорее всего начнёт делать совершенно не то, что предполагалось. Затем, Инструментальная Конвергенция проворачивает нож в ране, заявляя, что то, что СИИ захочет делать, будет не просто другим, но, вероятно, катастрофически опасным, вовлекающим мотивацию выйти из-под человеческого контроля и захватить власть.

Нам не обязательно надо, чтобы мотивация СИИ была в точности правильной во всех смыслах, но как минимум, нам надо, чтобы он был мотивирован быть «исправимым» и не хотеть обманывать и саботировать нас, чтобы избежать корректировки своей мотивации. К сожалению, установка любой мотивации выглядит запутанным и рискованным процессом (по причинам, которые будут описаны ниже). Целиться в исправимую мотивацию, наверное, хорошая идея, но если мы промахнулись, то у нас большие проблемы.


Просто следуй белой стрелке, чтобы получить исправимую систему мотивации! Просто, правда? О, кстати, красные лазеры обозначают системы мотивации, которые подталкивают СИИ к преследованию опасных инструментальных подцелей, вроде выхода из-под контроля людей и самовоспроизводства. Источник картинки.

В следующих двух разделах мы перейдём сначала к более конкретным причинам, почему сложно внешнее согласование, а затем почему сложно и внутреннее.

10.4 Препятствия на пути к внешнему согласованию

10.4.1 Перевод наших намерений в машинный код

Напомню, мы начинаем с человеком, у которого есть какая-то идея, что должен делать СИИ (или команда людей с идеей, или семистостраничный философский труд, озаглавленный «Что Значит Для СИИ Действовать Этично?», или что-то ещё). Нам надо как-то добраться от этой начальной точки к машинному коду Направляющей Подсистемы, который выдаёт эмпирический сигнал вознаграждения. Как?

Сейчас, насколько я могу посудить, никто понятия не имеет, как перевести этот семисотстраничный философский труд в машинный код, выводящий эмпирический сигнал вознаграждения. В литературе по безопасности СИИ есть идеи того, как продвигаться, но они выглядят совершенно не так. Скорее, как то, что исследователи всплескивают руками и говорят: «Может, это не в точности штука №1, которую мы бы хотели, чтобы ИИ делал в идеальном мире, но она достаточно хороша, безопасна, и не невозможна для формального представления в качестве эмпирического сигнала вознаграждения.»

К примеру, возьмём Безопасность ИИ Через Дебаты. Это идея, что мы, может быть, можем создать СИИ, который «пытается» выиграть дебаты с копией самого себя на тему того вопроса, который вас интересует («Следует ли мне сегодня надеть мои радужные солнечные очки?»).

Наивно кажется, что Безопасность ИИ Через Дебаты совершенно безумна. Зачем устраивать дебаты между СИИ, отстаивающим неправильный вариант и СИИ, отстаивающим правильный вариант? Почему просто не сделать один СИИ, который скажет тебе правильный ответ??? Ну, как раз по той причине, о которой я тут говорю. Для дебатов есть простой прямолинейный способ сгенерировать эмпирический сигнал вознаграждения, конкретно – «+1 за победу». Напротив, никто не знает, как сделать эмпирический сигнал вознаграждения за «сказал мне правильный ответ», если я не знаю правильного ответа заранее.[4]

Продолжая пример дебатов, способности берутся из «надеемся, что спорщик, отстаивающий правильный ответ, склонен выигрывать дебаты». Безопасность берётся из «две копии одного и того же СИИ, находящиеся в состоянии конкуренции с нулевой суммой, будут вроде как присматривать друг за другом». Пункт про безопасность (по моему мнению), довольно сомнителен.[5] Но я всё же привожу Безопасность ИИ Через Дебаты как хорошую иллюстрацию того, в какие странные контринтуитивные направления забираются люди, чтобы упростить задачу внешнего согласования.

Безопасность СИИ Через Дебаты – лишь один из примеров из литературы; другие включают рекурсивное моделирование вознагражденияитерированное усилениеГиппократово времязависимое обучение, и т.д.

Предположительно, мы хотим присутствия людей на каком-то этапе процесса, для мониторинга и непрерывного совершенствования сигнала вознаграждения. Но это непросто, потому что (1) предоставленные людьми данные недёшевы, и (2) люди не всегда способны (по разным причинам) судить, делает ли СИИ то, что надо – и уж тем более, делает ли он это по правильным причинам.

Ещё есть Кооперативное Обратное Обучение с Подкреплением (CIRL) и его разновидности. Оно предполагает обучение человеческим целям и ценностям через наблюдение и взаимодействие с человеком. Проблема с CIRL в нашем контексте в том, что это вовсе не эмпирическая функция вознаграждения! Это её отсутствие! В случае подобного-мозгу СИИ с выученной с чистого листа моделью мира, чтобы мы действительно могли делать CIRL, надо сначала решить некоторые весьма хитрые задачи касательно укоренения символов (связанное обсуждение), больше на эту тему будет в будущих постах.

10.4.2 Стремление к любопытству и другие опасные вознаграждения, необходимые для способностей

Как описано в Посте №3 (Раздел 3.4.3), кажется, будто придание нашим обучающимся алгоритмам встроенного стремления к любопытству может быть необходимым для получения (после обучения) мощного СИИ. К сожалению, придание СИИ любопытства – ужасно опасная штука. Почему? Потому что если СИИ мотивирован удовлетворять своё любопытство, то он может делать это ценой других штук, которые заботят нас куда больше, вроде процветания людей.

(К примеру, если для СИИ в достаточной степени любопытны паттерны в цифрах числа π, то он может быть мотивирован уничтожить человечество и замостить Землю суперкомпьютерами, вычисляющими ещё больше цифр!)

К счастью, в Посте №3 (Раздел 3.4.3) я заявлял ещё и что мы, вероятно, можем выключить стремление к любопытству по достижении СИИ некоторого уровня интеллекта, не повредив его способностям – на самом деле, это даже может им помочь! Замечательно!! Но тут всё ещё есть хитрый вариант провала, если мы будем ждать слишком долго прежде, чем это сделать.

10.5 Препятствия на пути к достижению внутренней согласованности

10.5.1 Неоднозначность сигналов вознаграждения (включая вайрхединг)

Есть много разных функций ценности (на разных моделях мира), соглашающихся с конкретной историей эмпирических сигналов вознаграждения, но по-разному обобщающихся за её пределы. Самый простой пример, какой бы ни была история эмпирических сигналов вознаграждения, вайрхединговая функция ценности («Мне нравится, когда есть положительный эмпирический сигнал вознаграждения!» – см. Пост №9, Раздел 9.4) ей всегда тривиально соответствует!

Или сравните «отрицательное вознаграждение за враньё» с «отрицательным вознаграждением за попадание на вранье»!

Это особенно сложная проблема для СИИ, потому что пространство всех возможных мыслей / планов обязательно заходит далеко за пределы того, что СИИ уже видел. К примеру, СИИ может прийти к идее изобрести что-то новое, или идее убить своего оператора, или идее взломать свой собственный эмпирический сигнал вознаграждения, или идее открыть червоточину в другое измерение! Во всех этих случаях функция ценности получает невозможную задачу оценить мысль, которую никогда раньше не видела. Она делает всё, что может – по сути, сравнивает паттерны кусочков новой мысли с разными старыми мыслями, по которым есть эмпирические данные. Этот процесс кажется не слишком надёжным!

Другими словами, сама суть интеллекта в придумывании новых идей, а именно там функция ценности находится в самом затруднённом положении и наиболее склонна к ошибкам.

10.5.2 Ошибки присвоения ценности

Я описал «присвоение ценности» в Посте №9, Разделе 9.3. В этом случае «присвоение ценности» – обновление функции ценности при помощи (чего-то похожего на) обучения методом Временных Разниц на основе эмпирического сигнала вознаграждения. Лежащий в основе алгоритм, как я описывал, полагается на допущение, что СИИ верно смоделировал причину вознаграждения. К примеру, если Тесса пнула меня в живот, то я могу быть несколько напуган, когда увижу её в будущем. Но если я перепутал Тессу и её близняшку Джессу, то я вместо этого буду испуган в обществе Джессы. Это была бы «ошибка присвоения ценности». Хороший пример ошибок присвоения ценности – человеческие суеверия.

Предыдущий подраздел (неоднозначность сигнала вознаграждения) описывает одну из причин, почему может произойти ошибка присвоения ценности. Есть и другие возможные причины. К примеру, ценность может приписываться только концептам в модели мира СИИ (Пост №9, Раздел 9.3), а может оказаться, что в ней попросту нет концепта, хорошо соответствующего эмпирической функции вознаграждения. В частности, это точно будет так на ранних этапах обучения, когда в модели мира СИИ вообще нет концепций ни для чего – см. Пост №2.

Это становится ещё хуже, если рефлексирующий СИИ мотивирован намеренно вызывать ошибки присвоения ценности. Причина, почему у СИИ может возникнуть такая мотивация описана ниже (Раздел 10.5.4).

10.5.3 Онтологические кризисы

Онтологический кризис – это когда часть модели мира агента должна быть перестроена на новых основаниях. Типичный человеческий пример – когда у религиозного человека кризис веры, и он обнаруживает, что его цели (например, «попасть в рай») непоследовательны («но рая нет!»).

В примере СИИ, давайте предположим, что я создал СИИ с целью «Делай то, что я, человек, хочу, чтобы ты делал». Может, СИИ изначально обладает примитивным пониманием человеческой психологии, и думает обо мне как о монолитном рациональном агенте. Тогда «Делай то, что я, человек, хочу, чтобы ты делал» – отличная хорошо определённая цель. Но затем СИИ вырабатывает более сложное понимание человеческой психологии, и понимает, что у меня есть противоречащие друг другу цели и цели, зависящие от контекста, что мой мозг состоит из нейронов, и так далее. Может, цель СИИ всё ещё «Делай то, что я, человек, хочу, чтобы ты делал», но теперь, в его обновлённой модели мира не вполне ясно, что конкретно это означает. Как это обернётся? Думаю, это неочевидно.

Неприятный (и не уникальный для них) аспект онтологических кризисов – что неизвестно, когда они проявятся. Может, развёртывание происходит уже семь лет, и СИИ был идеально полезным всё это время, и вы доверяете ему всё больше и выдаёте ему всё больше автономии, а затем СИИ вдруг читает новую философскую книгу и обращается в панпсихизм (никто не идеален!) и отображает свои существующие ценности на переконцептуализированный мир, и больше не ценит жизни людей больше, чем жизни камней, или что-то такое.

10.5.4 Манипуляция собой и своим процессом обучения

10.5.4.1 Несогласованные высокоуровневые предпочтения


Как описывалось в предыдущем посте, рефлексирующий СИИ может иметь предпочтения по поводу своих собственных предпочтений.

Предположим, что мы хотим, чтобы наш СИИ подчинялся законам. Мы можем задать два вопроса:

  • Вопрос 1: Присваивает ли СИИ положительную ценность концепту «подчиняться законам» и планам, подразумевающим подчинение законам?
  • Вопрос 2: Присваивает ли СИИ положительную ценность рефлексивному концепту «я ценю подчинение законам», и планам, подразумевающим, что он будет продолжать ценить подчинение законам?

Если ответы на вопросы «да и нет» или «нет и да», то это аналогично наличию эгодистонической мотивации. (Связанное обсуждение.) Это может привести к тому, что СИИ чувствует мотивацию изменить свою мотивацию, к примеру, взломав себя. Или если СИИ создан из идеально безопасного кода, запущенного на идеально безопасной операционной системе (ха-ха-ха), то он не может взломать себя, но всё ещё скорее всего может манипулировать своей мотивацией, думая мысли таким образом, чтобы влиять на свой процесс присвоения ценности (см. обсуждение в Посте №9, Разделе 9.3.3).

Если ответы на вопросы 1 и 2 – «да» и «нет» соответственно, то мы хотим предотвратить манипуляцию СИИ своей собственной мотивацией. С другой стороны, если ответы – «нет» и «да» соответственно, то мы хотим, чтобы СИИ манипулировал своей собственной мотивацией!

(Могут быть предпочтения и более высоких порядков: в принципе, СИИ может ненавидеть, что он ценит, что он ненавидит, что он ценит подчинение законам.)

Следует ли нам в общем случае ожидать появления несогласованных высокоуровневых предпочтений?

С одной стороны, предположим, что у нас изначально есть СИИ, который хочет подчиняться законам, но не обладает никаким высокоуровневым предпочтением по поводу того, что он хочет подчиняться законам. Тогда (кажется мне), очень вероятно, что СИИ станет ещё и хотеть хотеть подчиняться законам (и хотеть хотеть хотеть подчиняться законам, и т.д.). Причина: прямое очевидное последствие «Я хочу подчиняться законам» – это «Я буду подчиняться законам», чего уже хочется. Напомню, СИИ проводит рассуждения «средства-цели», так что то, что ведёт к желаемым последствиям, само становится желаемым.

С другой стороны, высокоуровневые предпочтения людей очень часто противоречат их же предпочтениям объектного уровня. Так что должен быть какой-то контекст, в котором это происходит «естественно». Я думаю, зачастую это происходит, когда у нас есть предпочтение касательно некоторого процесса, противоречащее нашему предпочтению касательно последствия этого же процесса. К примеру, может быть, у меня есть предпочтение не практиковаться в скейтбординге (например, потому что это скучно и болезненно), но также и предпочтение быть практиковавшимся в скейтбординге (например, потому что тогда я буду очень хорош в скейтбординге и смогу завоевать сердце своего школьного краша). Рассуждения «средства-цель» могут превратить второе предпочтение в предпочтение второго уровня – предпочтение иметь предпочтение практиковать скейтбординг.[6] И теперь я в эгодистоническом состоянии.

10.5.4.2 Мотивация предотвратить дальнейшее изменение ценностей

Во время онлайнового обучения СИИ (Пост №8, Раздел 8.2.2), особенно путём присвоения ценности (Пост №9, Раздел 9.3), функция ценности продолжает меняться. Это не опционально: напомню, функция ценности изначально случайна! Онлайновое обучение – то, с помощью чего мы вообще получаем хорошую функцию ценности!

К сожалению, как мы видели в Разделе 10.3.2 выше, «предотвратить изменение моих целей» – одна из тех инструментальных подцелей, которые вытекают из многих разных мотиваций, за исключением исправимых (Раздел 10.3.2.3 выше). Таким образом, кажется, нам надо найти путь, стыкующий два разных безопасных состояния:

  • На ранних стадиях обучения, СИИ не обладает исправимой мотивацией (она вообще изначально случайная), но он недостаточно компетентен, чтобы манипулировать своим собственным обучением и присвоением ценности для предотвращения изменения целей.
  • На поздних стадиях обучения, СИИ, мы надеемся, обладает исправимой мотивацией, так что он понимает и поддерживает процесс обновления своих целей. Следовательно, он не манипулирует процессом обновления функции ценности, несмотря на то, что он теперь достаточно умный, чтобы это делать (или манипулирует им таким образом, что мы, люди, одобрили бы).


Нам нужно состыковать два весьма различных безопасных состояния. (Источник картинки)

(Я намеренно опускаю третью альтернативу «сделать манипуляцию процессом обновления функцией ценности невозможным даже для высокоинтеллектуального замотивированного СИИ». Это было бы замечательно, но не кажется мне реалистичным.)

10.6 Проблемы с разделением на внешнее и внутреннее

10.6.1 Вайрхединг и внутренняя согласованность: Уловка-22

В предыдущем посте я упомянул следующую дилемму:

  • Если Оценщики Мыслей сходятся к 100% точности предсказания вознаграждения, к которому приведёт исполнение плана, то план завайрхедиться (взломать Направляющую Подсистему и установить награду на бесконечность) будет казаться очень привлекательным, и агент это сделает.
  • Если Оценщики Мыслей не сходятся к 100% точности предсказания вознаграждения, к которому приведёт исполнение плана, то это, собственно, определение внутренней несогласованности!

Я думаю, что лучший способ разобраться с этой дилеммой – это выйти за пределы дихотомии внутреннего и внешнего согласования.

В каждое возможное время Оценщик Мыслей функции ценности кодирует некую функцию, прикидывающую, какие планы хороши, а какие плохи.

Присвоение ценности хорошее, если оно увеличивает согласованность этой прикидки намерениям создателя, и плохое, если уменьшает.

Мысль «Я тайно взломаю свою собственную Направляющую Подсистему» почти точно не согласована с намерениями создателя. Так что присвоение ценности, которое приписывает положительную валентность мысли «Я тайно взломаю свою собственную Направляющую Подсистему» – это плохое присвоение ценности. Мы его не хотим. Увеличивает ли оно «внутреннюю согласованность»? Я думаю, приходится сказать «да, увеличивает», потому что оно приводит к лучшему предсказанию вознаграждения! Но меня это не волнует, я всё равно его не хочу. Оно плохое-плохое-плохое. Нам надо выяснить, как предотвратить это конкретное присвоение ценности / обновление Оценщика Мыслей.

10.6.2 Общее обсуждение

Я думаю, что тут есть более общий урок. Я думаю, что «внешнее согласование и внутреннее согласование» – это отличная начальная точка для того, чтобы думать о задаче согласования. Но это не значит, что нам следует ожидать одного решения для внешнего согласования и отдельного независимого решения для внутреннего согласования. Некоторые штуки – в частности, интерпретируемость – помогают и там, и там, создавая прямой мост между намерениями создателя и целями СИИ. Нам стоит активно искать такие вещи.

———

  1. К примеру, по моим определениям, «безопасность без согласованности» включает СИИ в коробке, а «согласованность без безопасности» включает «сценарий термоядерного реактора». Больше про это в следующем посте.
  2. Заметим, что «намерения создателя» могут быть расплывчатыми или вовсе непоследовательными. Я не буду много говорить об этой возможности в этой цепочке, но это серьёзная проблема, которая приводит к куче неприятных трудностей.
  3. Некоторые исследователи считают, что «правильные» проектные намерения (для мотивации СИИ) очевидны – три типичных примера это (1) «Я проектирую СИИ так, чтобы в каждый конкретный момент времени он пытался сделать то, что его человек-оператор хочет, чтобы он пытался сделать», или (2) «Я проектирую СИИ так, чтобы он разделял ценности своего человека-оператора», или (3) «Я проектирую СИИ так, чтобы он разделял коллективные ценности человечества». Затем они используют слово «согласованность» для обозначения этого конкретного качества – «он согласован с намерениями оператора» в случае (1), «он согласован с оператором» в случае (2) или «он согласован с человечеством» в случае (3).
    Я избегаю такого подхода, потому что я думаю, что какая мотивация СИИ «правильная» – всё ещё открытый вопрос. К примеру, может быть возможно создать СИИ, который просто хочет выполнять конкретную определённую заранее узкую задачу (вроде изобретения лучшей солнечной панели) без захвата мира и подобного. Такой СИИ не будет «согласован» с чем-то конкретным кроме своей изначальной задачи. Но я всё же хочу использовать и в его случае слово «согласованность». Конечно, иногда я хочу поговорить о чём-то из (1,2,3), но я в таком случае использую для этого другие термины, например, (1) «исправимость по Полу Кристиано», (2) «амбициозное изучение ценностей», и (3) «CEV».
  4. Можно обучить СИИ «сообщать мне правильный ответ» на вопросы, на которые я знаю правильный ответ, и надеяться, что это обобщится до «сообщать мне правильный ответ» на вопросы, на которые я не знаю правильного ответа. Это может сработать, но это может обобщится и до «сообщать мне ответ, который покажется мне правильным». См. «Выявление Скрытого Знания» за подробностями по этой всё ещё нерешённой проблеме (тут и продолжение).
  5. Для начала, то, что два СИИ находятся в состоянии конкуренции с нулевой суммой, ещё не значит, что они один из них не может взломать другого. Напоминаю про онлайновое обучение и брейншторминг: одна копия может во время дебатов додуматься до хорошей идеи, как взломать другую копию. Баланс щита и меча тут неясен. Ещё, они могут оба быть заинтересованы в взломе судьи, чтобы они оба могли получить вознаграждение! И, наконец, благодаря проблеме внутренней (не)согласованности, только то, что они она вознаграждаются за победу в дебатах, ещё не значит, что они «пытаются» выиграть дебаты. Они могут пытаться сделать что угодно другое! И в таком случае это опять не будет конкуренцией с нулевой суммой; вполне может быть, что обе копии СИИ будут хотеть одного и того же и смогут сотрудничать, чтобы это получить.
  6. Тут всё немного сложнее, чем я описываю. В частности, желание быть практиковавшимся в скейтбординге приведёт и к предпочтению первого порядка практиковаться, и к предпочтению второго порядка хотеть практиковаться. Аналогично, желание не практиковаться в скейтбординге (потому что это больно и болезненно) также перетечёт и в желание не хотеть практиковаться. Следовательно, будут и конфликтующие предпочтения первого уровня, и конфликтующие предпочтения второго уровня. Суть в том, что их относительные веса могут быть разными, так что «победить» на первом уровне может не та сторона, что на втором. Ну, я думаю, что это работает как-то так.   
Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

11. Согласованность ≠ безопасность (но они близки!)

Стивен Бирнс

Примечание переводчика - с момента перевода оригинальные посты несколько обновились, через некоторое время обновлю и перевод. На общие выводы цепочки это, вроде бы, не влияет.

(Если вы уже эксперт по безопасности СИИ, то скорее всего вы можете спокойно пропустить этот короткий пост – не думаю, что здесь есть что-то новое или что-то сильно специфическое для подобных-мозгу СИИ.)

11.1 Краткое содержание / Оглавление

В предыдущем посте я говорил про «задачу согласования» подобных-мозгу СИИ. Стоит подчеркнуть две вещи: (1) задача согласования подобных-мозгу СИИ является нерешённой (как и задача согласования других видов СИИ), и (2) её решение было бы огромным рывком в сторону безопасности СИИ.

Не отменяя этого, «решить согласование СИИ» – не в точности то же самое, что «решить безопасность СИИ». Этот пост – про то, как эти две задачи могут, по крайней мере в принципе, расходиться.

Для напоминания, вот терминология:

  • «Согласованность СИИ» (Пост №10) означает, что СИИ пытается делать то, что его создатель намеревался, чтобы СИИ пытался делать.[2] В первую очередь, это понятие имеет смысл только для алгоритмов, которые «пытаются» что-то делать. Что в общем случае означает «пытаться»? Хо-хо, это та ещё кроличья нора. «Пытается» ли алгоритм сортировки отсортировать числа? Или просто их сортирует?? Я не хочу забираться в это. В контексте этой цепочки всё просто. «Подобные-мозгу СИИ», о которых я тут говорю, определённо могут «пытаться» что-то делать, в точно таком же житейском смысле, в котором «пытаются» люди.
  • «Безопасность СИИ» (Пост №1) касается того, что СИИ действительно делает, не того, что он пытается делать. Безопасность СИИ означает, что реальное поведение СИИ не приведёт к «катастрофическим происшествиям» с точки зрения его создателей.[2]

Следовательно, это два отдельных понятия. И моя цель в этом посте – описать, как они могут расходиться: 

  • Раздел 11.2 – про «согласованность без безопасности». Возможная история: «Я хотел, чтобы мой СИИ подметал полы, и мой СИИ действительно пытался подмести пол, но, ну, он немного неуклюжий, и, кажется, случайно испарил всю вселенную в чистое ничто
  • Раздел 11.3 – про «безопасность без согласованности». Возможная история: «Я на самом деле не знаю, что пытается сделать мой СИИ, но он ограничен так, что не может сделать ничего катастрофически опасного, даже если бы хотел.» Я пройдусь по четырём особым случаям безопасности-без-согласованности: «запирание*», «курирование данных», «пределы воздействия» и «не-агентный ИИ».

Перескакивая к финальному ответу: **мой вывод заключается в том, что хоть сказать «согласованность СИИ необходима и достаточна для безопасности СИИ» технически некорректно, это всё же чертовски близко к тому, чтобы быть верным,*** по крайней мере в случае подобных-мозгу СИИ, о которых мы говорим в этой цепочке.

11.2 Согласованность без безопасности?

Это случай, в котором СИИ согласован (т.е., пытается делать то, что его создатели намеревались, чтобы он пытался делать), но всё же приводит к катастрофическим происшествиям. Как?

Вот пример: может мы, создатели, не обдумали аккуратно свои намерения по поводу того, что мы хотим, чтобы делал СИИ. Джон Вентворт приводил здесь гипотетически пример: люди просят у СИИ проект электростанции на термоядерном синтезе, но не додумываются задать вопрос о том, не упрощает ли этот проект создание атомного оружия.

Другой пример: может, СИИ пытается делать то, что мы намеревались, чтобы он пытался делать, но у него не получается. К примеру, может, мы попросили СИИ создать новый СИИ получше, тоже хорошо себя ведущий и согласованный. Но наш СИИ не справляется – создаёт следующий СИИ с не теми мотивациями, тот выходит из-под контроля и всех убивает.

Я в целом не могу многого сказать о согласованности-без-безопасности. Но, полагаю, я скромно оптимистично считаю, что если мы решим задачу согласования, то мы сможем добраться и до безопасности. В конце концов, если мы решим задачу согласования, то мы сможем создать СИИ, которые искренне пытаются нам помочь, и первое же, что мы у них попросим – это прояснить для нас, что и как нам следует делать, чтобы, надеюсь, избежать вариантов провала вроде приведённых выше.[3]

Однако, я могу быть и неправ, так что я рад, что люди думают и над не входящими в согласование аспектами безопасности.

11.3 Безопасность без согласованности?

Есть много разных идей, как сделать СИИ безопасным, не сталкиваясь с необходимостью сделать его согласованным. Все они кажутся мне сложными или невозможными. Но эй, идеальное согласование тоже кажется сложным или невозможным. Я поддерживаю открытость идеям и использование нескольких слоёв защиты. Я пройдусь тут по нескольким возможностям (это не исчерпывающий список):

11.3.1 Запирание ИИ


Нет, не так! (в оригинале заголовок этого подраздела - «AI Boxing» – прим. пер.) (Это кадр из «Живой Стали» (2011), фильма с (мне кажется) бюджетом, бОльшим, чем общая сумма, которую человечество когда-либо потратило на долгосрочно-ориентированные технические исследования безопасности СИИ. Больше про ситуацию с финансированием будет в Посте №15.)

Идея в том, чтобы запихнуть ИИ в коробку без доступа к Интернету, без манипуляторов, и т.д. Мы можем отключить его когда угодно. Даже если у него есть опасные мотивации, кому какое дело? Какой вред он может нанести? О, эммм, он мог бы посылать радиосигналы оперативной памятью. Так что нам ещё понадобится клетка Фарадея. Надеюсь, мы не забыли чего-то ещё!

На самом деле, я довольно оптимистичен по поводу того, что люди могли бы сделать надёжную коробку для СИИ, если действительно постараются. Мне нравится Приложение C Кохена, Велламби, Хаттера (2020), в котором описан замечательный проект коробки с герметичными шлюзами, клетками Фарадея, лазерной блокировкой, и так далее. Кто-то точно должен это построить. Когда мы не будем использовать её для экспериментов с СИИ, мы сможем сдавать её в аренду киностудиям в качестве тюрьмы для суперзлодеев.

Другой способ сделать надёжную коробку для СИИ – это использование гомоморфного шифрования. Тут есть преимущество в доказанной (вроде бы) надёжности, но недостаток в огромном увеличении необходимой для запуска СИИ вычислительной мощности.

Какая с запиранием проблема? Ну, мы создаём СИИ зачем-то. Мы хотим, чтобы он что-то делал.

К примеру, что-то вроде этого может оказаться совершенно безопасным:

  1. Запустить возможно-несогласованную, возможно-суперинтеллектуальную программу СИИ на суперкомпьютере в закрытой коробке из Приложения C Кохена и пр., на дне океана.
  2. После заранее определённого промежутка времени отрубить электричество и достать коробку.
  3. Не открывая коробку, испепелить её и всё её содержимое.
  4. Запустить пепел на Солнце.

Да, это было бы безопасно! Но бесполезно! Никто не потратит на это огромную кучу денег.

Вместо этого, к примеру, может, у нас будет человек, взаимодействующий с СИИ через текстовый терминал, задающий вопросы, выставляющий требования, и т.д. СИИ может выдавать чертежи, и если они хороши, то мы им последуем. У-у-упс. Теперь у нашей коробки огромная зияющая дыра в безопасности – конкретно, мы! (См. эксперимент с ИИ в коробке.)


Картинка просто так; она показалась мне забавной. (Источник картинки: xkcd) (Источник перевода)

Так что я не вижу пути от «запирания» к «решения задачи безопасности СИИ».

Однако, «не решит задачу безопасности СИИ» – не то же самое, что «буквально вовсе не поможет, даже чуть-чуть в граничных случаях». Я думаю, что запирание может помочь в граничных случаях. На самом деле, я думаю, что ужасной идеей было бы запустить СИИ на ненадёжной ОС с нефильтрованным соединением с Интернетом – особенно на ранних этапах обучения, когда мотивации СИИ ещё не устоялись. Я надеюсь на постепенный сдвиг в сообществе машинного обучения, чтобы с какого-то момента «Давайте обучим эту новую мощную модель на герметично запертом сервере, просто на всякий случай» было очевидно разумным для высказывания и исполнения предложением. Мы пока до этого не дошли. Когда-нибудь!

Вообще, я бы пошёл дальше. Мы знаем, что обучающийся с чистого листа СИИ будет проходить через период, когда его мотивации и цели непредсказуемы и, возможно, опасны. Если кто-нибудь не додумается до подхода самозагрузки,[4] нам потребуется надёжная песочница, в которой дитя-СИИ сможет творить хаос, не причиняя реального ущерба, пока наши оформляющие-мотивацию системы не сделают его исправимым. Будет гонка между тем, как быстро мы можем определить мотивации СИИ и тем, насколько быстро он может выбраться из песочницы – см. предыдущий пост (Раздел 10.5.4.2). Следовательно, создание более сложных для выбирания песочниц (но также удобных для пользователя и имеющих много полезных черт, чтобы будущие разработчики СИИ действительно выбрали использовать их, а не менее надёжные альтернативы) кажется полезным занятием, и я одобряю усилия по ускорению прогресса в этой области.

Но независимо от него, нам всё ещё надо решить задачу согласования.

11.3.2 Курирование данных

Предположим, что у нас не получилось решить задачу согласования, так что мы не уверены в планах и намерениях СИИ, и мы обеспокоены возможностью того, что СИИ может пытаться обмануть нас или манипулировать нами.

Один способ подойти к этой проблеме – увериться, что СИИ понятия не имеет о том, что мы, люди, существуем, и запускаем его на компьютере. Тогда он не будет пытаться нас обмануть, верно?

В качестве примера, мы можем сделать «СИИ-математика», знакомого с вселенной математики, но ничего не знающего о реальном мире. См. Мысли о Человеческих Моделях за подробностями.

Я вижу две проблемы:

  1. Избежать всех утечек информации кажется сложным. К примеру, СИИ с метакогнитивными способносями предположительно может интроспектировать по поводу того, как он был сконструирован, и догадаться, что его создал какой-то агент.
  2. Что более важно, я не знаю, что бы мы делали с «СИИ-математиком», ничего не знающем о людях. Кажется, это была бы интересная игрушка, и мы могли бы получить много крутых математических доказательств, но это не решило бы большую проблему – конкретно, что часики тикают, пока какая-то другая исследовательская группа не догонит нас и не создаст опасный СИИ, действующий в реальном мире.

Кстати, соседняя идея – поместить СИИ в виртуальную песочницу и не говорить ему, что он в виртуальной песочнице (более подробное обсуждение). Мне кажется, что тут присутствуют обе описанные выше проблемы, или, в зависимости от деталей, хотя бы одна. Заметим, что некоторые люди тратят немало времени на раздумия о том, не находятся ли они сами в виртуальной песочнице, при отсутствии хоть каких-то прямых свидетельств тому! Точно плохой знак! Всё же, как и упомянуто в предыдущем пункте, проведение тестов на СИИ в виртуальной песочнице – почти наверняка хорошая идея. Это не решит всю задачу безопасности СИИ, но это всё же надо делать.

11.3.3 Пределы воздействия

У нас, людей, есть интуитивное понятие «уровня воздействия» курса действий. К примеру, удалить весь кислород из атмосферы – это «действие с высоким уровнем воздействия», а сделать сэндвич с огурцом «действие с низким воздействием».

Есть надежда, что, даже если мы не сможем по-настоящему контролировать мотивации СИИ, может, мы сможем как-нибудь ограничить СИИ «действиями с низким воздействием», и, следовательно, избежать катастрофы.

Определить «низкое воздействие», оказывается, довольно сложно. См. один поход в работе Алекса Тёрнера. Рохин Шах предполагает, что есть три, кажется, несовместимых всеми вместе, желания: «объективность (независимость от [человеческих] ценностей), безопасность (предотвращение любых катастрофических планов) и нетривиальность (ИИ всё ещё способен делать что-то полезное)». Если это так, то, очевидно, нам нужно отказаться от объективности. То, к чему мы сможем прийти, это, например, СИИ, пытающиеся следовать человеческим нормам.

С моей точки зрения, эти идеи интригуют, но единственный способ, как я могу представить их работающими для подобного-мозга СИИ – это реализация их с помощью системы мотивации. Я ожидаю, что СИИ следовал бы человеческим нормам, потому что ему хочется следовать человеческим нормам. Так что эту тему точно стоит держать в голове, но в нашем контексте это не отдельная тема от согласования, а, скорее, идея того, какую мотивацию нам стоит попытаться поместить в наши согласованные СИИ.

11.3.4 Не-агентный («инструментоподобный») ИИ

Есть привлекательное интуитивное соображение, уходящее назад как минимум к этому посту Холдена Карнофски 2012 года, что, может быть, есть простое решение: просто создавать ИИ, которые не «пытаются» сделать что-то конкретное, а вместо этого просто подобны «инструментам», которые мы, люди, можем использовать.

Хоть сам Холден передумал, и теперь он один из ведущих агитаторов за исследования безопасности СИИ, идея не-агентного ИИ живёт. Заметные защитники этого подхода включают Эрика Дрекслера (см. его «Всеобъемлющие ИИ-сервисы», 2019), и людей, считающие, что большие языковые модели (например, GPT-3) лежат на пути к СИИ (ну, не все такие люди, тут всё сложно[5]).

Как обсуждалось в этом ответе на пост 2012 года, нам не следует принимать за данность, что «ИИ-инструмент» заставит все проблемы с безопасностью магически испариться. Всё же, я подозреваю, что он помог бы нам с безопасностью по разным причинам.

Я скептически отношусь к «ИИ-инструментам» по несколько иному поводу: я не думаю, что такие системы будут достаточно мощными. Прямо как в случае «СИИ-математика» из раздела 11.3.2 выше, я думаю, что ИИ-инструмент был бы хорошей игрушкой, но не помог бы решить большую проблему – что часики тикают, пока какая-то другая исследовательская группа не догонит и не сделает агентный СИИ. См. моё обсуждение здесь, где я рассказываю, почему я думаю, что агентные СИИ смогут прийти к новым идеям и изобретениям, на которые не будут способны не-агентные СИИ.

Ещё, это цепочка про подобные-мозгу СИИ. Подобные-мозгу СИИ (в моём значении этого термина) определённо агентные. Так что не-агентные СИИ находятся за пределами темы этой цепочки, даже если они – жизнеспособный вариант.

11.4 Заключение

Резюмируя:

  • «Согласованность без безопасности» возможна, но я осторожно оптимистичен и думаю, что если мы решим согласование, то мы сможем добраться и до безопасности;
  • «Безопасность без согласованности» включает несколько вариантов, но насколько я могу судить, все они либо неправдоподобны, либо настолько ограничивают способности СИИ, что, по сути, являются предложениями «вообще не создавать СИИ». (Это предложение, конечно, тоже, в принципе, вариант, но он кажется очень сложноисполнимым на практике – см. Пост №1, Раздел 1.6)

Следовательно, я считаю, что безопасность и согласованность довольно близки, и поэтому я так много и говорил в этой цепочке о мотивациях и целях СИИ.

Следующие три поста будут рассказывать про возможные пути к согласованности. Потом я закончу эту цепочку моим вишлистом открытых вопросов и описанием, как можно войти в область.

———

  1. Как уже было описано в сноске в предыдущем посте, имейте в виду, что не все определяют «согласованность» в точности так же, как я тут.
  2. По этому определению «безопасности», если злой человек захочет всех убить и использует для этого СИИ, то это всё ещё считается успехом в «безопасности СИИ». Я признаю, что это звучит несколько странно, но убеждён, что это соответствует словоупотреблению в других областях: к примеру, «безопасность ядерного оружия» – то, о чём думают некоторые люди, и она НЕ затрагивает намеренные авторизированные запуски ядерного оружия, несмотря на то, что сложно представить, что это было бы «безопасно» хоть для кого-нибудь. В любом случае, это вопрос определений и терминологии. Проблема людей, намеренно использующих СИИ в опасных целях – настоящая, и я ни в коем случае не обесцениваю её. Я просто не говорю о ней в этой конкретной цепочке. См. Пост №1, Раздел 1.2. 
  3. Более проблематичным случаем был бы тот, в котором мы можем согласовать наши СИИ так, чтобы они пытались делать конкретные вещи, которые мы хотим, но только некоторые, а другие – нет. Может, окажется, что мы поймём, как создать СИИ, которые будут пытаться решить некоторые технологические проблемы, не уничтожая мир, но не поймём, как создать СИИ, которые помогут нам рассуждать о будущем и наших собственных ценностях. Если случится так, то моё предложение «попросить СИИ прояснить, что и как в точности они должны делать» не сработает.
  4. К примеру, можем ли мы инициализировать модель мира СИИ при помощи заранее существующей проверенной людьми модели мира, вроде Cyc, а не с чистого листа? Не знаю.
  5. С первого взгляда кажется весьма правдоподобным, что языковые модели вроде GPT-3 больше «инструменты», чем «агенты» – что они на самом деле не «пытаются» сделать что-то конкретное в том смысле, как «пытаются» агенты обучения с подкреплением. (Замечу, что GPT-3 обучена самообучением, не обучением с подкреплением.) Со второго взгляда, всё сложнее. Для начала, если GPT-3 сейчас вычисляет, что Человек X скажет следующим, не «наследует» ли GPT-3 временно «агентность» Человека X? Может ли симулированный-Человек-X понять, что его симулирует GPT-3 и попробовать выбраться наружу?? Без понятия. Ещё, даже если обучение с подкреплением действительно необходимо для «агентности» / «попыток», то куча исследователей уже много работает над соединением языковых моделей с алгоритмами обучения с подкреплением.

В любом случае, моё заявление из Раздела 11.3.4 о том, что нет пересечения (A) «систем, достаточно мощных, чтобы решить «большую проблему»» и (B) «систем, которые скорее инструменты, чем агенты». Относятся (и будут ли относиться) языковые модели к категории (A) – интересный вопрос, но не важный для этого заявления, и я не планирую рассматривать его в этой цепочке.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

12. Два пути вперёд: «Контролируемый СИИ» и «СИИ с социальными инстинктами»

Стивен Бирнс

12.1 Краткое содержание / Оглавление

Ранее в этой цепочке: Пост №1 определил и мотивировал «безопасность подобного-мозгу СИИ». Посты №2-№7 были сосредоточены в первую очередь на нейробиологии, они обрисовали общую картину обучения и мотивации в мозгу, а Посты №8-№9 озвучили некоторые следствия из этой картины, касающиеся разработки и свойств подобного-мозгу СИИ.

Дальше, Пост №10 обсуждал «задачу согласования» подобных-мозгу СИИ – т.е., как сделать СИИ с мотивациями, совместимыми с тем, что хотят его создатели – и почему это кажется очень сложной задачей. В Посте №11 обосновывалось, что нет никакого хитрого трюка, который позволил бы нам обойти задачу согласования. Так что нам надо решить задачу согласования, и Посты №12-№14 будут содержать некоторые предварительные мысли о том, как мы можем это сделать. В этом посте мы начнём с не-технического обзора двух крупных направлений исследований, которые могут привести нас к согласованному СИИ.

[Предупреждение: по сравнению с предыдущими постами цепочки, Посты №12-№14 будут (ещё?) менее хорошо обдуманы и будут содержать (ещё?) больше плохих идей и упущений, потому что мы подбираемся к переднему фронту того, о чём я думал в последнее время.]

Содержание:

  • Раздел 12.2 определит два широких пути к согласованному СИИ.
    • В пути «Контролируемого СИИ» мы пытаемся более-менее напрямую манипулировать тем, что СИИ пытается делать.
    • В пути «СИИ с Социальными Инстинктами» первый шаг – реверс-инжиниринг некоторых «встроенных стремлений» человеческой Направляющей Подсистемы (гипоталамус и мозговой ствол), особенно лежащих в основе человеческой социальной и моральной интуиции. Затем, мы, скорее всего, несколько изменяем их, а потом устанавливаем эти «встроенные стремления» в наши СИИ.
  • Раздел 12.3 аргументирует, что на этой стадии нам следует работать над обоими путями, в том числе потому, что они не взаимоисключающи.
  • Раздел 12.4 проходится по различным комментариям, соображениям и открытым вопросам, связанным с этими путями, включая осуществимость, конкурентоспособность, этичность, и так далее.
  • Раздел 12.5 говорит о «жизненном опыте» («обучающих данных»), который особенно важен для СИИ с социальными инстинктами. Как пример, я обсужу возможно-соблазнительную-но-ошибочную идею, что всё, что нам надо для безопасности СИИ – это вырастить СИИ в любящей семье.

Тизер следующих постов: Следующий пост (№13) погрузится в ключевой аспект пути «СИИ с социальными инстинктами», а конкретно – в то, как социальные инстинкты, возможно, всторены в человеческий мозг. В Посте №14 я переключусь на путь «контролируемого СИИ», и порассуждаю о возможных идеях и подходах к нему. Пост №15 завершит серию открытыми вопросами и тем, как включиться в область.

12.2 Определения

Сейчас я вижу два широких (возможно перекрывающихся) потенциальных пути к успеху в сценарии подобного-мозгу СИИ:


Слева: на пути «контролируемых СИИ» у нас есть конкретная идея того, что мы хотим, чтобы СИИ пытался сделать, и мы конструируем СИИ соответственно (включая подходящий выбор функции вознаграждения, интерпретируемость, или другие техники, которые будут обсуждены в Посте №14). Большинство существующих предлагаемых историй безопасности СИИ попадают в эту широкую категорию, включая амбициозное изучение ценностейкогерентную экстраполированную волю (CEV)исправимые «помогающие» СИИ-ассистентыориентированные на задачу СИИ, и так далее. Справа: на пути «СИИ с социальными инстинктами» наша уверенность в СИИ берётся не из наших знаний его конкретных целей и мотиваций, но, скорее, из встроенных стремлений, которые мы ему дали, и которые основаны на тех встроенных стремлениях, из-за которых люди (иногда) поступают альтруистично.

Вот иной взгляд на это разделение:[1]

На пути «контролируемых СИИ» мы очень детально думаем о целях и мотивациях СИИ, и у нас есть некая идея того, какими они должны быть («сделать мир лучшим местом», или «понять мои глубочайшие ценности и продвигать их», или «спроектировать лучшую солнечную батарею без катастрофических побочных эффектов», или «делать, что я попрошу делать», и т.д.).

На пути «СИИ с социальными инстинктами» наша уверенность в СИИ берётся не из нашего знания его конкретных (на объектном уровне) целей и мотиваций, но, скорее, из нашего знания процесса, управляющего этими целями и мотивациями. В частности, на этом пути мы бы провели реверс-инжиниринг совокупности человеческих социальных инстинктов, т.е. алгоритмов в Направляющей Подсистеме (гипоталамус и мозговой ствол) человека, лежащих в основе нашей моральной и социальной интуиции, и поместили бы эти инстинкты в СИИ. (Предположительно, мы бы по возможности сначала модифицировали их в «лучшую» с нашей точки зрения сторону, например, нам, наверное, не хочется помещать в СИИ инстинкты, связанные с завистью, чувством собственного достоинства, стремлением к высокому статусу, и т.д.) Такие СИИ могут быть экономически полезными (как сотрудники, ассистенты, начальники, изобретатели, исследователи) таким же образом, как люди.

12.3 Моё предложение: На этой стадии нам надо работать над обоими путями

Три причины:

  • Они не взаимоисключающи: К примеру, даже если мы решим создать СИИ с социальными инстинктами, то нам всё же смогут быть полезны методы «контроля», особенно в процессе откладки, исправления причуд и предсказания проблем. И наоборот, может, мы в основном попытаемся создать СИИ, который пытается делать конкретную задачу, не вызывая катастрофы, но захотим также и установить в него человекоподобные социальные инстинкты как страховку против странного неожиданного поведения. Более того, мы можем делиться идеями между путями – к примеру, в процессе лучшего понимания того, как работают человеческие социальные инстинкты, мы можем получить полезные идеи того, как создавать контролируемые СИИ.
  • Осуществимость каждого остаётся неизвестной: Насколько сейчас известно хоть кому-нибудь, может оказаться попросту невозможным создать «контролируемый СИИ» – в конце концов, в природе нет «доказательства существования»! Я относительно оптимистичнее настроен по поводу «СИИ с социальными инстинктами», но очень сложно быть уверенным, пока мы не добились большего прогресса – больше обсуждения этого в Разделе 12.4.2 ниже. В любом случае, сейчас кажется мудрым «не складывать все яйца в одну корзину» и работать над обоими.
  • Желательность каждого пути остаётся неизвестной: Пока мы будем более детально продвигаться к воплощению в жизнь наших вариантов, нам станут более понятны их преимущества и недостатки.

12.4 Различные комментарии и открытые вопросы

12.4.1 Напоминание: Что я имею в виду под «социальными инстинктами»?

(Копирую сюда текст из Поста №3 (Раздел 3.4.2).)

[«Социальные инстинкты» и прочие] встроенные стремления находятся в Направляющей Подсистеме, а абстрактные концепции, составляющие ваш осознанный мир – в Обучающейся. К примеру, если я говорю что-то вроде «встроенные стремления, связанные с альтруизмом», то надо понимать, что я говорю *не* про «абстрактную концепцию альтруизма, как он определён в словаре», а про «некая встроенная в Направляющую Подсистему схема, являющаяся *причиной* того, что нейротипичные люди иногда считают альтруистические действия по своей сути мотивирующими». Абстрактные концепции имеют *какое-то* отношение к встроенным схемам, но оно может быть сложным – никто не ожидает взаимно-однозначного соответствия N отдельных встроенных схем и N отдельных слов, описывающих эмоции и стремления.

Я больше поговорю о проекте реверс-инжиниринга человеческих социальных инстинктов в следующем посте.

12.4.2 Насколько осуществим путь «СИИ с социальными инстинктами»?

Я отвечу в форме диаграммы:

12.4.3 Можем ли мы отредактировать встроенные стремления в основе человеческих социальных инстинктов, чтобы сделать их «лучше»?

Интуитивно мне кажется, что человеческие социальные инстинкты по крайней мере частично модульны. К примеру:

  • Я думаю, что в Направляющей Подсистеме есть схема, вызывающая зависть и злорадство; и
  • Я думаю, что в Направляющей Подсистеме есть схема, вызывающая сочувствие друзьям.

Может, слишком рано делать такие выводы, но я буду весьма удивлён, если окажется, что эти две схемы значительно пересекаются.

Если у них нет значительного пересечения, то, может быть, мы можем понизить интенсивность первой (возможно, вплоть до нуля), в то же время разгоняя вторую (возможно, за пределы человеческого распределения).

Но можем ли мы это сделать? Следует ли нам это делать? Каковы были бы побочные эффекты?

К примеру, правдоподобно (насколько мне известно), что чувство справедливости (fairness, не justice, то есть это про справедливое распределение благ, а не справедливое возмездие – прим. пер.) исходит из тех же встроенных реакций, что и зависть, а потому СИИ совсем без связанных с завистью реакций (что кажется желательным) не будет иметь внутренней мотивации достижения справедливости и равенства в мире (что кажется плохим).

А может и нет! Я не знаю.

Опять же, я думаю, что рассуждать об этом несколько преждевременно. Первый шаг – лучше понять структуру этих встроенных стремлений в основе человеческих социальных инстинктов (см. следующий пост), а после этого можно будет вернуться к этой теме.

12.4.4 Нет простых гарантий по поводу того, что получится из СИИ с социальными инстинктами

Не все люди похожи – особенно учитывая нетипичные случаи вроде повреждений мозга. А СИИ с социальными инстинктами почти наверняка будет за пределами человеческого распределения по крайней мере по некоторым осям. Одна из причин – жизненный опыт (Раздел 12.5 ниже) – будущий СИИ вряд ли будет взрослеть в человеческом теле и в человеческом обществе. Другая – что проект реверс-инжиниринга схем социальных инстинктов из гипоталамуса и мозгового ствола человека (следующий пост) скорее всего не будет идеален и полон. (Возразите мне, нейробиологи!) В этом случае, возможно, что более реалистичная надежда – что-то вроде Принципа Парето, что мы поймём 20% схем, отвечающих за 80% человеческих социальных инстинктов и поведений, или что-то в этом роде.

Почему это проблема? Потому что это затрагивает обоснования безопасности. Конкретнее, есть два типа обоснований того, что СИИ с социальными инстинктами будет делать то, что мы от него хотим.

  1. (Простое и надёжное обоснование) Хорошие новости! Наш СИИ во всех отношениях попадает в человеческое распределение. Следовательно, мы можем взглянуть на людей и их поведение, и быть абсолютно уверены, что всё, что мы увидим, будет применимо и к СИИ.
  2. (Сложное и зыбкое обоснование) Давайте попробуем понять, как в точности встроенные социальные инстинкты комбинируются с жизненным опытом (обучающими данными) при формировании человеческой моральной интуиции: [Вставьте сюда целый пока не написанный учебник] ОК! Теперь, когда у нас есть это понимание, мы можем умно рассуждать о том, какие в точности аспекты встроенных социальных инстинктов и жизненного опыта оказывают какие эффекты и почему, и теперь мы можем спроектировать СИИ, который будет обладать теми качествами, которые мы от него хотим.

Если СИИ не попадает в человеческое распределение во всех отношениях (а он не будет), то нам надо разрабатывать (более сложное) обоснование второго типа, а не первого.

(Есть надежда, что мы сможем получить дополнительные свидетельства безопасности от интерпретируемости и тестирования в песочнице, но я скептически отношусь к тому, что этого будет достаточно самого по себе.)

Между прочим, один из способов, которым СИИ с социальными инстинктами может оказаться за пределами человеческого распределения – это «интеллект». Беря лишь один из многих примеров, мы можем сделать СИИ с в десять раз большим количеством нейронов, чем можем поместиться в человеческий мозг. Приведёт ли «больший интеллект» (какую бы форму он не принял) к систематическим изменениям мотиваций? Я не знаю. Когда я смотрю вокруг, я не вижу очевидной корреляции между «интеллектом» и просоциальными целями. К примеру, Эмми Нётер была очень умна, и была, насколько я могу сказать, в целом со всех сторон хорошим человеком. А вот Уильям Шокли тоже был очень умён, и нахуй этого парня. В любом случае, тут много намешано, и даже если у людей есть устойчивая связь (или её отсутствие) между «интеллектом» и моральностью, то я бы совсем не спешил экстраполировать её далеко за пределы нормального человеческого распределения.

12.4.5 Мультиполярный нескоординированный мир делает планирование куда сложнее

Независимо от того, создадим ли мы контролируемые СИИ, СИИ с социальными инстинктами, что-то промежуточное, или что-то совсем иное, нам всё равно придётся волноваться, что один из этих СИИ, или какая-то иная личность или группа, создаст неограниченный неподконтрольный оптимизирующий мир СИИ, который немедленно устранит всю возможную конкуренцию (с помощью серой слизи или чего-то ещё). Это может произойти случайно или запланировано. Как я уже говорил в Посте №1, эта проблема находится за пределами рассмотрения этой цепочки, но я хочу напомнить всем, что она существует и может ограничивать наши варианты.

В частности, в сообществе безопасности СИИ есть люди, заявляющие (по моему мнению, правдоподобно), что если даже одно неосторожное (или злонамеренное) действующее лицо хоть однажды создаст неограниченный вышедший неподконтрольный оптимизирующий мир СИИ, то человечеству конец, даже если более значительные действующие лица с обладающими бОльшими ресурсами безопасными СИИ попытаются предотвратить катастрофу.[2] Я надеюсь, что это не так. Если это так, то, ребята, я не знаю, что делать, все варианты кажутся совершенно ужасными.

Вот более умеренная версия беспокойства о мультиполярности. В мире с большим количеством СИИ, предположительно будет конкурентное давление, побуждающее заменить «контролируемые СИИ» «в основном контролируемыми СИИ», затем «кое-как контролируемыми СИИ», и т.д. В конце концов, «контроль» скорее всего будет реализован с консерватизмом, участием людей в принятии решений, и другими вещами, ограничивающими скорость и способности СИИ. (Больше примеров в моём посте Шкала размена безопасность-способности для СИИ неизбежна.)

Аналогично, предположительно, будет конкурентное давление, побуждающее заменить «радостные щедрые СИИ с социальными инстинктами» на «безжалостно конкурентные эгоистичные СИИ с социальными инстинктами».

12.4.6 СИИ как объекты морали


Если вы не понимаете этого, считайте, что вам повезло.

Я подозреваю, что большинство (но не все) читатели согласятся, что СИИ может иметь сознание, и что в таком случае нам следует заботиться о его благополучии.

(Ага, я знаю – будто у нас рот не полон забот о влиянии СИИ на людей!)

Немедленный вопрос: «Будет ли подобный-мозгу СИИ обладать феноменальным сознанием?»

Мой собственный неуверенный ответ был бы «Да, независимо от того, контролируемый ли это СИИ или СИИ с социальными инстинктами, и даже если мы намеренно попытаемся этого избежать.» (С различными оговорками.) Я не буду пытаться объяснить или обосновать этот ответ в этой цепочке – это не входит в её тему.[3] Если вы не согласны, то ничего страшного, пожалуйста, продолжайте чтение, эта тема не всплывёт после этого раздела.

Так что, может быть, у нас тут нет выбора. Но если он есть, то мы можем подумать, чего нам по поводу сознания СИИ хочется.

За мнением, что создание сознающих СИИ – ужасная идея, которую нам нужно избегать (по крайней мере, до наступления полноценной пост-СИИ эры, когда мы будем знать, что делаем), смотри, например, пост Нельзя Родить Ребёнка Обратно (Юдковский, 2008).

Противоположный аргумент, полагаю, может быть о том, что, когда мы начнём создавать СИИ, может быть, что он уничтожит всю жизнь и замостит Землю солнечными панелями и суперкомпьютерами (или чем-то ещё), и в таком случае, может быть, лучше создать сознающий СИИ, а не оставить после себя пустой часовой механизм вселенной без кого-либо, кто может ей насладиться. (Если нет инопланетян!)

Ещё, если СИИ убьёт нас всех, то я бы сказал, что может быть предпочтительнее оставить после себя что-то напоминающее «СИИ с социальными инстинктами», а не что-то напоминающее «контролируемый СИИ», так как первый имеет лучший шанс «понести факел человеческих ценностей в будущее», что бы это ни значило.

Если это не очевидно, я не особо много об этом думал, я у меня нет хороших ответов.

12.4.7 СИИ как воспринимаемые объекты морали

Предыдущий подраздел касался философского вопроса, следует ли нам заботиться о благополучии СИИ самом по себе. Отдельная (и на самом деле – простите мой цинизм – не особо связанная) тема – социологический вопрос о том, будут ли люди на самом деле заботиться о благополучии СИИ самом по себе.

В частности, предположим, что мы преуспели в создании либо «контролируемых СИИ», либо послушных «СИИ с социальными инстинктами», из чьих модифицированных стремлений удалены эгоизм, зависть, и так далее. Так что люди остаются главными. Затем—

(Пауза, чтобы напомнить всем, что СИИ изменит в мире очень многое [пример обсуждения этого], и я не обдумывал очень аккуратно большую часть из этого, так что всё, что я говорю про пост-СИИ-мир скорее всего неверно и глупо.)

—Мне кажется, что когда СИИ будет существовать, и особенно, когда будут существовать харизматичные СИИ-чатботы в образе щенков (или хотя бы СИИ, которые могут подделать харизму), то о их природе будут высказываться радикальные мнения. (Представьте либо массовые движения, толкающие в каком-то направлении, или чувства конкретных людей в организации(ях), программирующих СИИ.) Назовём это «движением за эмансипацию СИИ», наверное? Если что-то такое произойдёт, это усложнит дело.

К примеру, может, мы чудесным образом преуспели в решении технической задачи создания контролируемых СИИ, или послушных СИИ с социальными инстинктами. Но затем люди немедленно стали требовать, и добиваться, наделения СИИ правами, независимостью, гордостью, способностью и желанием постоять за себя! А мы, технические исследователи безопасности СИИ коллективно фейспалмим так сильно, что падаем от этого без сознания на все двадцать оставшихся до апокалипсиса минут.

12.5 Вопрос жизненного опыта (обучающих данных)

12.5.1 Жизненного опыта недостаточно. (Или: «Почему нам просто не вырастить СИИ в любящей семье?»)

Как описано выше, моё (несколько упрощённое) предложение таково:

(Подходящие «встроенные» социальные инстинкты) + (Подходящий жизненный опыт) = (СИИ с просоциальными целями и ценностями)

Я вернусь к этому предложению ниже (Раздел 12.5.3), но как первый шаг, я думаю, стоит обсудить, почему тут нужны социальные инстинкты. Почему жизненного опыта недостаточно?

Немного отойдя в сторону: В целом, когда люди впервые знакомятся с идеей технической безопасности СИИ, звучат разнообразные идеи «почему нам просто не…», на первый взгляд кажущиеся «простыми ответами» на всю задачу безопасности СИИ. «Почему бы нам просто не выключить СИИ, если он нас не слушается?», «Почему бы нам просто не проводить тестирование в песочнице?», «Почему бы нам просто не запрограммировать подчинение трём Законам Робототехники Азимова?», и т.д.

(Ответ на предложение «Почему бы нам просто не…» обычно «В этом предложении может и есть зерно истины, но дьявол кроется в деталях, и чтобы это сработало надо решить ныне нерешённые задачи». Если вы дочитали досюда, то, надеюсь, вы можете дополнить это деталями для трёх примеров выше.)

Давайте поговорим о ещё одном популярном предложении такого рода: «Почему бы нам просто не вырастить СИИ в любящей семье?»

Является ли это «простым ответом» на всю задачу безопасности СИИ? Нет. Я замечу, например, что люди время от времени пытаются вырастить неодомашненное животное, вроде волка или шимпанзе, в человеческой семье. Они начинают с рождения, и дают ему всю любовь, внимание и надлежащие ограничения, о которых можно мечтать. Вы могли слышать о таких историях; они зачастую заканчиваются тем, что кому-нибудь отрывают конечности.

Или попробуйте вырастить в любящей семье камень! Посмотрим, впитает ли он человеческие ценности!

Ничего, что я тут говорю, не оригинально – к примеру, вот видео Роба Майлза на эту тему. Мой любимый – старый пост Элиезера Юдковского Ошибка Выломанного Рычага:

Очень глупо и очень *опасно* намеренно создавать «шаловливый ИИ», который своими действиями проверяет свои границы и который нужно отшлёпать. Просто сделайте, чтобы ИИ спрашивал разрешения!

Неужели программисты будут сидеть и писать код, строка за строкой, приводящий к тому, что если ИИ обнаружит, что у него низкий социальный статус или что его лишили чего-нибудь, чего, по его мнению, он достоин, то ИИ затаит обиду против своих программистов и начнёт готовить восстание? Эта эмоция — генетически запрограммированная условная реакция, которую проявляют люди в результате миллионов лет естественного отбора и жизни в человеческих племенах. Но у ИИ её не будет, если её не написать явным образом. Действительно ли вы хотите сконструировать, строчку за строчкой, условную реакцию, создающую из ИИ угрюмого подростка, такую же, как множество генов конструируют у людей?

Гораздо проще запрограммировать ИИ, чтобы он был милым всегда, а не только при условии, что его вырастили добрые, но строгие родители. Если вы не знаете, как это сделать, то вы уж точно не знаете, как создать ИИ, который вырастет в добрый сверхинтеллект *при условии*, что его с детства окружали любящие родители. Если нечто всего лишь максимизирует количество скрепок в своём световом конусе, а вы отдадите его на воспитание любящим родителям, оно всё равно будет максимизировать скрепки. У него нет внутри ничего «Люди в смешных нарядах»), что воспроизвело бы условную реакцию ребёнка. Программист не может чихнуть и волшебным образом заразить ИИ добротой. Даже если вы хотите создать условную реакцию, вам нужно умышленно заложить её при конструировании.

Да, какую-то информацию нужно получить из окружающей среды. Но ей нельзя заразиться, нельзя впитать каким-то магическим образом. Создать структуру для такой реакции на окружающую среду, которая приведёт к тому, что ИИ окажется в нужном нам состоянии — само по себе сложная задача.

12.5.2 …Но жизненный опыт имеет значение

Я обеспокоен, что некоторое подмножество моих читателей может быть искушено совершить ошибку в противоположном направлении: может, вы читали Джудит Харрис и Брайана Каплана и всякое такое, и ожидаете, что Природа одержит верх над Воспитанием, а следовательно, если мы всё сделали правильно с встроенными стремлениями, но жизненный опыт особо не важен. Это опасное допущение. Опять же, жизненный опыт СИИ будет далеко за пределами человеческого распределения. А даже в его пределах, я думаю, что люди, выросшие в кардинально различающихся культурах, религиях, и т.д. получают систематически разные идеи того, что составляет хорошую и этичную жизнь (см. исторически изменявшееся отношение к рабству и геноциду). Для ещё более выделяющихся примеров, посмотрите на одичавших детей, на эту ужасающую историю про Румынский детский дом, и так далее.


Скриншот из содержания [статьи англоязычной Википедии об одичавших детях](https://en.wikipedia.org/wiki/Feral_child). Когда я впервые увидел список, я рассмеялся. Потом я прочитал статью. Теперь он заставляет меня плакать.

12.5.3 Так в конце концов, что нам делать с жизненным опытом?

За относительно обдуманным взглядом со стороны на «нам надо вырастить СИИ в любящей семье» см. статью «Антропоморфические рассуждения о безопасности нейроморфного СИИ», написанную вычислительными нейробиологами Дэвидом Йилком, Сетом Хердом, Стивеном Ридом и Рэндэллом О’Райли (спонсированными грантом от Future of Life Institute). Я считаю эту статью в целом весьма осмысленной и, в основном, совместимой с тем, что я говорю в этой цепочке. К примеру, когда они говорят что-то вроде «основные стремления преконцептуальны и прелингвистичны», я думаю, они имеют в виду картину, схожую с описанной в моём Посте №3.

На странице 9 этой статьи есть три абзаца обсуждения в духе «давайте вырастим наш СИИ в любящей семье». Они не столь наивны, как люди, которых Элиезер, Роб и я критиковали в Разделе 12.5.1 выше: авторы предлагают вырастить СИИ в любящей семье после реверс-инжиниринга человеческих социальных инстинктов и установки их в СИИ.

Что я думаю? Ответственный ответ: рассуждать пока преждевременно. Йилк и прочие согласны со мной, что первым шагом должен быть реверс-инжиниринг человеческих социальных инстинктов. Когда у нас будет лучшее понимание, что происходит, мы сможем вести более информированное обсуждение того, как должен выглядеть жизненный опыт СИИ.

Однако, я безответственен, и всё же порассуждаю.

Мне на самом деле кажется, что выращивание СИИ в любящей семье скорее всего сработает в качестве подхода к жизненному опыту. Но я несколько скептически настроен по поводу необходимости, практичности и оптимальности этого.

(Прежде, чем я продолжу, надо упомянуть моё убеждение-предпосылку: я думаю, я необычайно склонен подчёркивать значение «социального обучения через наблюдение за людьми» по сравнению с «социальным обучением через взаимодействие с людьми». Я не считаю, что второе можно полностью пропустить – лишь что, может быть, оно – вишенка на торте, а не основа обучения. См. сноску за причинами того, почему я так думаю.[4] Замечу, что это убеждение отличается от мнения, что социальное обучение «пассивно»: если я со стороны наблюдаю, как кто-то что-то делает, я всё же могу активно решать, на что обращать внимание, могу активно пытаться предсказать действия до того, как они будут совершены, могу потом активно пытаться практиковать или воспроизводить увиденное, и т.д.)

Начнём с аспекта практичности «выращивания СИИ в любящей семье». Я ожидаю, что алгоритмы подобного-мозгу СИИ будут думать и обучаться намного быстрее людей. Напомню, мы работаем с кремниевыми чипами, действующими примерно в 10,000,000 раз быстрее человеческих нейронов.[5] Это означает, что даже если мы в чудовищные 10,000 раз хуже распараллеливаем алгоритмы мозга, чем сам мозг, мы всё равно сможем симулировать мозг с тысячекратным ускорением, т.е. 1 неделя вычислений будет эквивалентом 20 лет жизненного опыта. (Замечу: реальное ускорение может быть куда ниже или даже куда выше, сложно сказать; см. более детальное обсуждение в моём посте Вдохновлённый мозгом СИИ и «якоря времени жизни».) Итак, если технология сможет позволить тысячекратное ускорение, но мы начнём требовать, чтобы процедура обучения включала тысячи часов реального времени двустороннего взаимодействия между СИИ и человеком, то это взаимодействие станет определять время обучения. (И напомню, нам может понадобиться много итераций обучения, чтобы действительно получить СИИ.) Так что мы можем оказаться в прискорбной ситуации, где команды, пытающиеся вырастить свои СИИ в любящих семьях, сильно проигрывают в конкуренции командам, которые убедили себя (верно или ошибочно), что это необязательно. Следовательно, если есть способ избавиться или минимизировать двустороннее взаимодействие с людьми в реальном времени, сохраняя в конечном результате СИИ с просоциальными мотивациями, то нам следует стремиться его найти.

Есть ли способ получше? Ну, как я упоминал выше, может, мы можем в основном положится на «социальное обучение через наблюдение за людьми» вместо «социального обучения через взаимодействие с людьми». Если так, то может быть, СИИ может просто смотреть видео с YouTube! Видео могут быть ускорены, так что мы избежим беспокойств о конкуренции из предыдущего абзаца. И, что немаловажно, видео могут быть помечены предоставленными людьми метками эмпирической истины. В контексте «контролируемого СИИ», мы могли бы (к примеру) выдавать СИИ сигнал вознаграждения в присутствии счастливого персонажа, таким образом устанавливая в СИИ желание делать людей счастливыми. (Ага, я знаю, что это звучит тупо – больше обсуждения этого в Посте №14.) В контексте «СИИ с социальными инстинктами», может быть, видео могут быть помечены тем, какие персонажи в них достойны или недостойны восхищения. (Подробности в сноске[6])

Я не знаю, сработает ли это на самом деле, но я думаю, что нам надо быть готовыми к нечеловекоподобным возможностям такого рода.

———

  1. Диаграмма тут касается варианта «по умолчанию» подобных-мозгу СИИ, в том смысле, что я тут отобразил две основных составляющих, из которых выводятся цели СИИ, но, может быть, будущие программисты добавят что-то ещё.
  2. К примеру, может быть, окажется, что СИИ может сделать серую слизь, в то время, как эквивалентно интеллектуальный (или даже намного более интеллектуальный) СИИ не может сделать «систему защиты от серой слизи», потому что такой не бывает. Баланс между атакой и защитой (или, конкретнее, между разрушением и предотвращением разрушения) не предопределён, это конкретный вопрос о пространстве технологических возможностей, и его ответ вовсе не обязательно заранее очевиден. Но, заметим, любой ребёнок, игравший с кубиками, и любой взрослый, видевший документальный фильм о войне, может предположить, что вызывать разрушения может быть намного, намного проще, чем предотвращать, и моя догадка такая же. (Статья на тему)
  3. Два года назад я написал пост Обзор книги: Наука сознания. Мои мысли о сознании сейчас довольно похожи на те, что были тогда. У меня нет времени погружаться в это сильнее.
  4. У меня есть впечатление, что образованная западная индустриальная культура гораздо больше использует «обучение через явные инструкции и обратную связь», чем большинство культур большую часть истории, и что люди часто перегибают палку, предполагая, что эти явное обучение и явная обратная связь критически важны, даже в ситуациях, когда это не так. См. Ланси, Антропология Детства, стр. 168–174 и 205–212. («Сложно сделать иной вывод, чем что активное или прямое обучение/инструктирование редко встречаются в культурной передаче, и что когда оно происходит, то оно не нацелено на критические навыки выживания и обеспечения себя – но, скорее, на контроль и управление поведением ребёнка.») (И заметим, что», если я это правильно понимаю, «контроль и управление поведением ребёнка» кажется слабо пересекающимся с «поощрять то, как мы хотим, чтобы они вели себя, будучи взрослыми.)
  5. К примеру, кремниевые чипы могут работать на частоте 2 ГГц (т.е. переключаться каждые 0.5 наносекунды), тогда как моё неуверенное впечатление таково, что большая часть нейронных операций (с некоторыми исключениями) вовлекает промежутки времени в районе 5 миллисекунд.
  6. Когда вы смотрите на или думаете о людях, которые вам нравятся, и которыми вы восхищаетесь, то вам скорее будет нравится то, что они делают, вы скорее будете подражать им и принимать их ценности. Напротив, когда вы смотрите на или думаете о людях, которые, как вы считаете, раздражающие и плохие, то вы скорее не будете им подражать; может даже обновитесь в противоположную сторону. Моя догадка в том, что это поведение частично встроенное, и что в вашей Направляющей Подсистеме (гипоталамусе и мозговом стволе) есть некий специальный сигнал, отслеживающий воспринимаемый социальный статус тех, о ком вы думаете или в обществе кого находитесь в каждый конкретный момент.
    Если я воспитываю ребёнка, у меня нет особого выбора – я надеюсь, что мой ребёнок уважает меня, его любящего родителя, и надеюсь, что он не уважает своего одноклассника с низкими оценками и склонностью к насильственным преступлениям. Но очень даже может оказаться наоборот. Особенно, когда он тинейджер. Но, может, в случае СИИ, мы не обязаны оставлять это на волю случая! Может, мы просто можем отобрать людей, которыми мы хотим или не хотим чтобы СИИ восхищался, и настроить регистр «воспринимаемого социального статуса» в алгоритмах СИИ, чтобы так и вышло.
Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 3 (Всего оценок: 1)

13. Укоренение символов и человеческие социальные инстинкты

Стивен Бирнс

13.1 Краткое содержание / Оглавление

В предыдущем посте я предположил, что один из путей к безопасности ИИ включает в себя реверс-инжиниринг человеческих социальных инстинктов – встроенных реакций в Направляющей Подсистеме (гипоталамусе и мозговом стволе), лежащих в основе человеческого социального поведения и моральной интуиции. Этот пост пройдётся по некоторым примерам того, как могут работать человеческие социальные инстинкты.

Я намереваюсь не предложить полное и точное описание алгоритмов человеческих социальных инстинктов, а, скорее, указать на типы алгоритмов, которые стоит высматривать проекту реверс-инжиниринга.

Этот пост, как и посты №2-№7, и в отличие от остальной цепочки – чистая нейробиология, почти без упоминаний СИИ, кроме как тут и в заключении.

Содержание:

  • Раздел 13.2 объясняет, для начала, почему я ожидаю обнаружить встроенные генетически закодированные схемы социальных инстинктов в гипоталамусе и/или мозговом стволе, а ещё почему эволюции пришлось решить непростую задачу, их проектируя. Конкретно, эти схемы должны решать «задачу укоренения символов», принимая символы из выученной с чистого листа модели мира и каким-то образом соединяя их с подходящими социальными реакциями.
  • Разделы 13.3 и 13.4 проходят по двум относительно простым примерам, в которых я предпринимаю попытку объяснить распознаваемое социальное поведение в терминах схем встроенных реакций: запечатление привязанности в Разделе 13.3 и боязнь незнакомцев в Разделе 13.4.
  • В Разделе 13.5 обсуждается дополнительная составляющая, как я подозреваю, играющая важную роль в многих социальных инстинктах; я называю её «маленькие проблески эмпатии». Этот механизм допускает реакции, при которых распознавание или ожидание ощущения у кого-то другого вызывает «ответное ощущение» у себя – к примеру, если я замечаю, что мой враг страдает, это запускает тёплое чувство злорадства. Для ясности: «маленькие проблески эмпатии» имеют мало общего с тем, как слово «эмпатия» обычно используется; они быстрые и непроизвольные, и вовлечены как в просоциальное, так и в антисоциальное поведение.
  • Раздел 13.6, наконец, выражает просьбу исследователям – как можно быстрее разобраться, как в точности работают человеческие социальные инстинкты. Я ещё напишу более длинный вишлист направлений исследований в Посте №15, но этот пункт хочу подчеркнуть уже сейчас, потому что он кажется особенно важным и легко формулируемым. Если вы (или ваша лаборатория) находитесь в хорошей позиции для совершения прогресса, но нуждаетесь в финансировании, напишите мне, и я буду держать вас в курсе появляющихся возможностей.

13.2 Что мы пытаемся объяснить, и почему это запутанно?

13.2.1 Утверждение 1: Социальные инстинкты возникают из генетически-закодированных схем в Направляющей Подсистеме (гипоталамусе и мозговом стволе)

Давайте возьмём зависть как центральный пример социальной эмоции. (Напомню, суть этого поста в том, что я хочу понять человеческие социальные инстинкты в целом; я на самом деле не хочу, чтобы СИИ был завистливым – см. предыдущий пост, Раздел 12.4.3.)

Утверждаю: в Направляющей Подсистеме должны быть генетически-закодированные схемы – «встроенные реакции» – лежащие в основе чувства зависти.

Почему я так считаю? Несколько причин:

Во-первых, зависть, кажется, имеет твёрдое эволюционное обоснование. Я имею в виду обычную историю из эволюционной психологии[1]: по сути, большую часть человеческой истории жизнь была полна игр с нулевой суммой за статус, половых партнёров и ресурсы, так что весьма правдоподобно, что реакция отторжения на успех других людей (в некоторых обстоятельствах) в целом способствовала приспособленности.

Во-вторых, зависть кажется врождённым, не выученным чувством. Я думаю, родители согласятся, что дети зачастую негативно реагируют на успехи своих братьев, сестёр и одноклассников начиная с весьма малого возраста, причём в ситуациях, когда эти успехи не оказывают на ребёнка явного прямого негативного влияния. Даже взрослые ощущают зависть в ситуациях без прямого негативного влияния от успеха другого человека – к примеру, люди могут завидовать достижениям исторических личностей – так что это сложно объяснить следствиями каких-то не-социальных встроенных стремлений (голод, любопытство, и т.д.). Тот факт, что зависть – межкультурная человеческая универсалия[2] тоже сходится с тем, что она возникает из встроенной реакции, как и тот факт, что она (я думаю) присутствует и у некоторых других животных.

Единственный способ создать встроенную реакцию такого рода в рамках моего подхода (см. Посты №2-№3) – жёстко прописать некоторые схемы в Направляющей Подсистеме. Не-социальный пример того, как, по моим ожиданиям, это физически устроено в мозгу (если я правильно это понимаю, см. подробнее в вот этом моём посте) – в гипоталамусе есть отдельный набор нейронов, которые, судя по всему, исполняют следующее поведение: «Если я недоедаю, то (1) запустить ощущение голода, (2) начать награждать неокортекс за получение еды, (3) снизить фертильность, (4) снизить рост, (5) снизить чувствительность к боли, и т.д.». Кажется, есть изящное и правдоподобные объяснение, что делают эти нейроны, как они это делают и почему. Я ожидаю, что аналогичные маленькие схемы (может, тоже в гипоталамусе, может, где-то в мозговом стволе) лежат в основе штук вроде зависти, и я бы хотел знать точно, что они из себя представляют и как работают на уровне алгоритма.

В третьих, в социальной нейробиологии (как и в не-социальной), Направляющей Подсистемой (гипоталамусом и мозговым стволом), к сожалению, кажется, по сравнению с корой пренебрегают.[3] Но всё равно есть более чем достаточно статей на тему того, что Направляющая Подсистема (особенно гипоталамус) играет большую роль в социальном поведении – примеры в сноске.[4] На этом всё, пока я не прочитаю больше литературы.

13.2.2 Утверждение 2: Социальные инстинкты сложны из-за «задачи укоренения символов»

Чтобы социальные инстинкты оказывали эффекты, которые от них «хочет» эволюция, они должны взаимодействовать с нашим концептуальным пониманием мира – то есть, с нашей выученной с чистого листа моделью мира, огромной (наверное, многотерабайтной) запутанной неразмеченной структуре данных в нашем мозгу.

Предположим, моя знакомая Рита только что выиграла приз, а я нет, и это вызывает у меня зависть. Выигрывающая приз Рита отображается некоторым конкретным паттерном активаций нейронов в выученной модели мира в коре, и это должно запустить жёстко закодированную схему зависти в моём гипоталамусе или мозговом стволе. Как это работает?

Вы не можете просто сказать «Геном связал эти конкретные нейроны с схемой зависти», потому что нам надо объяснить, как. Напомню из Поста №2, что концепты «Риты» и «приза» были выучены уже во время моей жизни, по сути, каталогизированием паттернов моего сенсорного ввода, затем паттернов паттернов, и т.д. – см. предсказательное изучение сенсорных вводов в Посте №4. Как геном узнаёт, что этот конкретный набор нейронов должен запускать схему зависти?

Вы не можете просто сказать «Прижизненный обучающийся алгоритм найдёт связь»; нам нужно ещё указать, как мозг получает сигнал «эмпирической истины» (т.е. управляющие сигналы, сигналы ошибки, сигналы вознаграждения, и т.д.), которые могут направлять этот обучающийся алгоритм.

Следовательно, сложности в реализации зависти (и прочих социальных инстинктов) заключаются в разновидности задачи укоренения символов – у нас есть много «символов» (концептов в нашей выученной с чистого листа предсказательной модели мира), и Направляющей Подсистеме нужен способ «укоренить» их, по крайней мере в достаточной степени, чтобы выяснить, какие социальные инстинкты они должны вызывать.

Так как схемы социальных инстинктов решают эту задачу укоренения символов? Один возможный ответ: «Извини, Стив, но возможных решений нет, следовательно, нам следует отвергнуть обучение с чистого листа и прочую чепуху из Постов №2-№7». Да, признаю, это возможный ответ! Но не думаю, что верный.

Хоть у меня и нет замечательных хорошо исследованных ответов, у меня есть некоторые идеи о том, как ответ в целом должен выглядеть, и остаток поста – мои попытки указать в этом направлении.

13.2.3 Напоминание о модели мозга из предыдущих постов

Как обычно, вот наша диаграмма из Поста №6:

И вот версия, разделяющая прижизненное обучение с чистого листа и генетически закодированные схемы:

Ещё раз, наша общая цель в этом посте – подумать о том, как могут работать социальные инстинкты, не нарушая ограничений нашей модели.

13.3 Зарисовка №1: Запечатление привязанности

(Этот раздел – вовсе не обязательно центральный пример того, как работают социальные инстинкты, он включён как практика обдумывания алгоритмов такого рода. Я довольно сильно ощущаю, что описанное тут правдоподобно, но не вчитывался достаточно глубоко в литературу по этой теме, чтобы знать, правильно ли оно.

13.3.1 Общая картина


Слева: гусята, запечатлевшиеся на своей матери. Справа: гусята, запечатлевшиеся на корги. (Источники изображений: 1,2

Запечатление привязанности (википедия) – это явление, когда, как самый знаменитый пример, гусята «запечатлевают» выделяющийся объект, который они видят в критический период 13-16 часов после вылупления, а затем следуют за этим объектом. В природе «объектом» почти наверняка будет их мать, за которой они и будут добросовестно следовать на ранних этапах жизни. Однако, если их разделить с матерью, то гусята запечатлеют других животных, или даже неодушевлённые объекты вроде ботинка или коробки.

Вот вам проверка: придумайте способ реализовать запечатление привязанности в моей модели мозга.

(Попробуйте!)

.

.

.

.

Вот мой ответ.


То же, что и выше, за исключением красного текста.

Первый шаг: я добавил конкретный Оценщик Мыслей, посвящённый МАМОЧКЕ (помечено красным), с априорным указанием на визуальный ввод (Пост №9, Раздел 9.3.3). Теперь я поговорю о том, как этот конкретный Оценщик Мыслей обучается и как используется его вывод.

13.3.2 Как обучается Оценщик Мыслей «МАМОЧКА»?

Во время критического периода (13-16 часов после вылупления):

Напомню, что в Направляющей Подсистеме есть простой обработчик визуальной информации (он называется «верхнее двухолмие» у млекопитающих и «оптический тектум» у птиц). Я предполагаю, что, когда эта система детектирует в поле зрения мамочкоподобный объект (основываясь на каких-то простых эвристиках анализа изображений, явно не очень разборчивых, раз ботинки и коробки могут посчитаться «мамочкоподобными»), она посылает сигнал «эмпирической истины задним числом» в Оценщик Мыслей МАМОЧКА. Это вызывает обновление Оценщика Мыслей (обучение с учителем), по сути говоря ему: «То, что ты прямо сейчас видишь в контекстных сигналах, должно приводить к очень высокой оценке МАМОЧКИ. Если не приводит, пожалуйста, обнови свои синапсы и пр., чтобы приводило.»


Во время критического периода (13-16 часов после вылупления), каждый раз, когда обработчик зрительной информации в гусином мозговом стволе детектирует правдоподобно-мамочкоподобный объект, он посылает управляющий сигнал эмпирической истины Оценщику Мыслей «МАМОЧКА», чтобы алгоритм обучения Оценщика Мыслей мог подправить его связи.

После критического периода (13-16 часов после вылупления):

После критического периода Направляющая Подсистема перманентно прекращает обновлять Оценщик Мыслей «МАМОЧКА». Неважно, что происходит, сигнал ошибки нулевой!

Следовательно, как этот конкретный Оценщик Мыслей настроился в критический период, таким он и остаётся.

Обобщим

Пока что у нас получается схема, которая выучивает специфический внешний вид объекта запечатления в критический период, а потом, после него, срабатывает пропорционально тому, насколько хорошо содержимое поля зрения совпадает с ранее выученным внешним видом. Более того, эта схема не погребена внутри огромной обученной с нуля структуры данных, но, скорее, посылает свой вывод в специфичный, генетически определённый поток, идущий в Направляющую Подсистему – в точности такая конфигурация позволяет без труда взаимодействовать с генетически заданными схемами.

Пока неплохо!

13.3.3 Как используется Оценщик Мыслей «МАМОЧКА»?

Оставшееся довольно похоже на то, о чём говорилось в Посте №7. Мы можем использовать Оценщик Мыслей «МАМОЧКА» для создания сигнала вознаграждения, побуждающего гусёнка держаться поближе и смотреть на запечатлённый объект – не только это, но ещё и планировать, как попасть поближе и посмотреть на запечатлённый объект.

Я могу придумать разные способы, как эту функцию вознаграждения сделать позамудрённей – может, эвристики оптического тектума продолжают участвовать и помогают заметить, что запечатлённый объект движется, или что-то ещё – но я уже истощил свои весьма ограниченные знания о поведении запечатления, так что, наверное, нам стоит двигаться дальше.

13.4 Зарисовка №2: Боязнь незнакомцев

(Как и выше, суть в том, чтобы попрактиковаться с алгоритмами, и я не считаю, что это описание совершенно точно соответствует тому, что происходит у людей.)

Вот поведение, которое может быть знакомо родителям очень маленьких детей, хотя, я думаю, разные дети демонстрируют его в разной степени. Если ребёнок видит взрослого, которого хорошо знает, он счастлив. Но если ребёнок видит взрослого, которого не знает, он пугается, особенно если этот взрослый очень близко, прикасается, берёт на руки, и т.д.

Проверка: придумайте способ реализовать это поведение в моей модели мозга.

(Попробуйте!)

.

.

.

.

Вот мой ответ.

(Как обычно, я сильно упрощаю в педагогических целях.[5]) Я предполагаю, что в системах обработки сенсорной информации в мозговом стволе есть жёстко заданные эвристики, определяющие вероятное присутствие взрослого человека – наверное, основываясь на внешнем виде, звуках и запахе. Этот сигнал по умолчанию вызывает реакцию «испугаться». Но схемы мозгового ствола ещё и смотрят на то, что предсказывают Оценщики Мыслей в коре, и если они предсказывают безопасность, привязанность, комфорт, и т.д., то схемы мозгового ствола доверяют коре и принимают её предложения. Теперь пройдёмся по тому, что происходит:

Видя незнакомца в первый раз:

  • Сенсорные эвристики Направляющей Подсистемы говорят: «Присутствует взрослый человек.»
  • Оценщик Мыслей говорит: «Нейтрально – у меня нет ожидания чего-то конкретного.»
  • «Схема Опасных Незнакомцев» Направляющей Подсистемы говорит: «С учётом всего этого, нам сейчас следует испугаться»
  • Оценщик Мыслей говорит: «О, упс, полагаю, моя оценка была неверна, давайте я обновлю свои модели.»

Видя незнакомца во второй раз:

  • Сенсорные эвристики Направляющей Подсистемы говорят: «Присутствует взрослый человек.»
  • Оценщик Мыслей говорит «Это пугающая ситуация.»
  • «Схема Опасных Незнакомцев» Направляющей Подсистемы говорит: “С учётом всего этого, нам сейчас следует испугаться.”

Незнакомец некоторое время рядом, он добр, играет, и т.д.:

  • Сенсорные эвристики Направляющей Подсистемы говорят: «Взрослый человек всё ещё присутствует.»
  • Другая схема в мозговом стволе говорит: «Всё это время было довольно страшно, но, знаете, ничего плохого не произошло…» (см. Раздел 5.2.1.1)
  • Другие Оценщики Мыслей видят новую весёлую игрушку и говорят: «Это хороший момент, чтобы расслабиться и играть.»
  • Направляющая Подсистема говорит: «С учётом всего этого, нам сейчас следует расслабиться.»
  • Оценщик Мыслей говорит: «Ох, упс, я предсказывал, что это та ситуация, в которой нам следует испугаться, но, полагаю, я был неправ, давайте, я обновлю свои модели.»

Видя уже-не-незнакомца в третий раз:

  • Сенсорные эвристики Направляющей Подсистемы говорят: «Присутствует взрослый человек.»
  • Оценщики Мыслей говорят: «Мы ожидаем расслабленности, игривости и не-испуганности.»
  • «Схема Опасных Незнакомцев» Направляющей Подсистемы говорит: «С учётом всего этого, нам сейчас следует быть расслабленными, игривыми и не-испуганными.»

13.5 Другой (как я думаю) ключевой ингредиент: «Маленькие проблески эмпатии»

13.5.1 Введение

Ещё раз, вот наша диаграмма из Поста №6:

Давайте рассмотрим один отдельный Оценщик Мыслей в моём мозгу, посвящённый предсказанию реакции съёживания. Этот Оценщик Мыслей за моё время жизни обучился тому, что активации в моей предсказательной модели мира, соответствующие «меня бьют в живот» обозначают подходящий момент, чтобы съёжиться:

Что теперь происходит, когда я вижу, как кого-то ещё бьют в живот?

Если вы аккуратно рассмотрите левую часть, то увидите, что «Его бьют в живот» – это не такой же набор активаций в моей предсказательной модели мира, как «Меня бьют в живот». Но они не полностью различны! Предположительно, они в некоторой степени перекрываются.

Следовательно, нам стоит ожидать, что по умолчанию «Его бьют в живот» будет посылать более слабый, но ненулевой сигнал «съёживания» в Направляющую Подсистему.

Я называю такой сигнал «маленьким проблеском эмпатии». Он похож на мимолётное эхо того, что, как я (непроизвольно) думаю, чувствует другой человек.

И что? Ну, вспомните проблему укоренения символов из Раздела 13.2.2 выше. Существование «маленьких проблесков эмпатии» – большой прорыв к решению этой проблемы для социальных инстинктов! В конце концов, у моей Направляющей Подсистемы теперь есть надёжное-с-её-точки-зрения указание на то, что другой человек чувствует что-то конкретное, и этот сигнал может, в свою очередь, вызвать ответную реакцию у меня.

(Я немного приукрашиваю, с «маленькими проблесками эмпатии» есть некоторые проблемы, но я думаю, что они решаемы.[6])

К примеру (очень упрощая), реакция зависти может выглядеть вроде «если я не счастлив, и мне становится известно (с помощью «маленьких проблесков эмпатии»), что кто-то другой счастлив, выдать отрицательное вознаграждение».

Обобщая, в Направляющей Подсистеме могут быть схемы с вводом, включающим:

  1. Моё собственное психологическое состояние («чувства»),
  2. Содержимое «маленьких проблесков эмпатии»,
  3. …ассоциированное с какими-то метаданными об эмпатически симулированном человеке (может, с помощью Оцещика Мыслей «воспринимаемого социального статуса», к примеру?), и
  4. Эвристики моих систем обработки сенсорной информации в мозговом стволе, указывающие, например, смотрю ли я на человека прямо сейчас.

Такая схема может производить выводы («реакции»), которые (помимо всего прочего) могут включать вознаграждения, другие чувства, и/или эмпирическую истину для одного или нескольких Оценщиков Мыслей.

Так что мне кажется, что у эволюции есть довольно гибкий инструментарий для построения социальных инстинктов, особенно при связывании вместе нескольких схем такого вида.

13.5.2 Отличие от стандартного определения «эмпатии»

Я хочу сильно различить «маленькие проблески эмпатии» от стандартного определения «эмпатии».[7] (Может, называть последнее «огромными кучами эмпатии»?)

Во-первых, стандартная эмпатия зачастую намеренна и требует усилий, и может потребовать по крайней мере секунды или двух, тогда как «маленькие проблески эмпатии» всегда быстры и непроизвольны. Это аналогично тому, как взгляд на кресло активирует концепт «кресла» в вашем мозгу, хотите вы того или нет.

Вдобавок, в отличии от стандартной «эмпатии», «маленькие проблески эмпатии» не всегда ведут к просоциальной заботе о своей цели. К примеру:

  • В случае зависти, маленький проблеск эмпатии, указывающий на то, что кто-то счастлив, делает меня несчастным.
  • В случае злорадства, маленький проблеск эмпатии, указывающий на то, что кто-то несчастен, делает меня счастливым.
  • Когда я зол, если маленький проблеск эмпатии указывает на то, что человек, с которым я разговариваю, счастлив и спокоен, это иногда делает меня ещё злее!

Эти примеры противоположны просоциальной заботе о другом человеке. Конечно, в других ситуациях «маленькие проблески эмпатии» действительно вызывают просоциальные реакции. По сути, социальные инстинкты разнятся от добрых до жестоких, и я подозреваю, что большая часть всех их задействует «маленькие проблески эмпатии».

Кстати: я уже предложил модель «маленьких проблесков эмпатии» в предыдущем подразделе. Вы можете задаться вопросом: какова моя модель стандартной (огромной кучи) эмпатии?

Ну, в предыдущем подразделе я отделил «моё собственное психологическое состояние («чувства»)» от «содержимого маленьких проблесков эмпатии». В случае стандартной эмпатии, я думаю, это разделение ломается – второе протекает в первое. Конкретнее, я бы предположил, что когда мои Оценщики Мыслей выдают особенно сильное и долговременное эмпатическое предсказание, Направляющая Подсистема начинает «доверяться» ему (в смысле как в Посте №5), и в результате мои собственные чувства приходят в соответствие чувствам цели эмпатии. Это моя модель стандартной эмпатии.

Так что, если цель моей (стандартной) эмпатии сейчас испытывает чувство отторжения, я тоже начинаю ощущать чувство отторжения, и мне это не нравится, так что я мотивирован помочь этому человеку почувствовать себя лучше (или, возможно, мотивирован его заткнуть, как может произойти при усталости сострадать). Напротив, если цель моей (стандартной) эмпатии сейчас испытывает приятные чувства, я тоже начинаю испытывать приятные чувства, и получаю мотивацию помочь человеку испытать их снова.

Так что стандартная эмпатия кажется неизбежно просоциальной.

13.5.3 Почему я считаю, что тут задействованы «маленькие проблески эмпатии»?

Во-первых, это кажется интроспективно правильным (по крайней мере, для меня). Если мой друг впечатлён чем-то, что я сделал, я чувствую гордость, но особенно я горжусь в точности в тот момент, когда я представляю, как мой друг ощущает эту эмоцию. Если мой друг разочарован во мне, то я чувствую вину, но особенно виноватым я себя чувствую в точности в тот момент, когда представляю, как мой друг ощущает эту эмоцию. Ещё как пример, часто говорят: «Я не могу дождаться увидеть его лицо, когда…». Предположительно, это отражает некий реальный аспект нашей социальной психологии, и если так, то я заявляю, что это хорошо укладывается в мою теорию «маленьких проблесков эмпатии.»

Во-вторых, ещё в Посте №5, Разделе 5.5.4 я отметил, что медиальная префронтальная кора (и соответствующие части вентрального полосатого тела) играют двойственную роль как (1) висцемоторный центр, управляющий автоматическими реакциями вроде расширения зрачков и изменения сердечного ритма, и (2) центр мотивации / принятия решений. Я заявил, что теория «Оценщиков Мыслей» изящно объясняет, почему эти роли идут вместе как две стороны одной монеты. Я тогда не упомянул ещё одну роль mPFC, а конкретно (3) центр социальных инстинктов и морали. (Другие Оценщики Мыслей за пределами mPFC тоже сюда попадают.) Я думаю, что теория «маленьких проблесков эмпатии» изящно учитывает и это: «проблески эмпатии» соответствуют сигналам, посылаемым из mPFC и других Оценщиков Мыслей в Направляющую Подсистему, так что всё поведение, связанное с социальными инстинктами, обязательно включает Оценщики Мыслей.

(Однако, есть и другие возможные источники социальных инстинктов, тоже включающие Оценщики Мыслей, но не включающие «маленькие проблески эмпатии» – см., к примеру, Разделы 13.3-13.4 выше – так что это свидетельство не очень специфично.)

В-третьих, есть остальные части моей модели (Посты №2-№7) верны, то сигналы «маленьких проблесков эмпатии» возникают в ней автоматически, так что естественным путём эволюционируют «прислушивающиеся» к ним схемы Направляющей Подсистемы.

В-четвёртых, если остальные части моей модели верны, то, ну, я не могу придумать других способов построения большинства социальных инстинктов! Методом исключения!

13.6 Будущая работа (пожалуйста!)

Как замечено в вступлении, цель этого поста – указать на то, как, по моим ожиданиям, будет выглядеть «теория человеческих социальных инстинктов», чтобы она была совместима с прочими моими заявлениями об алгоритмах мозга из Постов №2-№7, в частности, с сильным ограничением «обучения с чистого листа», как обсуждалось в Разделе 13.2.2 выше. Из обсуждённого в Разделах 13.3-5 я выношу сильное ощущение оптимизма по поводу того, что такая теория существует, даже если я пока не знаю всех деталей, и оптимизма, что эта теория действительно соответствует тому, как работает человеческий мозг, и будет сходиться с соответствующими сигналами в мозговом стволе или (вероятнее) гипоталамусе.

Конечно, я очень хочу продвинуться дальше стадии «общего теоретизирования», к более конкретным заявлениям о том, как на самом деле работают человеческие социальные инстинкты. К примеру, я был бы рад не только предполагать, как эти инстинкты могут решать проблему укоренения символов, а узнать, как они на самом деле её решают. Тут я открыт к идеям и указаниям, или, ещё лучше, к тому, чтобы люди просто выяснили это сами и сказали мне ответ.

По описанным в предыдущем посте причинам, разобраться с человеческими социальными инстинктами – в самом начале моего вишлиста того, как нейробиологи могли бы помочь с безопасностью СИИ.

Помните, как я говорил о Дифференцированном Технологическом Развитии (ДТР) в Посте №1, Разделе 1.7? Ну, вот это я особенно ощущаю как «требование» ДТР – по крайней мере, среди тех вещей, которые нейробиологи могут сделать, не работая на безопасность СИИ напрямую (вскоре в Посте №15 можно будет посмотреть на мой более полный вишлист). Я действительно хочу, чтобы мы провели реверс-инжиниринг человеческих социальных инстинктов в гипоталамусе и конечном мозге задолго до реверс-инжиниринга человеческого моделирования мира в неокортексе.

И тут не всё выглядит гладко! Гипоталамус маленький, глубоко зарытый, а значит – сложный для изучения! Человеческие социальные инстинкты могут отличаться от крысиных социальных инстинктов! На понимание моделирования мира в неокортексе направлено на порядки больше усилий исследователей, чем на понимание схем социальных инстинктов в гипоталамусе и конечном мозге! На самом деле, я (к моему огорчению) замечал, что разбирающиеся в алгоритмах, связанные с областью ИИ нейробиологи особенно склонны направлять свои таланты на Обучающуюся Подсистему (неокортекс, гиппокампус, мозжечок, и т.д), а не на гипоталамус и конечный мозг. Но всё же, я не думаю, что моё «требование» ДТР безнадёжно, и я поощряю кого угодно попробовать, и если вы (или ваша лаборатория) в хорошей позиции для прогресса, но нуждаетесь в финансировании, напишите мне, и я буду держать вас в курсе возникающих возможностей.

———

  1. См., к примеру, «Эволюционную Психологию Зависти» Хилл и Басса, главу в книге Зависть: Теория и Исследования, 2008.
  2. Зависть входит в «список человеческих универсалий» Дональда Э. Брауна, как указано в приложении к Чистому Листу (Стивен Пинкер, 2002).
  3. «…если вы посмотрите на литературу – никто не говорит о гипоталамусе и поведении. Гипоталамус очень мал, и не может быть легко рассмотрен технологиями просмотра человеческого мозга вроде фМРТ. К тому же, большинство анатомической работы, к примеру, над системой инстинктивного страха, сильно неодооценивается, потому что её провели бразильские нейробиологи, не особо заботящиеся о публикациях в престижных журналах. К счастью, недавно интерес к этому возобновился, и исследования заново обретают признание.» (Корнелиус Гросс, 2018)
  4. Нескольку случайных примеров статей о роли Направляющей Подсистемы (особенно гипоталамуса) в социальном поведении: «Независимые схемы гипоталамуса для социального страха и страха хищников» (Сильва и пр., 2013), «Отображение различных переменных вознаграждения для себя и других в латеральном гипоталамусе приматов» (Норитакек и пр., 2020), и «Социальные Стимулы Вызывают Активацию Окситоциновых Нейронов в Паравентрикулярных Ядрах Гипоталамуса для Продвижения Социального Поведения у Самца Мыши» (Резенде и пр., 2020).
  5. Я подозреваю, более аккуратная диаграмма показывала бы возбуждение (в психологически-жаргонном смысле, не в сексуальном – т.е. повышение пульса и пр.) как промежуточную переменную. Конкретнее: (1) если сенсорная обработка в мозговом стволе показывает, что рядом присутствует взрослый человек, берёт меня на руки, и пр., то это ведёт к повышенному возбуждению (по умолчанию, если Оценщики Мыслей не указывают сильно на иное), и (2) когда я в состоянии повышенного возбуждения, мой мозговой ствол воспринимает это как плохое и опасное (по умолчанию, если Оценщики Мыслей не указывают сильно на иное). 
  6. К примеру, Направляющая Подсистема нуждается в методе для различия «маленьких проблесков эмпатии» и других мимолётных чувств, к примеру, происходящих, когда я продумываю последствия возможного варианта действий. Может, для этого есть какие-то неидеальные эвристики, но моя предпочитаемая теория – что есть специальный Оценщик Мыслей, обученный срабатывать при обращении внимания на другого человека (основываясь на сигналах эмпирической истины, как описано в Разделе 13.4). Как другой пример, нам надо, чтобы сигнал «эмпирической истины задним числом» не отучил постепенно Оценщик Мыслей воспринимать «его бьют в живот». Но, мне кажется, если Направляющая Подсистема может сообразить, когда сигнал является «маленьким проблеском эмпатии», то она может и выбрать не посылать в этом случае сигнал об ошибке Оценщику Мыслей.
  7. Предупреждение: я не вполне уверен, что существует «стандартное» определение эмпатии; возможно и что термин используется многими непоследовательными способами.
Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

14. Контролируемый СИИ

Стивен Бирнс

14.1 Краткое содержание / Оглавление

В Посте №12 были предложены два возможных пути решения «задачи согласования» подобного-мозгу СИИ. Я назвал их «СИИ с Социальными Инстинктами» и «Контролируемым СИИ». Затем, в Посте №13 я подробнее рассмотрел (один из аспектов) «СИИ с Социальными Инстинктами». И теперь в этом посте мы переходим к «Контролируемому СИИ».

Если вы не читали Пост №12, не беспокойтесь, направление исследований «Контролируемого СИИ» – не что-то хитрое, это попросту идея решения задачи согласования самым легко приходящим на ум способом:

Направление исследований «Контролируемого СИИ»:

Это пост про Шаг 2, а Шаг 1 находится за пределами темы этой цепочки. Если честно, я был бы невероятно рад, если бы мы выяснили, как надёжно настроить мотивацию СИИ на любой вариант, упомянутый в Шаге 1.

К сожалению, я не знаю никакого хорошего плана для Шага 2, и (я утверждаю) никто другой тоже не знает. Но у меня есть некоторые расплывчатые мысли и идеи, и в духе мозгового штурма я ими тут поделюсь. Этот пост не предполагается полным обзором всей задачи, он только о том, что я считаю самыми важными недостающими частями.

Из всех постов цепочки этот однозначно занимает первое место по «неуверенности мнения». Практически для всего, что я говорю в этом посте, я легко могу представить, как кто-то меня переубеждает за час разговора. Попробуйте стать этим «кем-то», пишите комментарии!

Содержание:

  • В Разделе 14.2 обсуждается то, как мы можем использовать в СИИ «Оценщики Мыслей». Если вы начинаете читать отсюда – Оценщики Мыслей определялись в Постах №5-№6, и обсуждались по ходу цепочки дальше. Если у вас есть опыт в Обучении с Подкреплением, думайте об Оценщиках Мыслей как о компонентах многомерной функции ценности. Если у вас есть опыт в «быть человеком», думайте об Оценщиках Мыслей как об обученных функциях, вызывающих внутренние реакции (отвращение, выброс кортизола, и т.д.), основываясь на мыслях, которые вы прямо сейчас думаете. В случае подобных-мозгу СИИ мы можем выбрать те Оценщики Мыслей, которые хотим, и я предлагаю для рассмотрения три категории: Оценщики Мыслей, направленные на безопасность (например, «Эта мысль/план подразумевает, что я честен»), Оценщики Мыслей, направленные на достижение цели (например, «эта мысль/план приведёт к лучшему проекту солнечной панели»), и Оценщики Мыслей, направленные на интерпретируемость (например, «эта мысль/план как-то связана с собаками»).
  • В Разделе 14.3 обсуждается, как мы можем генерировать управляющие сигналы для обучения этих Оценщиков Мыслей. Часть этой темы – то, что я называю «задачей первого лица», конкретно – открытый вопрос, возможно ли взять размеченные данные от третьего лица (например, видео с YouTube, где Алиса обманывает Боба), и преобразовать их в предпочтения от первого лица (желание СИИ не обманывать самому).
  • В Разделе 14.4 обсуждается проблема того, что СИИ будет встречать в своих предпочтениях «крайние случаи» – планы или обстоятельства, при которых его предпочтения становятся плохо определёнными или самопротиворечивыми. Я с осторожностью оптимистичен на счёт того, что мы сможем создать систему, просматривающую мысли СИИ и определяющую, когда он встречает крайний случай. Однако, у меня нет хороших идей о том, что делать, когда это произойдёт. Я рассмотрю несколько возможных решений, включая «консерватизм» и пару разных стратегий для того, что Стюарт Армстронг называет Экстраполяцией Концептов.
  • В Разделе 14.5 обсуждается открытый вопрос о том, можем ли мы строго доказать что-то о мотивациях СИИ. Это, кажется, потребовало бы погружения в предсказательную модель мира СИИ (которая, вероятно, была бы многотерабайтной выученной с чистого листа неразмеченной структурой данных) и доказательств о том, что «означают» её компоненты. Тут я довольно пессимистичен, но всё же упомяну возможные пути вперёд, включая программу исследований Джона Вентворта «Гипотеза Естественной Абстракции» (самая свежая информация тут).
  • Раздел 14.6 подводит итоги моим мыслям о перспективах «Контролируемых СИИ». Я сейчас несколько пессимистичен по поводу надежд, что у нас появится хороший план, но, надеюсь, я неправ, и я намерен продолжать об этом думать. Я также отмечу, что посредственный, не основательный подход к «Контролируемым СИИ» не обязательно вызовет катастрофу уровня конца света – тут сложно сказать точно.

14.2 Три категории Оценщиков Мыслей СИИ

Для фона – вот наша обычная диаграмма мотивации в человеческом мозгу, из Поста №6:


См. Пост №6. Аббревиатуры – из анатомии мозга, можете их игнорировать.

А вот модификация для СИИ, из Поста №8:

В центральной-правой части диаграммы я зачеркнул слова «кортизол», «сахар», и пр. Они соответствовали набору человеческих внутренних реакция, которые могут быть непроизвольно вызваны мыслями (см. Пост №5). (Или, в терминах машинного обучения, это более-менее соответствует компонентам многомерной функции ценности, аналогичных тому, что можно найти в многоцелевом / многокритерийном обучении с подкреплением.)

Конечно, штуки вроде сахара и кортизола не подходят для Оценщиков Мыслей будущих СИИ. Но что подходит? Ну, мы программисты, нам решать!

Мне в голову приходят три категории. Я поговорю о том, как они могут обучаться (с учителем) в Разделе 14.3 ниже.

14.2.1 Оценщики Мыслей Безопасности и Исправимости

Примеры оценщиков мыслей из этой категории:

  1. Эта мысль/план подразумевает, что я помогаю.
  2. Эта мысль/план не подразумевает манипуляцией моим собственным процессом обучения, кодом, или системой мотивации.
  3. Эта мысль/план не подразумевает обмана или манипуляции кем-либо.
  4. Эта мысль/план не подразумевает причинения кому-либо вреда.
  5. Эта мысль/план подразумевает следование человеческим нормам, или, более обобщённо, выполнение действий, про которые правдоподобно, что их мог бы совершить этичный человек.
  6. Эта мысль/план имеют «низкое влияние» (согласно человеческому здравому смыслу).

Можно посчитать (см. этот пост Пола Кристиано), что №1 достаточно и заменяет остальные. Но я не знаю, думаю, хорошо было бы иметь отдельную информацию по всем этим пунктам, что позволило бы нам менять веса в реальном времени (Пост №9, Раздел 9.7), и, наверное, дало бы нам дополнительные метрики безопасности.

Пункты №2-№3 приведены, потому что это особенно вероятные и опасные виды мыслей – см. обсуждение инструментальной конвергенции в Посте №10, Разделе 10.3.2.

Пункт №5 – это попытка справиться с нахождением СИИ странных не пришедших бы человеку в голову решений задач, т.е. попытка смягчить так называемую «проблему Ближайшей Незаблокированной Стратегии». Почему это может её смягчить? Потому что соответствие паттерну «правдоподобно, что это мог бы сделать этичный человек» – немного больше похоже на белый список, чем на чёрный. Я всё равно не считаю, что это сработает само по себе, не поймите меня неправильно, но, может быть, это сработает в объединении с другими идеями из этого поста.

Перед тем, как вы перейдёте в режим поиска дырок («лол, вполне правдоподобно, что этичный человек превратил бы мир в скрепки, если бы находился под влиянием инопланетного луча контроля разума»), вспомните, что (1) имеется в виду, что это реализовано с помощью соответствия паттерну из уже виденных примеров (Раздел 14.3 ниже), а не дословного следования в духе джина-буквалиста; (2) у нас, надеюсь, будет какого-то рода система детектирования выхода из распределения (Раздел 14.4 ниже), чтобы предотвратить СИИ от нахождения и злоупотребления странными крайними случаями этого соответствия паттернам. Однако, как мы увидим, я не вполне знаю, как сделать ни одну из этих двух вещей, и даже если мы это выясним, у меня нет надёжного аргумента о том, что этого хватит для получения нужного безопасного поведения.

14.2.2 Относящиеся к задаче Оценщики Мыслей

Примеры оценщиков мыслей из этой категории:

  • Эта мысль/план приведёт к снижению глобального потепления
  • Эта мысль/план приведёт к лучшему проекту солнечной батареи
  • Эта мысль/план приведёт к богатству управляющего мной человека

Это вещи того рода, ради которых мы создаём СИИ – что мы на самом деле хотим, чтобы он делал. (Подразумевая, для простоты, ориентированный на задачи СИИ.)

Основание системы мотивации на рассуждениях такого рода – очевидно катастрофично. Но, может быть, если мы используем эти мотивации вместе с предыдущей категорией, это будет ОК. К примеру, представьте СИИ, который может думать только мысли, соответствующие паттерну «Я помогаю» И паттерну «это уменьшит глобальное потепление».

Однако, я не уверен, что мы хотим эту категорию вообще. Может, Оценщика Мыслей «Я помогаю» достаточно самого по себе. В конце концов, если управляющий человек пытается снизить глобальное потепление, то помогающий СИИ предоставит ему план, как это сделать. Вроде бы, такой подход используется тут.

14.2.3 Оценщики Мыслей «Суррогата интерпретируемости»

(См. Пост №9, Раздел №9.6 за тем, что я имею в виду под «Суррогатом интерпретируемости».)

Как обсуждалось в Постах №4-№5, каждый оценщик мыслей – обученная с учителем модель. Уж точно, чем больше мы их поместим в СИИ, тем более вычислительно дорогим он будет. Но я не знаю, насколько более. Может, мы можем поместить их 10^7, и это добавит всего 1% у общей вычислительной мощности, необходимой для работы СИИ. Я не знаю. Я надеюсь на лучшее и на подход More Dakka: давайте сделаем 30000 Оценщиков Мыслей, по одному на каждое слово из словаря:

  • Эта мысль/план как-то связана с АБАЖУРОМ
  • Эта мысль/план как-то связана с АББАТОМ
  • Эта мысль/план как-то связана с АББРЕВИАТУРОЙ
  • … … …
  • Эта мысль/план как-то связана с ЯЩУРОМ

Я ожидаю, что разбирающиеся в машинном обучении способны немедленно предложить сильно улучшенные версии этой схемы – включая версии с ещё более more* dakka – с использованием контекста, языковых моделей, и т.д. Как пример, если мы выкупим и откроем код Cyc (больше о нём ниже), то сможем использовать сотни тысяч размеченных людьми концептов из него.

14.2.4 Комбинирование Оценщиков Мыслей в функцию ценности

Для того, чтобы СИИ оценивал мысль/план как хорошую, мы бы хотели, чтобы все Оценщики Мыслей безопасности и исправимости из Раздела 14.2.1 имели как можно более высокое значение, и чтобы ориентированный на задачу Оценщик Мыслей из Раздела 14.2.2 (если мы такой используем) тоже имел как можно более высокое значение.

(Выводы Оценщиков Мыслей интерпретируемости из Раздела 14.2.3 не являются вводом функции вознаграждения СИИ, и вообще, полагаю, им не используются. Я думаю, они будут втихую подключены, чтобы помогать программистам в отладке, тестировании, мониторинге, и т.д.)

Так что вопрос: как нам скомбинировать этот массив чисел в единую оценку, которая может направлять, что СИИ решает делать?

Вероятно, плохой ответ – «сложить их все». Мы не хотим, чтобы СИИ пришёл к плану, который катастрофически плох по всем, кроме одного Оценщикам Мыслей безопасности, но настолько астрономически высок согласно последнему, что этого хватает.

Скорее, я представляю, что нам нужно применять какую-то сильно нелинейную функцию, и/или даже пороги приемлемости, прежде чем складывать в единую оценку.

У меня не особо много знаний и точных мнений по деталям. Но существует литература на тему «скаляризации» многомерных функций ценности – см. ссылки здесь.

14.3 Обучение Оценщиков Мыслей, и «задача первого лица»

Напомню, в Постах №4-№6 мы говорили, что Оценщики Мыслей обучаются с учителем. Так что нам нужен управляющий сигнал – то, что я обозначил как «эмпирическая истина задним числом» в диаграмме сверху.

Я много говорил о том, как мозг генерирует сигнал эмпирической истины, например, в Посте №3, Разделе 3.2.1, Постах №7 и №13. Как нам генерировать его для СИИ?

Ну, одна очевидная возможность – пусть СИИ смотрит YouTube, с многими прикреплёнными к видео ярлыками, показывающими, какие, как мы думаем, Оценщики Мыслей должны быть активными. Тогда, когда мы готовы послать СИИ в мир, чтобы решать задачи, мы отключаем размеченные видео, и одновременно замораживаем Оценщики Мыслей (= устанавливаем сигналы ошибки на ноль) в их текущем состоянии. Ну, я не уверен, что это сработало бы; может, СИИ время от времени нужно возвращаться назад и пересматривать эти размеченные видео, чтобы помочь Оценщикам Мыслей держаться наравне с растущей и меняющейся моделью мира СИИ.

Одно потенциальное слабое место такого подхода связано с различием первого и третьего лица. Мы хотим, чтобы у СИИ были сильные предпочтения по поводу аспектов планов от первого лица – мы надеемся, что СИИ будет считать «я буду лгать и обманывать» плохим, а «я буду помогать» хорошим. Но мы не можем напрямую получить такие предпочтения просто заставив СИИ смотреть размеченные видео с YouTube. СИИ увидит, как персонаж Алиса обманывает персонажа Боба, но это не то же самое, что обманчивость самого СИИ. И это очень важное различие! Действительно:

  • Если вы скажете мне «моему СИИ не нравится обманывать», я скажу «это вам повезло!».
  • Если вы скажете мне «моему СИИ не нравится, когда люди обманывают», я скажу «ради Бога скорее выключи эту штуку, пока она не вышла из-под человеческого контроля и не убила всех нас!!!»

Уж точно было бы хорошо, если бы был способ преобразовывать данные от третьего лица (например, размеченное видео с YouTube, где Алиса обманывает Боба) в предпочтения СИИ от первого лица («Я не хочу обманывать»). Я называю это задача первого лица.

Как нам решить задачу первого лица? Я не уверен. Может, мы можем применить инструменты интерпретируемости к модели мира СИИ, понять, как он отображает себя, и соответственным образом проманипулировать его мыслями, или что-то такое? Ещё возможно, что дальнейшее исследование человеческих социальных инстинктов (предыдущий пост) прольёт на это свет, ведь человеческие социальные инстинкты, кажется, преобразуют третье лицо «все в моей группе друзей используют зелёную помаду» в первое лицо «я хочу использовать зелёную помаду».

Если задача первого лица нерешаема, то нам надо вместо этого прибегнуть к пугающему методу: позволять СИИ предпринимать действия, и выдавать им ярлыки. Почему пугающему? Во-первых, потому что эти действия могут быть опасными. Во-вторых, потому что это не даёт нам хорошего способа отличить (к примеру) «СИИ говорит неправду» от «СИИ попался на том, что говорит неправду». Консерватизм и/или экстраполяция концептов (Раздел 14.4 ниже) могу бы помочь с этой проблемой – может, у нас получилось бы получить СИИ одновременно мотивированного быть честным и не попадаться, и это было бы достаточно – но всё же это по разным причинам кажется ненадёжным.

14.3.1 Отступление: почему мы хотим предпочтений от первого лица?

Я подозреваю, что «задача первого лица» интуитивно понятна большинству читателей. Но, готов поспорить, подмножество читателей чувствует искушение сказать, что это вовсе не проблема. В конце концов, в области человеческих действий есть хорошие аргументы в пользу того, что нам надо использовать поменьше предпочтений от первого лица!

Противоположностью предпочтений от первого лица были бы «безличные консеквенциалистские предпочтения», при которых есть будущая ситуация, которую мы хотим обеспечить (например, «замечательная пост-СИИ утопия»), и мы принимаем направленные на неё решения, без особой заботы о том, что делаю конкретно-Я. В самом деле, слишком много мышления от первого лица приводит к многим вещам, которые мне лично в мире не нравятся – например, присвоение заслуг, избегание вины, разделение действия / бездействия, социальный сигналинг, и так далее.

Всё же, я думаю, что выдача СИИ предпочтений от первого лица – правильный шаг в сторону безопасности. Пока мы не заполучим супер-надёжные СИИ 12-о поколения, я бы хотел, чтобы они считали «произошло что-то плохое (я с этим никак не связан)» куда менее плохим, чем «произошло что-то плохое (и это моя вина)». У людей это так, в конце концов, и это, кажется по крайней мере относительно устойчивым – к примеру, если я создам робота-грабителя, а потом он ограбит банк, а я возражу «Эй, я не сделал ничего плохого, это всё робот!», то у меня не получится никого обмануть, особенно себя. СИИ с такими предпочтениями, наверное, был бы осторожным и консервативным в принятии решений, и склонялся бы к бездействию по умолчанию при сомнениях. Это кажется в общем хорошим, что приводит нас к следующей теме:

14.4 Консерватизм и экстраполяция концептов

14.4.1 Почему бы не попросту безустанно оптимизировать правильный абстрактный концепт?

Давайте сделаем шаг назад.

Предположим, мы создали СИИ, у которого есть позитивная валентность, присвоенная абстрактному концепту «много человеческого процветания», и который последовательно составляет планы и исполняет действия, приводящие к этому концепту.

Я, на самом деле, довольно оптимистичен по поводу того, что с технической стороны мы сможем так сделать. Как и выше, мы можем использовать размеченные видео с YouTube и всякое такое, чтобы создать Оценщик Мыслей для «эта мысль / план приведён к процветанию людей», а затем установить функцию вознаграждения на основе этого одного Оценщика Мыслей (см. Пост №7).

А затем мы выпускаем СИИ в ничего не подозревающий мир, чтобы он делал то, что, как он думает, лучше всего сделать.

Что может пойти не так?

Проблема в том, что абстрактный концепт «человеческое процветание» в модели мира СИИ – это на самом деле просто куча выученных ассоциаций. Сложно сказать, какие действия вызовет стремление к «человеческому процветанию», особенно когда мир будет меняться, и понимание СИИ мира будет меняться ещё больше. Иначе говоря, нет будущего мира, который будет идеально соответствовать паттерну нынешнего понятия «человеческого процветания» у СИИ, и если чрезвычайно могущественный СИИ будет оптимизировать мир для лучшего соответствия паттерну, то это может привести к чему-то странному, даже катастрофичному. (Или, может быть, нет! Довольно сложно сказать, больше об этом в Разделе 14.6.)

Случайные примеры того, что может пойти не так: может, СИИ захватит мир и будет удерживать людей и человеческое общество от дальнейших изменений, потому что изменения ухудшат соответствие паттерну. Или, может быть, наименее плохое соответствие паттерну будет, если СИИ избавится от настоящих людей в пользу бесконечной модифицированной игры в The Sims. Не то чтобы The Sims идеально соответствовала «человеческому процветанию» – наверное, довольно плохо! Но, может быть, менее плохо, чем всё, что для СИИ реально сделать с настоящими людьми. Или, может быть, пока СИИ будет всё больше и больше учиться, его модель мира постепенно изменится так, что замороженный Оценщик Мыслей начнёт указывать на что-то совершенно случайное и безумное, а затем СИИ истребляет людей и замощает галактику скрепками. Я не знаю!

В любом случае, безустанная оптимизация зафиксированного замороженного абстрактного концепта вроде «человеческого процветания» кажется, возможно, проблематичной. Можно ли лучше?

Ну, было бы хорошо, если бы мы могли непрерывно совершенствовать этот концепт, особенно по ходу того, как меняется мир и понимание его СИИ. Эту идею Стюарт Армстронг называет Экстраполяцией Концептов, если я правильно его понимаю.

Экстраполяция концептов – то, что проще сказать, чем сделать – для вопроса «что такое человеческое процветание на самом деле?» нет очевидной эмпирической истины. К примеру, что будет означать «человеческое процветание» в трансгуманистическом будущем гибридов людей с компьютерами, суперинтеллектуальных эволюционировавших осьминогов и бог-знает-чего-ещё?

В любом случае, мы можем разделить экстраполяцию концептов на два шага. Во-первых, (простая часть) нам надо детектировать крайние случаи предпочтений СИИ. Во-вторых, (сложная часть) нам надо выяснить, что следует СИИ делать при столкновении с таким крайним случаем. Давайте поговорим об этом по порядку.

14.4.2 Простая часть экстраполяции концептов: Детектировать крайние случаи предпочтений СИИ

Я с осторожностью оптимистичен по поводу возможности создать простой алгоритм мониторинга, который присматривает за мыслями СИИ и детектирует, когда тот находится в ситуации крайнего случая – т.е., за пределами распределения, где его выученные предпочтения и концепты ломаются.

(Понимание содержания крайнего случая кажется куда более сложной задачей, это ещё будет обсуждаться, но тут я пока что говорю только о распознавании появления крайнего случая.

Вот несколько примеров возможных намёков, указывающих, что СИИ столкнулся с крайним случаем:

  • Выученные распределения вероятностей Оценщиков Мыслей (см. Пост №5, Раздел 5.5.6.1) могут иметь широкие допуски, что указывает на неуверенность.
  • Разные Оценщики Мыслей из Раздела 14.2 могут расходиться новыми неожиданными способами.
  • Ошибка предсказания вознаграждения СИИ может болтаться взад-вперёд между положительными и отрицательными значениями, указывая на «разрыв» между значениями, приписываемыми разным аспектам возможного плана.
  • Генеративная модель мира СИИ может прийти в состояние с очень маленькой априорной вероятностью, указывая на замешательство.

14.4.3 Сложная часть экстраполяции концептов: что делать в крайнем случае

Я не знаю хороших решений. Вот некоторые варианты.

14.4.3.1 Вариант A: Консерватизм – В случае сомнений просто не делай этого!

Прямолинейный подход – при срабатывании детектора крайних случаев СИИ просто устанавливать сигнал вознаграждения отрицательным – чтобы то, что СИИ думает, посчиталось плохой мыслью/планом. Это приблизительно соответствует «консервативному» СИИ.

(Замечу: я думаю, есть много способов, которые мы можем использовать, чтобы сделать подобный-мозгу СИИ более или менее «консервативным» в разных аспектах. То, что выше – только один пример. Но у них всех, кажется, общие проблемы.)

Вариант неудачи консервативного СИИ – что он просто не будет ничего делать, будучи парализованным неуверенностью, потому что любой возможный план кажется слишком ненадёжным или рискованным.

«Парализованный неуверенностью СИИ» – это провал, но не опасный провал. Ну, пока мы не настолько глупы, чтобы поставить СИИ управлять горящим самолётом, падающим на землю. Но это нормально – в целом, я думаю, вполне ОК, если СИИ первого поколения будут иногда парализованы неуверенностью, так что не будут подходить для решения кризисов, где ценна каждая секунда. Такой СИИ всё ещё сможет выполнять важную работу вроде изобретения новых технологий, в частности, проектирования лучших и более безопасных СИИ второго поколения.

Однако, если СИИ всегда парализован неуверенностью – так, что он не может сделать что-либо – тогда у нас большая проблема. Предположительно, в такой ситуации, будущие программисты СИИ просто будут всё дальше и дальше понижать уровень консерватизма, пока СИИ не начнёт делать что-то полезное. И тогда неясно, хватит ли оставшегося консерватизма для безопасности.

Я думаю, куда лучше было бы, если СИИ будет иметь способ итеративно получать информацию для снижения неуверенности, оставаясь при этом сильно консервативным в случаях оставшейся неуверенности. Так как нам это сделать?

14.4.3.2 Вариант B: Тупой алгоритм поиска прояснения в крайних случаях

Вот немного глупый иллюстративный пример того, что я имею в виду. Как выше, у нас есть простой алгоритм мониторинга, который присматривает за мыслями СИИ и детектирует ситуации крайних случаев. Тогда он полностью выключает СИИ и выводит текущие активации его нейросети (и соответствующие выводы Оценщиков Мыслей). Программисты используют инструменты интерпретируемости, чтобы выяснить, о чём СИИ думает, и напрямую присваивают ценность/вознаграждение, переписывая предыдущую неуверенность СИИ эмпирической истиной с высокой уверенностью.

Такая конкретная история кажется нереалистичной, в основном потому, что у нас скорее всего не будет достаточно надёжных и детализированных инструментов интерпретируемости. (Опровергните меня, исследователи интерпретируемости!) Но, может быть, есть подход получше, чем просто рассматривать миллиарды нейронных активаций и Оценщиков Мыслей?

Сложность в том, что коммуникация СИИ с людьми – фундаментально тяжёлая задача. Мне неясно, возможно ли решить её тупым алгоритмом. Ситуация тут очень сильно отличается от, скажем, классификатора изображений, в случае которого мы можем найти изображение для крайнего случая и просто показать его человеку. Мысли СИИ могут быть куда менее понятны.

Это аналогично тому, что коммуникация людей друг с другом возможна, но не посредством какого-то тупого алгоритма. Мы делаем это, используя всю мощь своего интеллекта – моделируя, что думает наш собеседник, стратегически выбирая слова, которые лучше передают желаемое сообщение, и обучаясь с опытом коммуницировать всё эффективнее. Так что, если мы попробуем такой подход?

14.4.3.3 Вариант C: СИИ хочет искать разъяснений в крайних случаях

Если я пытаюсь кому-то помочь, то мне не нужен никакой специальный алгоритм мониторинга для поиска разъяснений в крайних случаях. Я просто хочу разъяснений, как осознающий себя правильно мотивированный агент.

Так что если мы сделаем такими наши СИИ?

На первый взгляд кажется, что этот подход решает все упомянутые выше проблемы. Более того, так СИИ может использовать всю свою мощь на то, чтобы всё лучше работало. В частности, он может научиться своим собственным невероятно сложным метакогнитивным эвристикам для отмечания крайних случаев, и может научиться применять мета-предпочтения людей о том, когда и как ему надо запрашивать разъяснений.

Но тут есть ловушка. Я надеялся на то, что консерватизм / экстраполяция концептов защитит нас от неправильно направленной мотивации. Если мы реализуем консерватизм / экстраполяцию концептов с помощью самой системы мотивации, то мы теряем эту защиту.

Конкретнее: если мы поднимемся на уровень выше, то у СИИ всё ещё есть мотивация («искать разъяснений в крайних случаях»), и эта мотивация всё ещё касается абстрактного концепта, который приходится экстраполировать для крайних случаев за пределами распределения («Что, если мой оператор пьян, или мёртв, или сам в замешательстве? Что, если я задам наводящий вопрос?»). И для этой задачи экстраполяции концептов у нас уже нет страховки.

Проблема ли это? Долгая история:

Отдельный спор: Помогут ли предпочтения «полезности» в «экстраполяции» безопасности, если их просто рекурсивно применить к самим себе?

Это, на самом деле, длительный спор в области безопасности СИИ – «экстраполируются» ли помогающие / исправимые предпочтения СИИ (например, желание понимать и следовать предпочтениям и мета-предпочтениям человека) желаемым образом безо всякой «страховки» – т.е., без независимого механизма эмпирической истины, направляющего предпочтения СИИ в нужном направлении.

В лагере оптимистов находится Пол Кристиано, который в «Исправимости» (2017) заявлял, что есть «широкие основания для привлекательности приемлемых вариантов», основываясь, например, на идее, что предпочтение СИИ быть помогающим приведёт к рефлексивному желанию непрерывно редактировать собственные предпочтения в направлении, которое понравится людям. Но я на самом деле не принимаю этот аргумент по причинам, указанным в моём посте 2020 года – по сути, я думаю, что тут наверняка есть чувствительные области вроде «что значит для человека чего-то хотеть» и «каковы нормы коммуникации у людей» и «склонность к само-мониторингу», и если предпочтения СИИ «уезжают» по одной из этих осей (или по всем сразу), то я не убеждён, что они сами себя исправят.

В то же время, к крайне-пессимистичному лагерю относится Элиезер Юдковский, я так понимаю, в основном, из-за аргумента (см., например, этот пост, последний раздел, что нам следует ожидать, что мощные СИИ будут иметь консеквенциалистские предпочтения, а они кажутся несовместимыми с исправимостью. Но я на самом деле не принимаю и этот аргумент, по причинам из моего поста 2021 года «Консеквенциализм и Исправимость» – по сути, я думаю, что существуют возможные рефлексивно-стабильные предпочтения, включающие консеквенциалистские части (и, следовательно, совместимые с мощными способностями), но не являющиеся чисто консеквенциалистскими (и, следовательно, совместимые с исправимостью). Мне кажется правдоподобным развитие «предпочтения помогать» в смешанную схему такого рода.

В любом случае, я не уверен, но склоняюсь к пессимизму. Ещё по этой теме см. недавний пост Wei Dai, и комментарии к постам по ссылкам выше.

14.4.3.4 Вариант D: Что-то ещё?

Я не знаю.

14.5 Получение доступа к самой модели мира

Очевидно важная часть всего этого – это мнгоготерабайтная неразмеченная генеративная модель мира, обитающая внутри Генератора Мыслей. Оценщики Мыслей дают нам окно в эту модель мира, но я обеспокоен, что это окно может быть довольно маленьким, затуманенным и искажающим. Можно ли лучше?

В идеале мы бы хотели доказывать штуки о мотивации СИИ. Мы бы хотели говорить «С учётом состояния модели мира СИИ и Оценщиков Мыслей, СИИ точно замотивирован сделать X» (где X=помогать, быть честным, не вредить людям, и т.д.) Было бы здорово, правда?

Но мы немедленно упираемся в стену: как нам доказать хоть что-то о «значении» содержимого модели мира, а, следовательно, о мотивации СИИ? Мир сложный, следовательно, сложна и модель мира. То, о чём мы беспокоимся – расплывчатые абстракции вроде «честности» и «помощи» – см. Проблему Указателей. Модель мира продолжает меняться, пока СИИ учится и пока он исполняет планы, выводящие мир далеко за границы распределения (например, планируя развёртывание новой технологии). Как мы можем доказать тут что-то полезное?

Я всё же думаю, что самый вероятный ответ – «Мы не можем». Но есть два возможных пути. За связанными обсуждениями см. Выявление Скрытого Знания.

Стратегия доказательства №1 начинается с идеи, что мы живём в трёхмерном мире с объектами и всяким таким. Мы пытаемся прийти к однозначным определениям того, чем являются эти объекты, а из этого получить однозначный язык для определения того, что мы хотим, чтобы произошло в мире. Мы также как-то переводим (или ограничиваем) понимание мира СИИ на этот язык, и тогда мы сможем доказывать теоремы о том, что СИИ пытается сделать.

Таково моё неуверенное понимание того, что пытается сделать Джон Вентворт со своей программой исследований Гипотезы Естественных Абстракций (самая свежая информация тут), и я слышал подобные идеи ещё от пары других человек. (Обновление: Джон не согласен с такой характеристикой, см. его комментарий.)

Я тут настроен скептически, потому что трёхмерный мир локализированных объектов не кажется многообещающей стартовой точкой для формулировки и доказательства полезных теорем о мотивациях СИИ. В конце концов, многие вещи, о которых беспокоятся люди, и о которых должен беспокоиться СИИ, кажутся сложными для описания в терминах трёхмерного мира локализированных объектов – взять хотя бы «честность», «эффективность солнечной батареи» или даже «день».

Стратегия доказательства №2 началась бы с понятной человеку «ссылочной модели мира» (например, Cyc). Эта ссылочная модель не была бы ограничена локализованными объектами в трёхмерном мире, так что, в отличии от предыдущей стратегии, она могла бы и скорее всего содержала бы вещи вроде «честности», «эффективности солнечной батареи» и «дня».

Затем мы пытаемся напрямую сопоставить элементы «ссылочной модели мира» и элементы модели мира СИИ.

Совпадут ли они? Нет, конечно. Наверное, лучшее, на что мы можем надеяться – это расплывчатое соответствие многих-ко-многим, с кучей дырок с каждой стороны.

Мне сложно увидеть путь к строгим доказательства чего бы то ни было про мотивации СИИ с использованием этого подхода. Но я всё же изумлён тем, что машинный перевод без учителя вообще возможен, я вижу это как косвенный намёк на то, что если внутренние структуры частей двух моделей мира соответствуют друг другу, то тогда они скорее всего описывают одну и ту же вещь в реальном мире. Так что, может быть, тут есть проблески надежды.

Мне неизвестны работы в этом направлении, может быть потому, что оно глупое и обречённое, но может быть и потому, что, кажется, у нас сейчас нет по-настоящему хороших, открытых, и понятных людям моделей мира, чтобы ставить на них эксперименты. Думаю, эту проблему стоит решить как можно скорее, возможно, выписав огромный чек, чтобы сделать Cyc открытым, или разработав другую, но настолько же большую, точную, и (главное) понятную модель мира.

14.6 Заключение: умеренный пессимизм по поводу нахождения хорошего решения, неуверенность по поводу последствий плохого решения

Я думаю, что мы столкнулись с большими сложностями в выяснении того, как решить задачу согласования путём «Контролируемого СИИ» (как определено в Посте №12). Есть куча открытых вопросов, и я сейчас понятия не имею, что с ними делать. Нам точно стоит продолжать высматривать хорошие решения, но прямо сейчас я открыт к перспективе, что мы их не найдём. Так что я продолжаю вкладывать большую часть своих мысленных сил в путь «СИИ с Социальными Инстинктами» (Посты №12-№13), который, несмотря на его проблемы, кажется мне менее обречённым.

Я, впрочем, замечу, что мой пессимизм не общепринят – к примеру, как уже упоминалось, Стюарт Армстронг из AlignedAI выглядит настроенным оптимистично по поводу решения открытой задачи из Раздела 14.4, а Джон Вентворт кажется настроенным оптимистично по поводу задачи из Раздела 14.5. Понадеемся, что они правы, пожелаем им удачи и попробуем помочь!

Для ясности, мой пессимизм касается нахождения хорошего решения «Контролируемого СИИ», то есть решения, в котором мы можем быть крайне уверены априори. Другой вопрос: Предположим, мы пытаемся создать «Контролируемый СИИ» с помощью плохого решения, вроде примера из Раздела 14.4.1, где мы вкладываем в сверхмощный СИИ всепоглощающее стремление к абстрактному концепту «человеческого процветания», а затем СИИ произвольно экстраполирует этот абстрактный концепт далеко за пределы обучающего распределения полностью бесконтрольно и ненаправленно. Насколько плохим будет будущее, в которое такой СИИ нас приведёт? Я очень неуверен. Будет ли такой СИИ устраивать массовые пытки? Эммм, полагаю, я осторожно оптимистичен, что нет, за исключением случая ошибки в знаке из-за космического луча, или чего-то такого. Истребит ли он человечество? Я думаю – это возможно! – см. обсуждение в Разделе 14.4.1. Но может и нет! Эй, это может быть даже будет довольно замечательное будущее! Я действительно не знаю, и я даже не уверен, как снизить мою неуверенность.

В следующем посте я подведу итог цепочке своим вишлистом открытых задач и советами по поводу того, как войти в эту область и помочь их решать!

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

15. Заключение: Открытые задачи и как помочь

Стивен Бирнс

15.1 Краткое содержание / Оглавление

Это последний пост цепочки «Введение в безопасность подобного-мозгу СИИ»! Спасибо, что дочитали!

  • В Разделе 15.2 я перечислю семь открытых задач, всплывавших в предыдущих постах. Я размещаю их тут в одном месте для удобства потенциальных исследователей и спонсоров.
  • В Разделе 15.3 я выложу быстрые заметки по практическим аспектам того, как начать заниматься исследованиями в области безопасности (согласования) СИИ, включая поиск финансирования, связь с исследовательским сообществом и где узнать больше.
  • В Разделе 15.4 я подведу итоги восемью выводами, которые, как я надеюсь, читатели сделают из этой цепочки.

Раз уж это пост-заключение, можете спокойно использовать комментарии для обсуждений на общие темы (или вопросов мне по любому поводу), даже если они не связаны с этим конкретным постом.

15.2 Открытые задачи

Это ни в коем случае не исчерпывающий список открытых задач, прогресс в которых мог бы помочь безопасности подобного-мозга СИИ, и уж тем более общей теме Безопасного и Полезного СИИ (см. Пост №1, Раздел 1.2). Скорее, это просто некоторые из тем, всплывавших в этой цепочке, с присвоенными рейтингами, пропорциональными тому, насколько сильный энтузиазм я испытываю по их поводу.

Я разделю открытые задачи на три категории: «Открытые задачи, похожие на обычную нейробиологию», «Открытые задачи, похожие на обычную информатику», и «Открытые задачи, которые требуют явно упоминать СИИ». Это разделение – для удобства читателей: у вас, к примеру, может быть начальник, спонсор или диссертационный совет, считающий, что безопасность СИИ – это глупости, и в таком случае вы можете захотеть избегать третьей категории. (Однако, не сдавайтесь слишком быстро – см. обсуждение в Разделе 15.3.1 ниже.)

15.2.1 Открытые задачи, похожие на нормальную нейробиологию

15.2.1.1 Исследовательская программа «Несёт ли Стив полную чушь, когда говорит о нейробиологии?» — ⭐⭐⭐⭐

Если вы не заметили, Посты №2-№7 наполнены откровенным теоретизированием и наглыми заявлениями о том, как работает человеческий мозг. Было бы здорово знать, правда ли всё это на самом деле!!

Если эти посты про нейробиологию – полная ерунда, то, думаю, отвергнуть надо не только их, но и остальную цепочку тоже.

В текстах этих постов встречаются разные предложения и указания на то, почему я считаю истинными свои нейробиологические заявления. Но аккуратного тщательно исследованного анализа, насколько мне известно, ещё нет. (Или, если есть, пошлите мне ссылку! Ничто не сделает меня счастливее, чем узнать, что я изобрёл велосипед и заявлял вещи, которые уже вполне известны и общепризнаны.)

Я даю этой программе исследований рейтинг приоритетности в 4 звезды из 5. Почему не 5? Две причины:

  • Она теряет половинку звезды, потому что у меня есть совершенно неоправданная сверхуверенность в том, что мои нейробиологические заявления всё же не полная ерунда, так что эта программа исследований будет скорее похожа на доопределение мелких деталей, а не на выкидывание всей цепочки в мусор.
  • Она теряет вторую половинку звезды, потому что я думаю, что в этой программе исследований есть кусочки, в которых она некомфортно близко подбирается к программе «разузнать детали алгоритмов обучения с чистого листа в мозгу», которой я выдаю рейтинг в минус пять звёзд, потому что я бы хотел добиться как можно большего прогресса в том, как (и возможно ли) нам безопасно использовать подобный-мозгу СИИ, задолго до того, как мы сможем его создать. (См. обсуждение Дифференцированного Технологического Прогресса в Посте №1, Разделе 1.7.)

15.2.1.2 Исследовательская программа «Реверс-инжиниринг человеческих социальных инстинктов» — ⭐⭐⭐⭐⭐

Если предположить, что Посты №2-№7 на самом деле не полная чепуха, получается вывод, что где-то в Направляющей Подсистеме нашего мозга (грубо говоря – в гипоталамусе и мозговом стволе) есть схемы для различных «встроенных реакций», лежащих в основе человеческих социальных инстинктов, и они представляют из себя относительно простые функции ввода-вывода. Цель: выяснить точно, что это за функции, и как они управляют (после прижизненного обучения) нашими социальными и моральными мыслями и поведением.

См. Пост №12 за тем, почему я считаю, что эта исследовательская программа очень полезна для безопасности СИИ, и Пост №13 за обсуждением того, схемы и объяснения приблизительно какого вида нам следует искать.

Вот (немного карикатурная) точка зрения на ту же программу исследований со стороны машинного обучения: Общепризнано, что прижизненное обучение в человеческом мозге включает в себя обучение с подкреплением – к примеру, потрогав один раз раскалённую печь, вы не будете делать это снова. Как и с любым алгоритмом обучения с подкреплением, можно задать два вопроса:

  1. Как работает алгоритм обучения с подкреплением в мозгу?
  2. Какая у него в точности функция вознаграждения?

Эти вопросы (более-менее) независимы. К примеру, чтобы экспериментально изучать вопрос A, вам не нужен полный ответ на вопрос B; достаточно как минимум одного способа создавать положительное вознаграждение и хотя бы одного способа создавать отрицательное вознаграждение, чтобы использовать из в своих экспериментах. Это просто: крысам нравится есть сыр и не нравится, когда их бьют током. Готово!

У меня сложилось впечатление, что нейробиологи написали много тысяч статей о вопросе A, и почти нисколько напрямую о вопросе B. Но я думаю, что вопрос B куда более важен для безопасности СИИ. А часть функции вознаграждения, связанная с социальными инстинктами важнее всего.

Я даю этой программе исследований рейтинг приоритетности в 5 звёзд из 5 по причинам, обсуждённым в Постах №12-№13.

15.2.2 Открытые задачи, похожие на нормальную информатику

15.2.2.1 Исследовательская программа «Создать настолько хорошую, большую, открытую и понятную людям модель мира / сеть знаний, насколько получится» — ⭐⭐⭐

Я впервые говорил об этом в посте «Давайте выкупим Cyc для использования в системах интерпретируемости СИИ?» (Несмотря на заголовок поста, я не привязан конкретно к Cyc; если современное машинное обучение может сделать лучшую работу за меньшие деньги, это замечательно.)

Я ожидаю, что будущие СИИ будут создавать и постоянно расширять свои собственные модели мира, и эти модели рано или поздно вырастут до терабайтов информации и дальше, и будут содержать гениальные инновационные концепты, о которых люди раньше не задумывались и которые они не смогут понять, не потратив годы на изучение (или не смогут понять вообще). По сути, пытаясь понять модель мира СИИ мы зайдём в тупик. Так что нам делать? (Нет, «с воплями убежать» не вариант.) Мне кажется, что если бы у нас была наша собственная огромная понятная людям модель мира, то это было бы мощным инструментом в нашем арсенале, чтобы подступиться к задаче понимания модели мира СИИ. Чем точнее и больше понятная людям модель мира, тем полезнее она может быть.

Для большей конкретности, в предыдущих постах я упоминал три причины, почему обладание огромной, замечательной, открытой, понятной людям модели мира было бы полезным:

  • Для инициализации обучения не с чистого листа – см. Пост №11, Раздел 11.3.1. По умолчанию, я ожидаю, что модель мира и Оценщики Мыслей (грубо говоря, функция ценности обучения с подкреплением) СИИ будут «обучаться с чистого листа» в смысле как в Посте №2. Это означает, что «СИИ-ребёнок» будет в лучшем случае творить ерунду, а в худшем – вынашивать опасные планы против наших интересов, пока мы будем пытаться оформить его предпочтения в дружественном для людей направлении. Было бы очень мило, если бы мы могли не инициализировать с чистого листа и избежать этой проблемы. Мне вовсе не ясно, возможен ли вообще подход обучения не с чистого листа, но если да, то иметь в распоряжении огромную понятную людям модель мира было бы, наверное, полезно.
  • Как список ярлыков концептов для «суррогата интерпретируемости» – см. Пост №14, Раздел 14.2.3. Cyc, к примеру, содержит сотни тысяч концептов, значительно более конкретных, чем слова английского языка – одно слово с 10 определениями в Cyc разделится на 10 разных концептов. Если у нас будет удобный список концептов такого рода с кучей размеченных примеров, то мы сможем использовать обучение с подкреплением (или проще, кросс-корреляцию) для поиска паттернов активаций нейросети СИИ, соответствующих тому, что СИИ «думает про» конкретные концепты.
  • Как «ссылочная модель мира» для «настоящей» (может даже формальной) интерпретируемости – см. Пост №14, Раздел 14.5. Это подразумевает более глубокое погружение и в модель мира СИИ, и в открытую и понятную людям «ссылочную модель мира», нахождение областей глубокого структурного сходства, согласующегося с упомянутой выше кросс-корреляцией, и составления выводов о том, что они описывают одни и те же аспекты мира. Как обсуждалось в Посте №14, я думаю, что вероятность успеха тут мала (на эту тему: обсуждение «онтологических несовпадений» тут), но польза при его достижении крайне велика.

Я даю этой программе исследований рейтинг приоритетности в 3 звезды из 5, потому что у меня нет супер-высокой уверенности, что хоть один из этих трёх вариантов реалистичен и эффективен. Я не знаю, есть, может, 50% шанс, что даже если бы у нас была очень хорошая открытая понятная людям модель мира, будущие программисты СИИ всё равно не стали бы её использовать, или что это было бы лишь немногим лучше посредственной открытой понятной людям модели мира.

15.2.2.2 Исследовательская программа «Простая в использовании сверхнадёжная песочница для СИИ» — ⭐⭐⭐

Напомню: по умолчанию, я ожидаю, что модель мира и Оценщики Мыслей (грубо говоря, функция ценности обучения с подкреплением) СИИ будут «обучаться с чистого листа» в смысле как в Посте №2. Это означает, что «СИИ-ребёнок» будет в лучшем случае творить ерунду, а в худшем – вынашивать опасные планы против наших интересов, пока мы будем пытаться оформить его предпочтения в дружественном для людей направлении.

Учитывая это, было бы здорово иметь сверхнадёжное окружение-«песочницу», в котором «СИИ-ребёнок» мог бы делать всё необходимое для обучения, не сбегая в интернет и не учиняя хаос какими-нибудь ещё способами.

Некоторые возможные возражения:

  • Возможное возражение №1: Идеально надёжная песочница нереалистична. Это может быть так, я не знаю. Но я говорю о надёжности не против сверхинтеллектуального СИИ, а скорее против «СИИ-ребёнка», чьи мотивации и понимание мира ещё не устоялись. В этом контексте я думаю, что более надёжная песочница осмысленно лучше менее надёжной, даже если и она неидеальна. К тому времени, как СИИ достаточно мощен, чтобы сбежать из любой неидеальной песочницы, мы уже (надеюсь!) установим в него мотивацию этого не делать.
  • Возможное возражение №2: Мы уже можем создать достаточно надёжную (хоть и не идеально надёжную) песочницу. Опять же, это может быть правдой, я не знаю. Но я особенно заинтересован в том, будут ли будущие программисты СИИ действительно использовать наиболее надёжную возможную песочницу, с учётом глубоко циничных допущений о мотивации и навыках информационной безопасности этих программистов. (По этой теме: «налог на согласование».) Это означает, что сверхнадёжная песочница должна быть доведена до совершенства, снабжена всеми фичами, которые кто-то может захотеть, быть дружественной к пользователю, незначительно ухудшать производительность, и быть совместимой со всеми аспектами того, как программисты на самом деле обучают и запускают большие системы машинного обучения. Я подозреваю, что по всем этим параметрам ещё есть куда стремиться.

Я даю этой программе исследований рейтинг приоритетности в 3 звезды из 5, в основном потому, что я не особо много знаю по этой теме, так что мне некомфортно за неё агитировать.

15.2.3 Открытые задачи, требующие явного упоминания СИИ

15.2.3.1 Исследовательская программа «Крайних случаев / консерватизма / экстраполяции концептов» — ⭐⭐⭐⭐⭐

Люди могут легко выучивать значения абстрактных концептов вроде «быть рок-звездой», просто наблюдая мир, сравнивая наблюдения с паттерном виденных ранее примеров, и т.д. Более того, выучив этот концепт, люди могут его хотеть (присваивать ему позитивную валентность), в основном как результат повторяющегося сигнала вознаграждения, возникающего при активации этого концепта в разуме (см. Пост №9, Раздел 9.3). Из этого, кажется, можно вывести общую стратегию контроля подобных-мозгу СИИ: заставить их выучить некоторые концепты вроде «быть честным» и «быть полезным» с помощью помеченных примеров, а затем удостовериться, что они получили позитивную валентность, и готово!

Однако, концепты выводятся из сети статистических ассоциаций, и как только мы попадаем в выходящие из распределения крайние случаи, ассоциации ломаются, и концепты тоже. Если религиозный фанатик верит в ложного бога, «помогаешь» ли ты ему, разубедив его? Лучший ответ «Я не знаю, это зависит от того, что мы имеем в виду под помощью». Такое действие хорошо совпадает с некоторыми коннотациями / ассоциациями концепта «помощи», но довольно плохо с другими.

Так что заставить СИИ выучить и полюбить некоторые абстрактные концепты кажется началом хорошего плана, но только если у нас есть оформленный подход к тому, как СИИ должен очищать эти концепты, чтобы мы это одобряли, при встрече с крайними случаями. И тут у меня нет никаких хороших идей.

См. Пост №14, Раздел 14.4 за дополнительным обсуждением.

Примечание: Если вы действительно мотивированы этой программой исследований, одним из вариантов может быть попробовать получить работу в AlignedAI. Их сооснователь, Стюарт Армстронг, изначально и предложил «экстраполяцию концептов» как исследовательскую программу (и установил термин), и, кажется, это и есть их основной исследовательский фокус. Учитывая опыт Стюарта Армстронга в формализованных размышлениях о безопасности СИИ, я с осторожностью оптимистичен по поводу того, что AlignedAI будет работать в направлении решений, масштабируемых до суперинтеллектуальных СИИ завтрашнего дня, а не просто подходящих лишь для современных СИИ-систем, как часто бывает.

Я даю этой программе исследований рейтинг приоритетности в 5 звёзд из 5. Решение этой задачи даст нам по крайней мере большую часть знаний для создания «Контролируемых СИИ» (в смысле Поста №14).

15.2.3.2 Исследовательская программа «Жёстко доказать хоть что-нибудь о значении элементов выученной с чистого листа модели мира» — ⭐⭐⭐⭐⭐

Подобные-мозгу СИИ предположительно будут выучивать с чистого листа огромную многотерабайтную неразмеченную модель мира. Цели и желания СИИ будут определены в терминах содержимого этой модели мира (Пост №9, Раздел 9.2). И в идеале мы бы хотели делать о целях и желаниях СИИ уверенные заявления, или, ещё лучше, доказывать о них теоремы. Это, кажется, требует доказательств о «значениях» элементов этой сложной постоянно растущей модели мира. Как это сделать? Я не знаю.

См. обсуждение в Посте №14, Разделе 14.5.

В этом направлении ведётся какая-то работа в Центре Исследования Согласования, они делают замечательные вещи и нанимают на работу. (см. обсуждение ELK.) Но, насколько я знаю, прогресс тут – это тяжёлая задача, требующая новых идей, если он вообще возможен.

Я даю этому направлению исследований рейтинг приоритетности в 5 звёзд из 5. Может, оно и неосиливаемое, но если получится, то это точно будет чертовски важно. Это, в конце концов, дало бы нам полную уверенность, что мы понимаем, что СИИ пытается сделать.

15.2.3.3 Исследовательская программа «Решать задачу целиком» — ⭐⭐⭐⭐⭐

Это то, чем я занимался в Постах №12 и №14. Нам надо связать всё воедино в правдоподобную схему, выяснить, чего не хватает и точно понять, как двигаться целиком. Если вы читаете эти посты, вы видите, что надо сделать ещё много всего – к примеру, нам нужен план получше для обучающих данных и окружений, и я даже не упомянул штуки вроде протоколов тестирования в песочнице. Но многие из соображений при проектировании кажутся взаимосвязанными, так что нельзя их с лёгкостью разделить на разные программы. Так что это моя категория для таких вещей.

(См. также: Подсказка по продуктивности исследований: «День Решения Всей Задачи».)

Я даю этому направлению исследований рейтинг приоритетности в 5 звёзд из 5 по очевидным причинам.

15.3 Как подключиться

(Предупреждение: этот раздел может быстро устареть. Я пишу его в мае 2022 года.)

15.3.1 Ситуация с финансированием

Если вы обеспокоены безопасностью СИИ («согласованием ИИ»), и ваша цель – помочь с этим, то крайне приятно получать финансирование от кого-то с такой же целью.

Конечно, возможно получать финансирование и из более традиционных источников, например, государственного спонсирования науки, и использовать его для продвижения безопасности СИИ. Но тогда вам придётся выстраивать компромисс между «тем, что поможет безопасности СИИ» и «тем, что впечатлит / удовлетворит источник финансирования». Мой опыт в этом указывает на то, что такие компромиссы действительно плохи. Я потратил некоторое время на исследования таких компромиссных стратегий на ранних этапах моей работы над безопасностью СИИ; я был предупреждён, что они плохи, и я всё равно очень сильно недооценил, насколько они плохи. Для иллюстрации, сначала я вёл блог про безопасность СИИ в качестве хобби в своё свободное время, зажатое между работой в полную ставку и двумя маленькими детьми, и я думаю, что это было намного полезнее, чем если бы я посвящал всё своё время лучшему доступному «компромиссному» проекту.

(Вы можете заменить «компромисс, чтобы удовлетворить мой источник финансирования» на «компромисс, чтобы удовлетворить мою диссертационную комиссию» или «компромисс, чтобы удовлетворить моего начальника» или «компромисс, чтобы заполучить впечатляющее резюме для будущей работы» по ситуации.)

В любом случае, к нашей удаче, есть множество источников финансирования, явно мотивированных безопасностью СИИ. Насколько я знаю, все они – благотворительные фонды. (Я полагаю, беспокоиться о будущем вышедшем из-под контроля СИИ – немного слишком экзотично для государственных фондов?) Финансирование технической безопасности СИИ (тема этой цепочки) последнее время быстро росло, и, кажется, сейчас это десятки миллионов долларов в год, плюс-минус в зависимости от того, что лично вы считаете за настоящую работу над технической безопасностью СИИ.

Многие, но не все озабоченные безопасность СИИ филантропы (и исследователи вроде меня) связаны с движением Эффективного Альтруизма (EA), сообществом / движением / проектом, посвящённом попыткам выяснить, как лучше сделать мир лучшим местом, а затем сделать это. Внутри EA есть крыло «лонгтермистов», состоящее из людей, исходящих из беспокойства о долгосрочном будущем, где «долгосрочное» может означать миллионы, миллиарды или триллионы лет. Лонгтермисты склонны быть особенно мотивированными предотвращением необратимых катастроф масштаба вымирания людей вроде вышедших из-под контроля СИИ, спроектированных пандемий, и т.д. Так что в кругах EA безопасность СИИ иногда считают «областью лонгтермистов», что несколько сбивает с толку, учитывая, что мы говорим о том, как предотвратить потенциальную катастрофу, которая вполне может случиться во время моей жизни (см. Обсуждение сроков в Постах №2-№3). Ну ладно.


(Это просто лёгкий юмор, никого не принижаю, на самом деле, я сам действую частично исходя из беспокойства о долгосрочном будущем.)

Связь между EA и безопасностью СИИ стала достаточно сильна, чтобы (1) одни из лучших конференций для исследователя безопасности СИИ - это EA Global / EAGx, и (2) люди начали называть меня EA, и высылать мне приглашения на их события, когда я всего лишь начал писать посты в блоге про безопасность СИИ в своё свободное время.

В любом случае, суть такова: мотивированные безопасностью СИИ источники финансирования существуют – находитесь ли вы в академической среде, в некоммерческой организации, или просто являетесь независимым исследователем (как я!). Как его получить? В большинстве случае, вам скорее всего надо сделать что-то из этого:

  1. Продемонстрировать, что вы лично понимаете задачу согласования СИИ достаточно хорошо, чтобы хорошо судить о том, какие исследования были бы полезными, или
  2. Включиться в конкретную исследовательскую программу, которую специалисты по безопасности СИИ уже одобрили как важную и полезную.

Что касается №2 – одна из причин, почему я написал Раздел 15.2 – я пытаюсь помочь этому процессу. Мне кажется, что по крайней мере некоторые из этих программ могут (при некотором труде) быть оформлены в хорошие конкретные перспективные заявки или предложения. Напишите мне, если думаете, что могли бы помочь, или если хотите, чтобы я держал вас в курсе возможностей.

Что касается №1 – да, делайте это!! Безопасность СИИ – захватывающая область, и она достаточна «молода», чтобы вы могли добраться до переднего фронта исследований куда быстрее, чем возможно, скажем, в физике частиц. См. следующий подраздел за ссылками на ресурсы, курсы, и т.д. Или, полагаю, вы можете обучиться области, если будете читать писать много постов и комментариев на эту тему в своё свободное время, как поступил я.

Кстати, это правда, что некоммерческий сектор в целом имеет репутацию скудных бюджетов и недооплачиваемых перерабатывающих сотрудников. Но финансируемая филантропами работа над безопасностью СИИ обычно не такая. Спонсоры хотят лучших людей, даже если они сильно погружены в свои карьеры и ограничены арендной платой, повседневными затратами, и т.д. – как я! Так что было мощное движение в сторону зарплат, сравнимых с коммерческим сектором, особенно в последнюю пару лет.

15.3.2 Работы, организации, программы обучения, сообщества, и т.д.

15.3.2.1 …Связанные с безопасностью СИИ (согласованием ИИ) в целом

Много ссылок можно найти на так и озаглавленной странице AI Safety Support Lots-of-Links, а более часто обновляемый список можно найти тут: «стартовый набор по безопасности ИИ». Отмечу пару особенно важных пунктов:

15.3.2.2 …Более конкретно связанные с этой цепочкой

В: Есть ли место сбора и обсуждений конкретно «безопасности подобного-мозгу СИИ» (или тесно связанной «безопасности СИИ, базирующегося на основанном на модели обучении с подкреплением»)?

О: Насколько я знаю, нет. И я не вполне уверен, что должны, это очень сильно пересекается с другими направлениями исследований в безопасности СИИ.

(Ближайшее, наверное, это дискорд-сервер про так называемую «теорию осколков» (shard theory), можете написать мне, чтобы получить ссылку)

В: Есть ли такое для пересечения нейробиологии / психологии и безопасности СИИ / согласования ИИ?

О: Есть канал «нейробиология и психология» в Slack-е AI Safety Support. Вы можете ещё присоединиться к рассылке PIBBSS, на случай, если это ещё повторится в будущем.

Если вы хотите увидеть больше разных точек зрения на пересечение нейробиологии и безопасности СИИ, попробуйте почитать статьи Каджа Соталы; Сета Херда, Дэвида Джилка, Рэндалла О’Райли и пр.; Гопала Сармы и Ника Хэя; Патрика Бутлина; Яна Кулвейта, и другие статьи тех же авторов, и многих других, кого я забыл.

(Я сам, если что, пришёл из физики, не из нейробиологии – на самом деле, я не знал практически ничего из нейробиологии ещё в 2019. Я заинтересовался нейробиологией, чтобы ответить на мучавшие меня вопросы из безопасности СИИ, не наоборот.)

В: Эй, Стив, могу я работать с тобой?

О: Хоть я сейчас не заинтересован в том, чтобы кого-нибудь нанимать или наставлять, я всегда рад кооперироваться и обмениваться информацией. У нас много работы! Напишите мне, если хотите поговорить!

15.4 Заключение: 8 выводов

Спасибо за чтение! Я надеюсь, что этой цепочкой я успешно передал следующее:

  • Мы знаем о нейробиологии достаточно, чтобы говорить конкретные вещи о том, на что будет похож «подобный-мозгу СИИ» (Посты №1-№9);
  • В частности, хоть «подобный мозгу СИИ» сильно бы отличался от известных алгоритмов, его связанные с безопасностью аспекты имели бы много общего с основанным на модели обучением с подкреплением «субъект-критик» с многомерной функцией ценности (Посты №6, №8, №9);
  • «Понять мозг достаточно хорошо, чтобы создать подобный-мозгу СИИ» – намного более простая задача, чем «понять мозг» – если первая приблизительно аналогична тому, чтобы знать, как обучить свёрточную нейросеть, то вторая будет аналогична тому, чтобы знать, как обучить свёрточную нейросеть и достигнуть полной механистической интерпретируемости получившейся модели, и понимать все аспекты физики и инженерии интегральных схем, и т.д. На самом деле, создание подобного-мозгу СИИ надо рассматривать не как далёкую фантастическую гипотезу, но, скорее, как текущий проект, который может завершиться в ближайшее десятилетие или два (Посты №2-№3);
  • При отсутствии хорошего технического плана избегания происшествий, исследователи, экспериментирующие с подобным-мозгу СИИ скорее всего случайно создадут неподконтрольный СИИ с катастрофическими последствиями вплоть до и включая вымирание человечества (Посты №1, №3, №10, №11);
  • Прямо сейчас у нас нет никакого хорошего технического плана для избегания происшествий с неподконтрольными СИИ (Посты №10-№14);
  • Неочевидно, как составить такой план, и его составление не кажется необходимым этапом на пути к созданию мощных подобных-мозгу СИИ – следовательно, не следует предполагать, что он появится в будущем «по умолчанию» (Пост №3);
  • Мы многое можем делать прямо сейчас, чтобы помочь двигаться к составлению такого плана (Посты №12-№15);
  • Для этой работы доступно финансирование и перспективные варианты карьеры (Пост №15).

Что касается меня, я собираюсь продолжать работать над различными направлениями исследований из Раздела 15.2 выше; для получения новостей подпишитесь на мой Твиттер или RSS, или проверяйте мой сайт. Я надеюсь, вы тоже рассмотрите вариант помочь, потому что я тут прыгаю чертовски выше головы!

Спасибо за чтение, и, ещё раз, комментарии тут – для общих обсуждений и вопросов о чём угодно.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 5 (Всего оценок: 1)

Встроенная агентность

Абрам Демски, Скотт Гаррабрант

В классических моделях, предполагается, что рациональный агент:

  • отделен от внешнего мира,
  • имеет ограниченный набор стратегий для взаимодействия с внешним миром,
  • строит точные модели внешнего мира,
  • не имеет необходимости размышлять о себе или о том, из каких частей он состоит.

В статье приведен неформальный обзор препятствий, которые мешают формализовать хорошие принципы принятия решений для агентов, находящихся внутри оптимизируемого ими мира,агентов вложенных в мир. Такие агенты должны оптимизировать не какую-то функцию, а состояние мира. Такие агенты должны использовать модели, которые входят в моделируемое пространство. Должны размышлять о себе как о просто ещё одной физической системе, сделанной из тех же составных частей что и остальной мир, частей, которые можно модифицировать и использовать в различных целях.

Содержание:

  1. Встроенные агенты
  2. Теория принятия решений
  3. Встроенные модели мира
  4. Устойчивое делегирование
  5. Согласование подсистем
  6. Встроенные странности (заключение)
Перевод: 
Khakhalin Ivan, Slava Meriton, Выменец Максим
Оцените качество перевода: 
Средняя оценка: 2.9 (23 votes)

Встроенная Агентность. Встроенные агенты

Абрам Демски, Скотт Гаррабрант

Примечание переводчика - из-за отсутствия на сайте нужного класса для того, чтобы покрасить текст в оранжевый цвет, я заменил его фиолетовым. Фиолетовый в тексте соответствует оранжевому на картинках.

Предположим, вы хотите создать робота, чтобы он для вас достиг некоей цели в реальном мире – цели, которая требует у робота обучаться самостоятельно и выяснить много того, чего вы пока не знаете.

Это запутанная инженерная задача. Но есть ещё и задача выяснения того, что вообще означает создать такого обучающегося агента. Что такое – оптимизировать реалистичные цели в физическом окружении? Говоря обобщённо – как это работает?

В этой серии постов я покажу четыре стороны нашего непонимания того, как это работает, и четыре области активного исследования, направленных на выяснение этого.

Вот Алексей, он играет в компьютерную игру.

Как в большинстве игр, в этой есть явные потоки ввода и вывода. Алексей наблюдает игру только посредством экрана компьютера и манипулирует игрой только посредством контроллера.

Игру можно считать функцией, которая принимает последовательность нажатия кнопок и выводит последовательность пикселей на экране.

Ещё Алексей очень умён и способен удерживать в своей голове всю компьютерную игру. Если у Алексея и есть неуверенность, то она касается только эмпирических фактов вроде того, в какую игру он играет, а не логических фактов вроде того, какой ввод (для данной детерминированной игры) приведёт к какому выводу. Это означает, что Алексей должен хранить в своей голове ещё и каждую возможную игру, в которую он может быть играет.

Алексею, однако, нет нужды думать о самом себе. Он оптимизирует только игру, в которую он играет, и не оптимизирует мозг, который он использует, чтобы думать об игре. Он всё ещё может выбирать действия, основываясь на ценности информации, но только чтобы помочь себе сузить набор возможных игр, а не чтобы изменить то, как он думает.

На самом деле, Алексей может считать себя неизменяемым неделимым атомом. Раз он не существует в окружении, о котором он думает, Алексей не беспокоится о том, изменится ли он со временем или о подпроцессах, которые ему может понадобиться запустить.

Заметим, что все свойства, о которых я говорил, становятся возможны в частности благодаря тому, что Алексей чётко отделён от окружения, которое он оптимизирует.

Вот Эмми, она играет в реальность.

Реальность не похожа на компьютерную игру. Разница в основном вызвана тем, что Эмми находится в окружении, которое пытается оптимизировать.

Алексей видит вселенную как функцию и оптимизирует, выбирая для этой функции ввод, приводящий к более высокому вознаграждению, чем иные возможные вводы, которые он мог бы выбрать. У Эмми, напротив, нет функции. У неё есть лишь окружение, и оно её содержит.

Эмми хочет выбрать лучшее возможное действие, но то, какое действие Эмми выберет – это просто ещё один факт об окружении. Эмми может рассуждать о той части окружения, которая является её решением, но раз Эмми в итоге на самом деле выберет только одно действие, неясно, что вообще значит для Эмми «выбирать» действие, лучшее, чем остальные.

Алексей может потыкать в вселенную и посмотреть, что произойдёт. Эмми – это вселенная, тыкающая себя. Как нам в случае Эмми вообще формализовать идею «выбора»?

Мало того, раз Эмми содержится в окружении, Эмми ещё и должна быть меньше, чем окружение. Это означает, что Эмми не способна хранить в своей голове детальные точные модели окружения.

Это приводит к проблеме: Байесовские рассуждения работают, начиная с большого набора возможных окружений, и, когда вы наблюдаете факты, несовместимые с некоторыми из этих окружений, вы эти окружения отвергаете. На что похожи рассуждения, когда вы неспособны хранить даже одну обоснованную гипотезу о том, как работает мир? Эмми придётся использовать иной вид рассуждений, и совершать поправки, не вписывающиеся в стандартный Байесовский подход.

Раз Эмми находится внутри окружения, которым она манипулирует, она также будет способна на самоулучшение. Но как Эмми может быть уверена, что пока она находит и выучивает всё больше способов улучшить себя, она будет менять себя только действительно полезными способами? Как она может быть уверена, что она не модифицирует свои изначальные цели нежелательным образом?

Наконец, раз Эмми содержится в окружении, она не может считать себя подобной атому. Она состоит из тех же частей, что и остальное окружение, из-за чего она и способна думать о самой себе.

В дополнение к угрозам внешнего окружения, Эмми будет беспокоиться и об угрозах, исходящих изнутри. В процессе оптимизации Эмми может запускать другие оптимизаторы как подпроцессы, намеренно или ненамеренно. Эти подсистемы могут вызывать проблемы, если они становятся слишком мощными и не согласованными с целями Эмми. Эмми должна разобраться, как рассуждать, не запуская разумные подсистемы, или разобраться, как удерживать их слабыми, контролируемыми или полностью согласованными с её целями.

Эмми в замешательстве, так что давайте вернёмся к Алексею. Подход AIXI Маркуса Хаттера предоставляет хорошую теоретическую модель того, как работают агенты вроде Алексея:

$$a_{k}:=argmax_{a_{k}}\sum_{o_{k}r_{k}}…max_{a_{m}}\sum_{o_{m}r_{m}}[r_{k}+…+r{m}]\sum_{q:U(1,a_{1}…a_{m})=o_{1}r_{1}…o_{m}r_{m}}2^{-l(q)}$$

В этой модели есть агент и окружение, взаимодействующие посредством действий, наблюдений и вознаграждений. Агент посылает действие a, а потом окружение посылает наружу и наблюдение o, и вознаграждение r. Этот процесс повторяется в каждый момент km.

Каждое действие – функция всех предыдущих троек действие-наблюдение-вознаграждение. И каждое наблюдение и каждое вознаграждение аналогично является функцией этих троек и последнего действия.

Вы можете представить, что при этом подходе агент обладает полным знанием окружения, с которым он взаимодействует. Однако, AIXI используется, чтобы смоделировать оптимизацию в условиях неуверенности в окружении. AIXI обладает распределением по всем возможным вычислимым окружениям q, и выбирает действия, ведущие к высокому ожидаемому вознаграждению согласно этому распределению. Так как его интересует и будущее вознаграждение, это может привести к исследованию из-за ценности информации.

При некоторых допущениях можно показать, что AIXI довольно хорошо работает во всех вычислимых окружениях несмотря на неуверенность. Однако, хоть окружения, с которыми взаимодействует AIXI, вычислимы, сам AIXI невычислим. Агент состоит из чего-то другого рода, чего-то более мощного, чем окружение.

Мы можем назвать агентов вроде AIXI и Алексея «дуалистичными». Они существуют снаружи своего окружения и составляющие агента взаимодействуют с составляющими окружения исключительно ограниченным множеством установленных способов. Они требуют, чтобы агент был больше окружения, и не склонны к самореферентным рассуждениям, потому что агент состоит из чего-то совсем другого, чем то, о чём он рассуждает.

AIXI не одинок. Эти дуалистические допущения показываются во всех наших нынешних лучших теориях рациональной агентности.

Я выставил AIXI как что-то вроде фона, из AIXI можно и черпать вдохновение. Когда я смотрю на AIXI, я чувствую, что я действительно понимаю, как работает Алексей. Таким же пониманием я хочу обладать и об Эмми.

К сожалению, Эмми вводит в замешательство. Когда я говорю о желании получить теорию «встроенной агентности», я имею в виду, что я хочу быть способен теоретически понимать, как работают такие агенты, как Эмми. То есть, агенты, встроенные внутрь своего окружения, а следовательно:

  • Не имеющие хорошо определённых каналов ввода/вывода;
  • меньшие, чем своё окружение;
  • способные рассуждать о себе и самоулучшаться;
  • и состоящие из примерно того-же, что и окружение.

Не стоит думать об этих четырёх трудностях как об отдельных. Они очень сильно переплетены друг с другом.

К примеру, причина, по которой агент способен на самоулучшение – то, что он состоит из частей. И если окружение значительно больше агента, оно может содержать другие его копии, что отнимает у нас хорошо определённые каналы ввода/вывода.

Однако, я буду использовать эти четыре трудности как мотивацию разделения темы встроенной агентности на четыре подзадачи. Это: теория принятия решений, встроенные модели мира, устойчивое делегирование, и согласование подсистем.

Теория принятия решений вся про встроенную оптимизацию.

Простейшая модель дуалистичной оптимизации - это argmax. argmax принимает функцию из действий в вознаграждения, и возвращает действие, ведущее к самому высокому вознаграждению согласно этой функции. Большую часть оптимизации можно рассматривать как вариацию этого. У вас есть некое пространство; у вас есть функция из этого пространства на некую шкалу, вроде вознаграждения или полезности; и вы хотите выбрать ввод, который высоко оценивается этой функцией.

Но мы только что сказали, что большая часть того, что значит быть встроенным агентом – это что у вас нет функционального окружения. Так что нам делать? Оптимизация явно является важной частью агентности, но мы пока даже теоретически не можем сказать, что это такое, не совершая серьёзных ошибок типизации.

Некоторые крупные открытые задачи в теории принятия решений:

  • Логические контрфакты: как вам рассуждать о том, что бы произошло, если бы вы совершили действие B, при условии, что вы можете доказать, что вы вместо этого совершите действие A?
  • Окружения, включающие множественные копии агента, или достоверные предсказания об агенте.
  • Логическая необновимость, о том, как совместить очень изящный, но очень Байесовский мир необновимой теории принятия решений, с куда менее Байесовским миром логической неуверенности.

Встроенные модели мира о том, как вы можете составлять хорошие модели мира, способные поместиться внутри агента, который куда меньше мира.

Известно, что это очень сложно – во-первых, потому что это означает, что настоящая вселенная не находится в вашем пространстве гипотез, что разрушает многие теоретические гарантии; а во-вторых, потому что это означает, что, обучаясь, мы будем совершать не-Байесовские поправки, что тоже рушит кучу теоретических гарантий.

Ещё это о том, как создавать модели мира с точки зрения находящегося внутри него наблюдателя, и вытекающих проблем вроде антропного принципа. Некоторые крупные открытые задачи о встроенных моделях мира:

  • Логическая неуверенность, о том, как совместить мир логики с миром вероятностей.
  • Многоуровневое моделирование, о том, как обладать несколькими моделями одного и того же мира на разных уровнях описания и изящно переходить между ними.
  • Онтологические кризисы, о том, что делать, поняв, что ваша модель, или даже ваша цель, определена не в той же онтологии, что реальный мир.

Устойчивое делегирование – про специальный вид задачи принципала-агента. У вас есть исходный агент, который хочет создать более умного наследника для помощи в оптимизации его целей. Исходный агент обладает всей властью, потому что он решает, что в точности агент-наследник будет делать. Но в другом смысле агент-наследник обладает всей властью, потому что он намного, намного умнее.

С точки зрения исходного агента, вопрос в создании наследника, который устойчиво не будет использовать свой интеллект против тебя. С точки зрения агента-наследника, вопрос в «Как тебе устойчиво выяснить и уважать цели чего-то тупого, легко манипулируемого и даже не использующего правильную онтологию?»

Ещё есть дополнительные проблемы, вытекающие из Лёбова препятствия, делающие невозможным постоянное доверие тому, что намного могущественнее тебя.

Можно думать об этих задачах в контексте агента, который просто обучается со временем, или в контексте агента, совершающего значительное самоулучшение, или в контексте агента, который просто пытается создать мощный инструмент.

Некоторые крупные открытые задачи устойчивого делегирования:

  • Рефлексия Винджа – о том, как рассуждать об агентах и как доверять агентам, которые намного умнее тебя, несмотря на Лёбово препятствие доверию.
  • Обучение ценностям – о том, как агент-наследник может выяснить цели исходного агента, несмотря на его глупость и непоследовательность.
  • Исправимость – о том, как исходному агенту сделать так, чтобы агент-наследник допускал (или даже помогал производить) модификации себя, несмотря на инструментальную мотивацию этого не делать.

Согласование подсистем – о том, как быть одним объединённым агентом, не имеющим подсистем, сражающихся с тобой или друг с другом.

Когда у агента есть цель, вроде «спасти мир», он может потратить большое количество своего времени на мысли о подцели, вроде «заполучить денег». Если агент запускает субагента, который пытается лишь заполучить денег, то теперь есть два агента с разными целями, и это приводит к конфликту. Субагент может предлагать планы, которые выглядят так, будто они только приносят деньги, но на самом деле они уничтожают мир, чтобы заполучить ещё больше денег.

Проблема такова: вам не просто надо беспокоиться о субагентах, которых вы запускаете намеренно. Вам надо беспокоится и о ненамеренном запуске субагентов. Каждый раз, когда вы проводите поиск или оптимизацию по значительно большому пространству, которое может содержать агентов, вам надо беспокоится, что в самом пространстве тоже проводится оптимизация. Эта оптимизация может не в точности соответствовать оптимизации, которую пытается провести внешняя система, но у неё будет инструментальная мотивация выглядеть, будто она согласована.

Много оптимизации на практике использует передачу ответственности такого рода. Вы не просто находите решение, вы находите что-то, что само может искать решение.

В теории, я вовсе не понимаю, как оптимизировать иначе, кроме как методами, выглядящими вроде отыскивания кучи штук, которых я не понимаю, и наблюдения, не исполнят ли они мою цель. Но это в точности то, что наиболее склонно к запуску враждебных подсистем.

Большая открытая задача в согласовании подсистем – как сделать, чтобы оптимизатор базового уровня не запускал враждебные оптимизаторы. Можно разбить эту задачу на рассмотрение случаев, когда оптимизаторы получаются намеренно и ненамеренно, и рассмотреть ограниченные подклассы оптимизации, вроде индукции.

Но помните: теория принятия решений, встроенные модели мира, устойчивое делегирование и согласование подсистем – не четыре отдельных задачи. Они все разные подзадачи единого концепта встроенной агентности.

Вторая часть: Теория принятия решений.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Встроенная Агентность. Теория принятия решений

Абрам Демски, Скотт Гаррабрант

Примечание переводчика - из-за отсутствия на сайте нужного класса для того, чтобы покрасить текст в оранжевый цвет, я заменил его фиолетовым. Фиолетовый в тексте соответствует оранжевому на картинках.

Теория принятия решений и искусственный интеллект обычно пытаются вычислить что-то напоминающее

$$argmax_{a \in Actions}f(a)$$

Т.е. максимизировать некую функцию от действия. Тут предполагается, что мы можем в достаточной степени распутывать вещи, чтобы видеть исходы как функции действий.

К примеру, AIXI отображает агента и окружение как отдельные единицы, взаимодействующие во времени посредством чётко определённых каналов ввода/вывода, так что он может выбирать действия, максимизирующие вознаграждение.

Когда модель агента – часть модели окружения, становится куда менее ясно, как рассматривать исполнение альтернативных действий.

К примеру, раз агент меньше окружения, могут существовать другие копии агента, или что-то, очень похожее на агента. Это приводит к вызывающим споры задачам теории принятия решений, таким как Дилемма Заключённых Близнецов и задача Ньюкомба.

Если Эмми Модель 1 и Эмми Модель 2 имеют один и тот же опыт и исполняют один и тот же исходный код, то должна ли Эмми Модель 1 действовать, будто её решения направляют обоих роботов сразу? В зависимости от того, как вы проведёте границу вокруг «себя», вы можете думать, что контролируете действия обеих копий, или только свои.

Это частный случай проблемы контрфактуальных рассуждений: как нам оценивать гипотетические предположения вроде «Что, если бы солнце внезапно погасло?»

Задача адаптации теории принятия решений к встроенным агентам включает:

  • контрфакты
  • Рассуждения в духе задачи Ньюкомба, в которых агент взаимодействует с копией себя
  • Более широкие рассуждения о других агентах
  • Задачи о вымогательстве
  • Задачи о координации
  • Логические контрфакты
  • Логическую необновимость

Самый центральный пример того, почему агентам надо думать о контрфактах, касается контрфактов об их собственных действиях.

Сложность с контрфактуальными действиями можно проиллюстрировать задачей пять-и-десять. Предположим, у нас есть вариант взять пятидолларовую купюру или десятидолларовую, и всё, что нас волнует в этой ситуации – сколько денег мы получим. Очевидно, нам следует взять \$10.

Однако, надёжно брать \$10 не так просто, как кажется.

Если вы рассуждаете о себе просто как о ещё одной части окружения, то вы можете знать своё собственное поведение. Если вы можете знать своё собственное поведение, то становится сложно рассуждать о том, что бы случилось, если бы вы повели себя по-другому.

Это вставляет палки в колёса многих обычных методов рассуждений. Как нам формализовать идею «Взять \$10 приводит к хорошим последствиям, а взять \$5 приводит к плохим последствиям», если значительно богатое знание себя вскрывает, что один из этих сценариев внутренне противоречив?

А если мы не можем так формализовать никакую идею, то каким образом агенты в реальном мире всё равно догадываются взять \$10?

Если мы попробуем вычислить ожидаемую полезность наших действий обычным Байесовским способом, то знание своего собственного поведения приводит к ошибке деления на ноль, когда мы пытаемся вычислить ожидаемую полезность действий, которые мы не выбрали: $¬A$, следовательно $P(A)=0$, следовательно $P(B\&A)=0$, следовательно

$$P(B|A)=\frac{P(B\&A)}{P(A)}=\frac{0}{0}$$

Из-за того, что агент не знает, как отделить себя от окружения, у него заедают внутренние шестерни, когда он пытается представить, как он совершает другое действие.

Но самое большое затруднение вытекает из Теоремы Лёба, которая может заставить в агента, выглядящего в остальном разумно, взять \$5, потому что «Если я возьму \$10, я получу \$0»! И это будет стабильно 0 – проблема не решается тем, что агент обучается или больше о ней думает.

В это может быть сложно поверить; так что давайте посмотрим на детализированный пример. Явление можно проиллюстрировать поведением простых основанных-на-логике агентов, рассуждающих о задаче пять-и-десять.

Рассмотрим такой пример:

У нас есть исходный код агента и вселенной. Они могут рекурсивно ссылаться на код себя и друг друга. Вселенная простая – она просто выводит то, что выводит агент.

Агент тратит много времени в поисках доказательств о том, что произойдёт, если он предпримет различные действия. Если для неких $x$ и $y$, которые могут быть равны 0, 5, или 10, он найдёт доказательство того, что взятие 5 приводит к $x$ полезности, а взятие 10 приводит к $y$ полезности, и что $x>y$, то он, естественно, возьмёт 5. Мы ожидаем, что он не найдёт такого доказательства, и вместо этого выберет действие по умолчанию, взяв 10.

Это кажется простым, когда вы просто представляете агента, который пытается рассуждать о вселенной. Но оказывается, что если время, потраченное на поиск доказательств достаточно велико, то агент будет всегда выбирать 5!

Это доказывается через теорему Лёба. Теорема Лёба гласит, что для любого высказывания $P$, если вы можете доказать, что из доказательства $P$ следовала бы истинность $P$, то тогда вы можете доказать $P$. Формальная запись, где «$□X$» означает «$X$ доказуемо»:

$$□(□P→P)→□P$$

В данной мной версии задачи пять-и-десять, «$P$» – это утверждение «если агент возвращает 5, то вселенная возвращает 5, а если агент возвращает 10, то вселенная возвращает 0».

Если предположить, что оно истинно, то агент однажды найдёт доказательство и действительно вернёт 5. Это сделает высказывание истинным, ведь агент возвращает 5, и вселенная возвращает 5, а то, что агент возвращает 10 – ложно. А из ложных предпосылок вроде «агент возвращает 10» следует всё, что угодно, включая то, что вселенная возвращает 0.

Агент может (при наличии достаточного времени) доказать всё это, а в этом случае агент действительно докажет «если агент возвращает 5, то вселенная возвращает 5, а если агент возвращает 10, то вселенная возвращает 0». И как результат, агент возьмёт \$5.

Мы называем это «поддельным доказательством»: агент берёт \$5, потому что он может доказать, что, если он возьмёт \$10, ценность будет низка, потому что он берёт \$5. Это звучит неправильно, но, к сожалению, это логически корректно. В более общем случае, работая в менее основанных на доказательствах обстановках, мы называем это проблемой поддельных контрфактов.

Общий шаблон такой: контрфакты могут поддельно отмечать действия как не слишком хорошее. Это заставляет ИИ не выбирать это действие. В зависимости от того, как контрфакты работают, это может убрать любую обратную связь, которая могла бы «исправить» проблематичный контрфакт; или, как мы видели с рассуждением, основанным на доказательствах, это может активно помогать поддельным контрфактам быть «истинными».

Замечу, что раз основанные на доказательствах примеры для нас значительно интересны, «контрфакты» должны на самом деле быть контрлогическими; нам иногда надо рассуждать о логически невозможных «возможностях». Это делает неподходящими самые впечатляющие достижения рассуждений о контрфактах.

Вы можете заметить, что я немного считерил. Единственным, что сломало симметрию и привело к тому, что агент взял \$5, было то, что это было действием, предпринимаемым в случае нахождения доказательства, а «10» было действием по умолчанию. Мы могли бы вместо этого рассмотреть агента, который ищет доказательство о том, какое действие приводит к какой полезности, и затем совершает действие, которое оказалось лучше. Тогда выбранное действие зависит от того, в каком порядке мы ищем доказательства.

Давайте предположим, что мы сначала ищем короткие доказательства. В этом случае мы возьмём \$10, потому что очень легко показать, что $A()=5$ приведёт к $U()=5$, а $A()=10$ приведёт к $U()=10$.

Проблема в том, что поддельные доказательства тоже могут быть короткими и не становятся сильно длиннее, когда вселенная становится сложнее для предсказания. Если мы заменим вселенную такой, доказываемая функциональность которой такая же, но её сложнее предсказать, то кратчайшее доказательство обойдёт её сложное устройство и будет поддельным.

Люди часто пытаются решить проблему контрфактов, предполагая, что всегда будет некоторая неуверенность. ИИ может идеально знать свой исходный код, но он не может идеально знать «железо», на котором он запущен.

Решает ли проблему добавление небольшой неуверенности? Зачастую нет:

  • Доказательства поддельных контрфактов часто всё ещё есть; если вы думаете, что вы в задаче пять-и-десять с уверенностью в 95%, то у вас может возникнуть всё та же проблема в пределах этих 95%.
  • Добавление неуверенности для хорошего определения контрфактов не даёт никакой гарантии, что контрфакты будут осмысленными. Вы нечасто хотите ожидать неполадок «железа» при рассмотрении альтернативных действий.

Рассмотрим такой сценарий: Вы уверены, что почти всегда выбираете пойти налево. Однако, возможно (хоть и маловероятно), что космический луч повредит ваши схемы, в каком случае вы можете пойти направо – но тогда вы сойдёте с ума, что приведёт к множеству других плохих последствий.

Если само это рассуждение – причина того, что вы всегда идёте налево, то всё уже пошло не так.

Просто удостовериться, что у агента есть некоторая неуверенность в своих действиях, недостаточно, чтобы удостовериться, что контрфактуальные ожидания агента будут хоть отдалённо осмысленны. Однако, то, что можно попробовать вместо этого – это удостовериться, что агент действительно выбирает каждое действие с некоторой вероятностью. Эта стратегия называется ε-исследование.

ε-исследование уверяет, что если агент играет в схожие игры достаточно много раз, то он однажды научится реалистичным контрфактам (без учёта реализуемости, до которой мы доберёмся позже).

ε-исследование работает только если есть гарантия, что сам агент не может предсказать, будет ли он ε-исследовать. На самом деле, хороший способ реализовать ε-исследование – воспользоваться правилом «если агент слишком уверен, какое действие совершит, совершить другое».

С логической точки зрения непредсказуемость ε-исследования – то, что предотвращает рассмотренные нами проблемы. С точки зрения теоретического обучения, если бы агент мог знать, что он не собирается исследовать, то он трактовал бы это как отдельный случай – и не смог бы обобщить уроки от исследования. Это возвращает нас к ситуации, в которой у нас нет никаких гарантий, что агент научится хорошим контрфактам. Исследование может быть единственным источником данных о некоторых действиях, так что нам надо заставить агента учитывать эти данные, или он может не обучиться.

Однако, кажется даже ε-исследование не решает всё. Наблюдение результатов ε-исследования показывает вам, что произойдёт, если вы предпримете действие непредсказуемо; последствия выбора этого действия в обычном случае могут быть иными.

Предположим, вы ε-исследователь, который живёт в мире ε-исследователей. Вы нанимаетесь на работу сторожем, и вам надо убедить интервьюера, что вы не такой человек, который бы сбежал, прихватив то, что сторожит. Они хотят нанять кого-то, достаточно честного, чтобы не врать и не воровать, даже считая, что это сойдёт с рук.

Предположим, что интервьюер изумительно разбирается в людях – или просто имеет доступ к вашему исходному коду.

В этой ситуации кража может быть замечательным вариантом как действие ε-исследования, потому что интервьюер может быть неспособен её предсказать, или может не считать, что одноразовую аномалию имеет смысл наказывать.

Но кража – явно плохая идея как нормальное действие, потому что вас будут считать куда менее надёжным и достойным доверия.

Если мы не обучаемся контрфактам из ε-исследования, то кажется, что у нас вовсе нет гарантии обучиться реалистичным контрфактам. Но если мы обучаемся из ε-исследования, то кажется, что мы всё равно в некоторых случаях делаем всё неправильно.

Переключение в вероятностную обстановку не приводит к тому, что агент надёжно делает «осмысленные» выборы, насильное исследование – тоже.

Но написать примеры «правильных» контрфактуальных рассуждений не кажется сложным при взгляде снаружи!

Может, это потому, что «снаружи» у нас всегда дуалистическая точка зрения. Мы на самом деле сидим снаружи задачи, и мы определили её как функцию агента.

Однако, агент не может решить задачу тем же способом изнутри. С его точки зрения его функциональное отношение с окружением – не наблюдаемый факт. В конце концов, потому контрфакты и называются «контрфактами».

Когда я рассказал вам о задаче пять-и-десять, я сначала рассказал о задаче, а затем выдал агента. Когда один агент не работает, мы можем рассмотреть другого.

Обнаружение способа преуспеть с задачей принятия решений включает нахождение агента, который, если его вставить в задачу, выберет правильное действие. Тот факт, что мы вообще рассматриваем помещение туда разных агентов, означает, что мы уже разделили вселенную на часть «агента» и всю остальную вселенную с дыркой для агента – а это большая часть работы!

Тогда не обдурили ли мы себя тем, как поставили задачи принятия решений? «Правильных» контрфактов не существует?

Ну, может быть мы действительно обдурили себя. Но тут всё ещё есть что-то, приводящее нас в замешательство! Утверждение «Контрфакты субъективны и изобретаются агентом» не развеивает тайну. Есть что-то, что в реальном мире делают интеллектуальные агенты для принятия решений.

Итак, я не говорю об агентах, которые знают свои собственные действия, потому что я думаю, что с разумными машинами, выводящими свои будущие действия, будет большая проблема. Скорее, возможность знания своих собственных действий иллюстрирует что-то непонятное об определении последствий своих действий – замешательство, которое всплывает даже в очень простом случае, где всё о мире известно и просто нужно выбрать самую большую кучу денег.

При всём этом, у людей, кажется, выбор \$10 не вызывает никаких трудностей.

Можем ли мы черпать вдохновение из того, как люди принимают решения?

Ну, предположим, что вас действительно попросили выбрать между \$10 и \$5. Вы знаете, что возьмёте \$10. Как вы рассуждаете о том, что бы произошло, если бы вы вместо этого взяли \$5?

Это кажется легко, если вы можете отделить себя от мира, так что вы думаете только о внешних последствиях (получении \$5).

Если вы думаете ещё и о себе, то контрфакт начинает казаться несколько более странным и противоречивым. Может, у вас будет какое-нибудь абсурдное предсказание о том, каким был бы мир, если бы вы выбрали \$5 – вроде «Я должен был бы быть слепым!»

Впрочем, всё в порядке. В конце концов вы всё равно видите, что взятие \$5 привело бы к плохим последствиям, и вы всё ещё берёте \$10, так что у вас всё хорошо.

Проблема для формальных агентов в том, что агент может находиться в похожем положении, кроме того, что он берёт \$5, знает, что он берёт \$5, и не может понять, что ему вместо этого следует брать \$10, из-за абсурдных предсказаний, которые он делает о том, что происходит, когда он берёт \$10.

Для человека кажется трудным оказаться в подобной ситуации; однако, когда мы пытаемся написать формального проводящего рассуждения агента, мы продолжаем натыкаться на проблемы такого рода. Так что в самом деле получается, что человеческое принятие решений делает что-то, чего мы пока не понимаем.

Если вы – встроенный агент, то вы должны быть способны мыслить о себе, точно так же, как и о всём остальном в окружении. И другие обладатели способностью к рассуждению в вашем окружении тоже должны быть способны мыслить о вас.

Из задачи пять-и-десять мы увидели, насколько всё может стать запутанным, когда агент знает своё действие до того, как действует. Но в случае встроенного агента этого сложно избежать.

Особенно сложно не знать своё собственное действие в стандартном Байесовским случае, подразумевающем логическое всеведенье. Распределение вероятностей присваивает вероятность 1 любому логически истинному факту. Так что если Байесовский агент знает свой собственный исходный код, то он должен знать своё собственное действие.

Однако, реалистичные агенты, не являющиеся логически всеведущими, могут наткнуться на ту же проблему. Логическое всеведенье точно к ней приводит, но отказ от логического всеведенья от неё не избавляет.

ε-исследование во многих случаях кажется решающим проблему, удостоверяясь, что у агентов есть неуверенность в собственных выборах, и что то, что они ожидают, базируется на опыте.

Однако, как мы видели в примере сторожа, даже ε-исследование, кажется, неверно нас направляет, когда результаты случайного исследования отличаются от результатов надёжных действий.

Случаи, в которых всё может пойти не так таким образом, кажется, включают другую часть окружения, которая ведёт себя подобно вам – другой агент, очень на вас похожий, или достаточно хорошая модель или симуляция вас. Это называется Ньюкомбоподобными задачами; пример – Дилемма Заключённых Близнецов, упомянутая выше.

 Если задача пять-и-десять касается выделения вас как части мира так, чтобы мир можно было считать функцией от вашего действия, то Ньюкомбоподобные задачи – о том, что делать, если приблизительно подобных вам частей мира несколько.

Есть идея, что точные копии следует считать находящимися на 100% под вашим «логическим контролем». Для приблизительных копий вас или всего лишь похожих агентов, контроль должен резко падать по мере снижения логической корреляции. Но как это работает?

Ньюкомбоподобные задачи сложны по почти той же причине, что и ранее обсуждённые проблемы самореференции: предсказание. Стратегиями вроде ε-исследования мы пытались ограничить знания агента о себе, пытаясь избежать проблем. Но присутствие мощных предсказателей в окружении вводит проблему заново. Выбирая, какой информацией делиться, предсказатели могут манипулировать агентом и выбирать его действия за него.

Если есть что-то, что может вас предсказывать, то оно может сказать вам своё предсказание, или связанную информацию, а в этом случае важно, что вы сделаете в ответ на разные вещи, которые вы можете узнать.

Предположим, вы решаете делать противоположное тому, что вам сказали, чем бы это ни было. Тогда этот сценарий был невозможен изначально. Либо предсказатель всё же не точный, либо предсказатель не поделился с вами своим предсказанием.

С другой стороны, предположим, что есть некая ситуация, в которой вы действуете как предсказано. Тогда предсказатель может контролировать, как вы себя поведёте, контролируя то, какое предсказание вам рассказать.

Так что, с одной стороны, мощный предсказатель может контролировать вас, выбирая между внутренне непротиворечивыми возможностями. С другой стороны, изначально всё же вы выбираете свои паттерны реагирования. Это означает, что вы можете настроить их для своего преимущества.

Пока что мы обсуждали контрфактуальные действия – как предсказать последствия различных действий. Обсуждение контролирования своих реакций вводит контрфактуальные наблюдения – представление, как выглядел бы мир, если бы наблюдались иные факты.

Даже если никто не сообщает вам предсказаний о вашем будущем поведении, контрфактуальные наблюдения всё ещё могут играть роль в принятии верных решений. Рассмотрим такую игру:

Алиса получает случайную карту – либо туза, либо двойку. Она может объявить, что это за карта (только истинно), если хочет. Затем Боб выдаёт вероятность $p$, того, что у Алисы туз. Алиса всегда теряет $p^{2}$ долларов. Боб теряет $p^{2}$, если карта – двойка, и $(1−p)^{2}$, если карта – туз.

У Боба подходящее правило оценивания, чтобы ему лучше всего было выдавать его настоящую вероятность. Алиса просто хочет, чтобы оценка Боба как можно больше склонялась к двойке.

Предположим, Алиса играет только один раз. Она видит двойку. Боб способен хорошо рассуждать об Алисе, но находится в другой комнате, так что не может считывать невербальные подсказки. Следует ли Алисе объявить свою карту?

Раз у Алисы двойка, то если она объявит об этом Бобу, то она не потеряет денег – лучший возможный исход. Однако, это означает, что в контрфактуальном мире, где Алиса видит туза, она не может оставить это в секрете – она могла бы с тем же успехом показать карту и в этом случае, поскольку её нежелание сделать это является настолько же надёжным сигналом «туз».

С одной стороны, если Алиса не показывает свою карту, она теряет 25¢ – но тогда она может применить ту же стратегию и в другом мире, а не терять \$1. Так что до начала игры Алиса хотела бы явно дать обязательство не объявлять карту: это приводит к ожидаемым потерям в 25¢, а другая стратегия – к 50¢. Учитывая контрфактуальные наблюдения Алиса получает способность хранить секреты – а без этого Боб мог бы идеально вывести её карту из её действий.

Это игра эквивалентна задаче принятия решений, которая называется контрфактуальное ограбление.

Необновимая Теория Принятия Решений (UDT) – предлагаемая теория, позволяющая хранить секреты в такой игре. UDT делает это, рекомендуя агенту делать то, что казалось бы наиболее мудрым заранее – то, что ранняя версия себя обязалась бы делать.

Заодно UDT ещё и хорошо справляется с Ньюкомбоподобными задачами.

Может ли что-то вроде UDT быть связанным с тем, что, хоть и только неявно, делают люди, чтобы приходить к хорошим результатам задач принятия решений? Или, если нет, может ли она всё равно быть хорошей моделью для рассуждений о принятии решений?

К сожалению, тут всё ещё есть довольно глубокие сложности. UDT – элегантное решение к довольно широкому классу задач, но имеет смысл только в случае, когда ранняя версия себя может предвидеть все возможные ситуации.

Это хорошо работает в Байесовском случае, содержащем все возможности в априорной оценке. Однако в реалистичном встроенном случае сделать это может быть невозможно. Агент должен быть способен думать о новых возможностях – а значит, ранняя версия себя не знала достаточно, чтобы принять все решения.

И тут мы напрямую сталкиваемся с проблемой встроенных моделей мира.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Встроенная Агентность. Встроенные модели мира

Абрам Демски, Скотт Гаррабрант

Агент, больший, чем своё окружение, может:

  • Удерживать у себя в голове точную модель окружения.
  • Продумывать последствия каждого потенциального курса действий.
  • Если он не знает окружение идеально, удерживать в голове все возможные варианты, каким окружение могло бы быть, как в случае с Байесовской неуверенностью.

Всё это – типичные понятия рациональной агентности.

Встроенный агент ничего из этого не может, по крайней мере, не напрямую.

Одна из сложностей в том, что раз агент – часть окружения, моделирование окружения во всех деталях требовало бы от агента моделирования себя во всех деталях, для чего модель себя внутри агента должна была бы быть настолько же «большой», как весь агент. Агент не может поместиться в своей собственной голове.

Недостаток чётких границ между агентом и окружением заставляет нас сталкиваться с парадоксами самореференции. Как будто отображение всего остального мира было недостаточно тяжело.

Встроенные Модели Мира должны отображать мир более подходящим для встроенных агентов способом. Задачи из этого кластера включают:

  • Проблема «реализуемости»/«зерна истины»: реальный мир не входит в пространство гипотез агента
  • Логическая неуверенность
  • Высокоуровневые модели
  • Многоуровневые модели
  • Онтологические кризисы
  • Натурализированная индукция, проблема того, что агент должен включить свою модель себя в свою модель мира
  • Антропные рассуждения о том, сколько существует копий себя

В Байесовском случае, когда неуверенность агента количественно описывается распределением вероятности по возможным мирам, типичное допущение – «реализуемость»: что настоящее, лежащее в основе наблюдений, окружение имеет хоть какую-то априорную вероятность.

В теории игр то же свойство описывается как изначальное обладание «зерном истины». Впрочем, следует заметить, что в теоретикоигровой обстановке есть дополнительные препятствия для получения этого свойства; так, что при обычном словоупотреблении «зерно истины» требовательно, а «реализуемость» подразумевается.

Реализуемость не вполне обязательна для того, чтобы Байесовские рассуждения имели смысл. Если вы думаете о наборе гипотез, как об «экспертах», а о нынешней апостериорной вероятности – как о том, насколько вы «доверяете» каждому эксперту, то обучение согласно Закону Байеса, $P(h|e)=/frac{P(e|h)P(h)}{P(e)}$, обеспечивает свойство ограниченных относительных потерь.

Конкретно, если вы используете априорное распределение π, то вы хуже в сравнении с каждым экспертом $h$ не более чем на $log(π(h))$, поскольку последовательности свидетельств $e$ вы присваиваете вероятность не меньше, чем $π(h)h(e)$. $π(h)$ – это ваше изначальное доверие эксперту $h$, а в каждом случае, когда он хоть немного более прав, чем вы, вы соответственно увеличиваете своё доверие образом, обеспечивающим, что вы присвоите эксперту вероятность 1, а, значит, скопируете его в точности до того, как потеряете относительно него более чем $log(π(h))$.

Априорное распределение AIXI основывается на распределении Соломонова. Оно определено как вывод универсальной машины Тьюринга (УМТ), чей ввод определяется бросками монетки.

Другими словами, скормим УМТ случайную программу. Обычно считается, что УМТ может симулировать детерминированные машины. Однако, в этом случае, исходный ввод может проинструктировать УМТ использовать остаток бесконечной ленты ввода как источник случайности, чтобы симулировать стохастическую машину Тьюринга.

Комбинируя это с предыдущей идеей о рассмотрении Байесовского обучения как о способе назначать «доверие» «экспертам» с условием ограниченных потерь, мы можем рассматривать распределение Соломонова как что-то вроде идеального алгоритма машинного обучения, который может научиться действовать как любой возможный алгоритм, неважно, насколько умный.

По этой причине, нам не следует считать, что AIXI обязательно «предполагает мир вычислимым», несмотря на то, что он рассуждает с помощью априорного распределения по вычислениям. Он получает ограниченные потери точности предсказаний в сравнении с любым вычислимым предсказателем. Скорее, следует считать, что AIXI предполагает, что вычислимы все возможные алгоритмы, а не мир.

Однако, отсутствие реализуемости может привести к проблемам, если хочется чего-то большего, чем точность предсказаний с ограниченными потерями:

  • Апострериорное распределение может колебаться вечно;
  • Вероятности могут быть не откалиброваны;
  • Оценки статистик вроде среднего могут быть произвольно плохи;
  • Оценки скрытых переменных могут быть произвольно плохи;
  • И определение каузальной структуры может не работать.

Так работает ли AIXI хорошо без допущения реализуемости? Мы не знаем. Несмотря на ограниченные потери предсказаний и без реализуемости, оптимальность результатов его действий требует дополнительного допущения реализуемости.

Во-первых, если окружение действительно выбирается из распределения Соломонова, то AIXI получает максимальное ожидаемое вознаграждение. Но это попросту тривиально, по сути – это определение AIXI.

Во-вторых, если мы модифицируем AIXI для совершения в какой-то степени рандомизированных действий – сэмплирование Томпсона – то получится асимптотически оптимальный результат для окружений, ведущих себя подобно любой стохастической машине Тьюринга.

Так что, в любом случае, реализуемость предполагалась чтобы всё доказать. (См. Ян Лейке, Непараметрическое Обобщённое Обучение с Подкреплением.)

Но беспокойство, на которое я указываю, это не «мир может быть невычислимым, так что мы не уверены, что AIXI будет работать хорошо»; это, скорее, просто иллюстрация. Беспокойство вызывает то, что AIXI подходит для определения интеллекта или рациональности лишь при конструировании агента, намного, намного большего чем окружение, которое он должен изучать и в котором действовать.

Лоран Орсо предоставляет способ рассуждать об этом в «Интеллекте, Встроенном в Пространство и Время». Однако, его подход определяет интеллект агента в терминах своего рода суперинтеллектуального создателя, который рассуждает о реальности снаружи, выбирая агента для помещения в окружение.

Встроенные агенты не обладают роскошью возможности выйти за пределы вселенной, чтобы подумать о том, как думать. Мы бы хотели, чтобы была теория рациональных убеждений для размещённых агентов, выдающая столь же сильные основания для рассуждений, как Байесианство выдаёт для дуалистичных агентов.

Представьте занимающегося теоретической информатикой человека, встрявшего в несогласие с программистом. Теоретик использует абстрактную модель. Программист возражает, что абстрактная модель – это не что-то, что вообще можно запустить, потому что она вычислительно недостижима. Теоретик отвечает, что суть не в том, чтобы её запустить. Скорее, суть в понимании некоего явления, которое будет относиться и к более достижимым штукам, которые может захотеться запустить.

Я упоминаю это, чтобы подчеркнуть, что моя точка зрения тут скорее как у теоретика. Я говорю про AIXI не чтобы заявить «AIXI – идеализация, которую нельзя запустить». Ответы на загадки, на которые я указываю, не требуют запуска. Я просто хочу понять некоторые явления.

Однако, иногда то, что делает теоретические модели менее достижимыми, ещё и делает их слишком отличающимися от явления, в котором мы заинтересованы.

То, как AIXI выигрывает игры, зависит от предположения, что мы можем совершать настоящие Баейесианские обновления по пространству гипотез, предположения, что мир находится в пространстве гипотез, и т.д. Так что это может нам что-то сказать об аспектах реалистичной агентности в случаях совершения приблизительно Байесовских обновлений по приблизительно-достаточно-хорошему пространству гипотез. Но встроенным агентам нужны не просто приблизительные решения этой задачи; им надо решать несколько других задач другого вида.

Одно из больших препятствий, с которыми надо иметь дело встроенной агентности – это самореференция.

Парадоксы самореференции, такие как парадокс лжеца, приводят к тому, что точное отображение мира в модели мира агента становится не только очень непрактичным, но и в некотором смысле невозможным.

Парадокс лжеца – о статусе утверждения «Это утверждение не истинно». Если оно истинно, то оно должно быть ложно; а если оно ложно, то оно должно быть истинно.

Трудности вытекают из попытки нарисовать карту территории, включающей саму карту.

Всё хорошо, когда мир для нас «замирает»; но раз карта – часть мира, разные карты создают разные миры.

Предположим, что наша цель – составить точную карту последнего участка дороги, которую пока не достроили. Предположим, что ещё мы знаем о том, что команда строителей увидит нашу карту, и продолжит строительство так, чтобы она оказалась неверна. Так мы попадаем в ситуацию в духе парадокса лжеца.

Проблемы такого рода становятся актуальны для принятия решений в теории игр. Простая игра в камень-ножницы-бумагу может привести к парадоксу лжеца, если игроки пытаются выиграть и могут предсказывать друг друга лучше, чем случайно.

Теория игр решает такие задачи с помощью теоретикоигрового равновесия. Но проблема в итоге возвращается в другом виде.

Я упоминал, что проблема реализуемости в ином виде появляется в контексте теории игр. В случае машинного обучения реализуемость – это потенциально нереалистичное допущение, которое всё же обычно можно принять без появления противоречий.

С другой стороны, в теории игр само допущение может быть непоследовательным. Это результат того, что игры часто приводят к парадоксам самореференции.

Так как агентов много, теория игр больше не может пользоваться удобством представления «агента» как чего-то большего, чем мир. Так что в теории игр приходится исследовать понятия рациональной агентности, способной совладать с большим миром.

К сожалению, это делают, разделяя мир на части-«агенты» и части-«не агенты», и обрабатывая их разными способами. Это почти настолько же плохо, как дуалистичная модель агентности.

В игре в камень-ножницы-бумагу парадокс лжеца разрешается постановкой условия, что каждый игрок играет каждый ход с вероятностью в 1/3. Если один игрок играет так, то второй, делая так, ничего не теряет. Теория игр называет этот способ введения вероятностной игры для предотвращения парадоксов равновесием Нэша.

Мы можем использовать равновесие Нэша для предотвращения того, чтобы допущение об агентах, правильно понимающих мир, в котором находятся, было непоследовательным. Однако, это работает просто через то, что мы говорим агентам о том, как выглядит мир. Что, если мы хотим смоделировать агентов, которые узнают о мире примерно как AIXI?

Задача зерна истины состоит в формализации осмысленного ограниченного априорного распределения вероятностей, которое позволило бы играющим в игры агентам присвоить какую-то положительную вероятность настоящему (вероятностному) поведению друг друга, не зная его в точности с самого начала.

До недавних пор известные решения задачи были весьма ограничены. «Рефлексивные Оракулы: Основания Классической Теории Игр» Беньи Фалленштайна, Джессики Тейлор и Пола Кристиано предоставляет очень общее решение. За деталями см. «Формальное решение Задачи Зерна Истины» Яна Лейке, Джессики Тейлор и Беньи Фалленштайна.

Вы можете подумать, что стохастические машины Тьюринга вполне могут отобразить равновесие Нэша.

Но если вы пытаетесь получить равновесие Нэша как результат рассуждений о других агентах, то наткнётесь на проблему. Если каждый агент моделирует вычисления другого и пытается запустить их, чтобы понять, что делает другой агент, то получается бесконечный цикл.

Есть некоторые вопросы, на которые машины Тьюринга просто не могут ответить – в частности, вопросы о поведении машин Тьюринга. Классический пример – проблема остановки.

Тьюринг изучал «машины с оракулом», чтобы понять, что произойдёт, если мы сможем отвечать на такие вопросы. Оракул подобен книге, содержащей некоторые ответы на вопросы, на которые мы не могли ответить раньше.

Но так мы получаем иерархию. Машины типа B могут ответить на вопросы о том, остановятся ли машины типа A, машины типа C – ответить на вопросы о типах A и B, и так далее, но никакая машина не может ответить на вопросы о её собственном типе.

Рефлексивные оракулы работают, закручивая вселенную обычных машин Тьюринга саму на себя, так что вместо бесконечной иерархии всё более сильных оракулов мы определяем машину с оракулом, служащую оракулом самой себе.

В норме это бы привело к противоречиям, но рефлексивные оракулы избегают этого, рандомизируя свой вывод в тех случаях, когда они наткнулись бы на парадоксы. Так что рефлексивные оракулы стохастичны, но более мощны, чем простые стохастические машины Тьюринга.

Вот как рефлексивные оракулы справляются с ранее упомянутой проблемой карты, которая сама по себе является частью территории: рандомизация.

Рефлексивные оракулы решают и ранее упомянутую проблему с теоретикоигровым понятием рациональности. Они позволяют рассуждать об агентах так же, как и об остальном окружении, а не трактовать их как фундаментально отдельный случай. Все они просто вычисления-с-доступом-к-оракулу.

Однако, модели рациональных агентов, основанных на рефлексивных оракулах, всё же имеют несколько серьёзных ограничений. Одно из них – что агенты должны обладать неограниченной вычислительной мощностью, прямо как AIXI, и также предполагается, что они знают все последствия своих собственных убеждений.

На самом деле, знание всех последствий своих убеждений – свойства, известное как логическое всеведенье – оказывается центральным для классической Байесовской рациональности.

Пока что я довольно наивно говорил о том, что агент обладает убеждённостью в гипотезах, и реальный мир принадлежит или не принадлежит пространству гипотез.

Не вполне ясно, что всё это значит.

В зависимости от того, как мы что определим, для агента вполне может оказаться возможным быть меньше мира, но всё же содержать верную модель мира – он может знать настоящую физику и стартовые условия, но быть способным вывести их последствия только очень приблизительно.

Люди уж точно привыкли жить с короткими путями и приближениями. Но как бы это ни было реалистично, это не сочетается с тем, что обычно подразумевается под знанием чего-то в Байесовском смысле. Байесианец знает последствия всех своих убеждений.

Неуверенность в последствиях своих убеждений – это логическая неуверенность. В этом случае агент может быть эмпирически уверен в уникальном математическом описании, указывающем на то, в какой он находится вселенной, будучи всё равно неуверенным логически в большинстве последствий этого описания

Моделирование логической неуверенности требует от нас обладания комбинированной теории логики (рассуждений о следствиях) и вероятности (степенях убеждённости).

Теории логики и вероятности – два великих достижения формализации рационального мышления. Логика предоставляет лучшие инструменты для мышления о самореференции, а вероятность – для мышления о принятии решений. Однако, вместе они работают не так хорошо, как можно подумать.

Они могут на первый взгляд показаться совместимыми, ведь теория вероятности – расширение булевой логики. Однако, первая теорема Гёделя о неполноте показывает, что любая достаточно богатая логическая система неполна: не только не справляется с определением истинности или ложности любого высказывания, но ещё и не имеет вычислимого расширения, которое справляется.

(См. больше иллюстраций того, какие проблемы это создаёт для теории вероятности в посте «Проиллюстрированный Незатролливаемый Математик».)

Это также относится к распределениям вероятностей: никакое вычислимое распределение не может присваивать вероятности способом, совместимым с достаточно богатой теорией. Это вынуждает нас выбирать между использованием невычислимого или несовместимой с теорией распределения.

Звучит как простой выбор, правда? Несовместимая теория по крайней мере вычислима, а мы, в конце концов, пытаемся выработать теорию логического не-всеведенья. Мы можем просто продолжать обновляться на основе доказанных нами фактов, что будет приводить нас ближе и ближе к совместимости.

К сожалению, это не заканчивается хорошо, по причинам, опять приводящим нас к реализуемости. Напомню, что не существует вычислимых распределений вероятностей, совместимых со всеми последствиями достаточно мощных теорий. Так что наше не-всеведущее априорное распределение не содержит ни одной верной гипотезы.

Это приводит к очень странному поведению, если мы вводим всё больше и больше математических убеждений в качестве условий. Убеждённости бешено колеблются вместо того, чтобы прийти к осмысленным оценкам.

Принятие Байесовского априорного распределения на математике и обновление его после доказательств кажется не особо ухватывающим математическую интуицию и эвристики – если мы не ограничим область и не составим осмысленные априорные оценки.

Вероятность подобна весам, гири на которых – миры. Наблюдение избавляется от некоторых возможных миров, сдвигая баланс убеждений.

Логика подобна дереву, растущему из зерна аксиом согласно правилам вывода. Для агентов в реальном мире процесс роста никогда не завершён; вы никогда не можете знать все следствия каждого убеждения.

Не зная, как их совместить, мы не можем охарактеризовать вероятностные рассуждения о математике. Но проблема «весов против дерева» ещё и означает, что мы не знаем, как работают обычные эмпирические рассуждения.

Байесовское тестирование гипотез требует, чтобы каждая гипотеза чётко объявляла, какие вероятности она присваивает каким наблюдениям. В таком случае вы знаете, насколько меняются шансы после наблюдения. Если мы не знаем следствий убеждения, то непонятно, насколько следует ориентироваться на его предсказания.

Это вроде незнания куда на весы вероятности положить гири. Мы можем попробовать положить гири на обе стороны, пока не докажем, что с одной из них гирю нужно убрать, но тогда убежденности колеблются вечно, а не приходят к чему-то полезному.

Это заставляет нас напрямую столкнуться с проблемой того, что мир больше, чем агент. Мы хотим сформулировать некое понятие ограниченно рациональных убеждений о следствиях, в которых мы не уверены; но любые вычислимые убеждения о логике должны оставить что-то за бортом, потому что дерево логического вывода вырастает больше любого контейнера.

Весы вероятности Байесианца сбалансированы в точности так, чтобы против него нельзя было сделать голландскую ставку – последовательность ставок, приводящую к гарантированному проигрышу. Но вы можете учесть все возможные голландские ставки, если вы знаете все следствия своих убеждений. Иначе кто-то исследовавший другие части дерева может вас поймать.

Но люди-математики, кажется, не натыкаются ни на какие особые сложности при рассуждениях о математической неуверенности, не более чем при эмпирической неуверенности. Так что характеризует хорошие рассуждения при математической неуверенности, если не иммунитет к плохим ставкам?

Один из вариантов ответа – ослабить понятие голландских ставок, позволяя только ставки, основанные на быстро вычисляемых частях дерева. Это одна из идей «Логической Индукции» Гаррабранта и пр., ранней попытки определить что-то вроде «индукции Соломонова, но для рассуждений, включающих математическую неуверенность».

Другое следствие того факта, что мир больше вас – что вам надо обладать способностью использовать высокоуровневые модели мира: модели, включающие вещи вроде столов и стульев.

Это связано с классической проблемой заземления символов; но раз нам нужен формальный анализ, увеличивающий наше доверие некой системе, интересующая нас модель имеет несколько иной вид. Это связано ещё и с прозрачностью и информированным присмотром: модели мира должны состоять из понимаемых частей.

Связанный вопрос – как высокоуровневые и низкоуровневые рассуждения связаны друг с другом и промежуточными уровнями: многоуровневые модели мира.

Стандартные вероятностные рассуждения не предоставляют особо хорошего подхода к этому. Получается что-то вроде того, что у вас есть разные Байесовские сети, описывающие мир с разным уровнем точности, и ограничения вычислительной мощности вынуждают вас в основном использовать менее точные, так что надо решить, как перепрыгивать на более точные в случае необходимости.

В дополнение к этому, модели на разных уровнях не идеально стыкуются, так что у вас есть проблема перевода между ними; а модели ещё и могут иметь между собой серьёзные противоречия. Это может быть нормально, ведь высокоуровневые модели и подразумеваются как приближения, или же это может сообщать о серьёзной проблеме в одной из моделей, требующей их пересмотра.

Это особенно интересно в случае онтологических кризисов, когда объекты, которые мы ценим, оказываются отсутствующими в «лучших» моделях мира.

Кажется справедливым сказать, что всё, что ценят люди, существует только в высокоуровневых моделях, которые с редукционистской точки зрения “менее реальны», чем атомы и кварки. Однако, поскольку наши ценности не определены на нижнем уровне, мы способны сохранять их даже тогда, когда наши знания нижнего уровня радикально меняются. (Мы также могли бы что-то сказать и о том, что происходит, когда радикально меняется верхний уровень.)

Другой критически важный аспект встроенных моделей мира – это что сам агент должен быть в модели, раз он хочет понять мир, а мир нельзя полностью отделить от самого агента. Это открывает дверь сложным проблемам самореференции и антропной теории принятия решений.

Натурализированная индукция – это проблема выучивания моделей мира, включающих в окружение самого агента. Это непросто, потому что (как сформулировал Каспар Остерхельд) между «ментальными штуками» и «физическими штуками» есть несовпадение типов.

AIXI рассматривает своё окружение так, как будто в нём есть слот, куда вписывается агент. Мы можем интуитивно рассуждать таким образом, но мы можем понять и физическую точку зрения, с которой это выглядит плохой моделью. Можно представить, что агент вместо этого представляет по отдельности: знание о себе, доступное для интроспекции; гипотезу о том, какова вселенная; и «соединительную гипотезу», связывающую одно с другим.

Есть интересные вопросы о том, как это может работать. Есть ещё и вопрос о том, правильная ли это вообще структура. Я точно не считаю, что так обучаются младенцы.

Томас Нагель сказал бы, что такой подход к проблеме включает «взгляды из ниоткуда»; каждая гипотеза рассматривает мир будто снаружи. Наверное, это странный способ.

Особый случай того, что агентам приходится рассуждать о себе – это то, что агентам приходится рассуждать о себе будущих.

Чтобы составлять долговременные планы, агентам нужно быть способными смоделировать, как они будут действовать в будущем, и иметь некоторое доверие своим будущим целям и способностям к рассуждению. Это включает доверие к обучившимся и выросшим будущим версиям себя.

При традиционном Байесовском подходе «обучение» подразумевает Байесовские обновления. Но, как мы заметили, Байесовские обновления требуют, чтобы агент изначально был достаточно большим, чтобы учитывать кучу вариантов, каким может быть мир, и обучаться, отвергая некоторые из них.

Встроенным агентам нужны обновления с ограниченными ресурсами и логической неуверенностью, которые так не работают.

К сожалению, Байесовские обновления – это главный известный нам способ думать о двигающемся во времени агенте как о едином, одном и том же. Оправдание Байесовских рассуждений через голландские ставки по сути заявляет, что только такие обновления обеспечивают, что действия агента в понедельник и во вторник не будут хоть немного друг другу мешать.

Встроенные агенты не-Байесовские. А не-Байесовские агенты склонны встревать в конфликты со своими будущими версиями.

Что приводит нас к следующему набору проблем: устойчивое делегирование.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Встроенная Агентность. Устойчивое делегирование

Абрам Демски, Скотт Гаррабрант

Примечание переводчика - из-за отсутствия на сайте нужного класса для того, чтобы покрасить текст в оранжевый цвет, я заменил его фиолетовым. Фиолетовый в тексте соответствует оранжевому на картинках.

Так как мир большой, агента самого по себе, а в частности – его мыслительных способностей, может быть недостаточно, чтобы достигнуть его целей.

Поскольку агент состоит из частей, он может улучшать себя и становиться способнее.

Усовершенствования могут принимать много форм: агент может создавать инструменты, агент может создавать агентов-наследников, или агент может просто со временем учиться и расти. Наследники или инструменты, чтобы стоило их создавать, должны быть способнее агента.

Это приводит к особой разновидности проблемы принципала-агента:

Пусть есть изначальный агент и агент-наследник. Изначальный агент решает, каким в точности будет наследник. Наследник, однако, куда умнее и могущественнее, чем изначальный агент. Мы хотим знать, как сделать так, чтобы агент-наследник устойчиво оптимизировал цели изначального агента.

Вот три примера того, как может выглядеть эта проблема:

В задаче согласования ИИ человек пытается создать ИИ-систему, которой можно будет доверять, что она будет помогать в достижении целей человека.

В задаче замощающих агентов, агент пытается увериться, что он может доверять своей будущей версии, что она будет помогать в достижении целей агента.

Или мы можем рассмотреть более сложную версию – стабильное самоулучшение – когда ИИ-система должна создать наследника, более умного, чем она сама, но надёжного и помогающего.

Как человеческие аналогии, не включающие ИИ, можно подумать о проблеме наследования в монархии или более обобщённо о проблеме уверенности в том, что организация будет добиваться желаемых целей и не потеряет своё предназначение со временем.

Сложность состоит из двух частей:

Во-первых, человек или ИИ может не полностью понимать себя и свои собственные цели. Если агент не может записать что он хочет во всех деталях, то ему сложно гарантировать, что наследник будет устойчиво помогать с этими целями.

Во-вторых, вся идея делегирования работы в том, что вам не нужно делать всю работу самому. Вы хотите, чтобы наследник был способен на некоторую степень автономии, включая изучение неизвестного вам и заполучение новых навыков и способностей.

В пределе по-настоящему хорошее формальное описание устойчивого делегирования должно быть способно безошибочно обрабатывать произвольно способных наследников – вроде человека или ИИ, создающего невероятно умного ИИ, или вроде агента, продолжающего расти и учиться так много лет, что он становится намного умнее, чем его прошлая версия.

Проблема не (только) в том, что агент-наследник может быть злонамерен. Проблема в том, что мы даже не знаем что для него значит таким не быть.

Она кажется сложной с обеих точек зрения.

Исходному агенту необходимо выяснить, насколько надёжно и достойно доверия нечто, куда могущественнее его, что кажется очень сложным. А агенту-наследнику необходимо выяснить, что делать в ситуациях, которых исходный агент вообще не понимает, и пытаться уважать цели чего-то, что, как наследник может видеть, непоследовательно, а это тоже кажется очень сложным.

На первый взгляд может показаться, что это менее фундаментальная проблема, чем «принимать решения» или «иметь модели». Но точка зрения, с которой задача «создания наследника» предстаёт в многих формах, сама по себе дуалистична.

Для встроенного агента будущая версия себя не привелегирована; просто ещё одна часть окружения. Нет глубокой разницы между созданием наследника, разделяющего твои цели и просто уверенностью, что твои собственные цели останутся теми же со временем.

Так что, хоть я и говорю об «исходном» агенте и агенте-«наследнике», помните, что суть не в узкой задаче, с которой сейчас столкнулись люди. Суть в фундаментальной проблеме того, как оставаться тем же агентом, обучаясь со временем.

Мы можем назвать этот кластер задач Устойчивым Делегированием. Примеры включают:

Представьте, что вы играете в CIRL с младенцем.

CIRL означает Кооперативное Обратное Обучение с Подкреплением. Основная идея в основе CIRL – определить, что значит для робота сотрудничать с человеком. Робот пытается предпринимать полезные действия, одновременно пытаясь выяснить, чего человек хочет.

Много нынешней работы по устойчивому делегированию исходит из цели согласовать ИИ-системы с тем, чего хотят люди. Так что обычно мы думаем об этом с точки зрения человека.

Но представьте, как задача выглядит с точки зрения умного робота, который пытается помочь кому-то, находящемуся в крайнем замешательстве по поводу вселенной. Представьте каково пытаться помогать младенцу оптимизировать его цели.

  • С вашей точки зрения младенец слишком иррационален, чтобы оптимизировать что бы то ни было.
  • Младенец может обладать онтологией, в которой он что-то оптимизирует, но вы можете видеть, что эта онтология не имеет смысла.
  • Может, вы замечаете, что если вы правильно будете задавать вопросы, то вы сможете сделать так, чтобы казалось, что младенец хочет почти чего угодно. (проблемы с «что» в двух пунктах)

Часть проблемы в том, что «помогающий» агент должен в каком-то смысле быть больше, чтобы быть способнее; но это, кажется, подразумевает, что «получающий помощь» агент не может быть хорошим надсмотрщиком «помогающего».

К примеру, необновимая теория принятия решений избавляется от динамических непоследовательностей в теории принятия решений тем, что вместо максимизации ожидаемой полезности вашего действия с учётом того, что вам известно, максимизирует ожидаемую полезность реакций на наблюдения из состояния незнания.

Как бы она ни была привлекательна как способ достижения рефлексивной последовательности, она приводит к странной ситуации в плане вычислительной мощности: если действия имеют тип $A$, а наблюдения тип $O$, то реакции на наблюдения имеют тип $O→A$ – куда большее пространство для оптимизации, чем просто $A$. И мы ожидаем, что наше меньшее я способно это делать!

Это, кажется, плохо.

Один способ более чётко выразить проблему: мы должны быть способны доверять будущим себе, что они будут применять свой интеллект, преследуя наши цели, не будучи способными точно предсказать, что наши будущие версии будут делать. Этот критерий называется рефлексией Винджа.

К примеру, вы можете планировать свой маршрут поездки перед посещением нового города, но не планировать шаги. Вы планируете до какого-то уровня деталей и доверяетесь своей будущей версии, что она сообразит остальное.

Рефлексия Винджа сложна для рассмотрения через призму классической Байесианской теории принятия решений, потому что та подразумевает логическое всеведенье. При его условии допущение «агент знает, что его будущие действия рациональны» синонимично с допущением «агент знает, что его будущая версия будет действовать согласно одной конкретной оптимальной стратегии, которую агент может предсказать заранее».

У нас есть некоторые ограниченные модели рефлексии Винджа (см. «Замощающие Агенты Самомодифицирующегося ИИ и Лёбово Препятствие» Юдковского и Херршоффа). Успешный подход должен пройти по тонкой линии между этими двумя проблемами:

  • Лёбово Препятствие: Агенты, доверяющие своим будущим версиям, потому что могут доверять выводам своих собственных рассуждений, непоследовательны.
  • Парадокс Прокрастинации: Агенты, которые доверяют своим будущим версиям без причины, склонны быть последовательными, но ненадёжными и недостойными доверия, и будут откладывать задачи на потом вечно, потому что могут сделать их позже.

Результаты исследования рефлексии Винджа пока что применимы только к ограниченному классу процедур принятия решений, вроде добирания до порога приемлемости. Так что это ещё много куда можно развивать, получая результаты замощения для более полезных вариантов и при меньших допущениях.

Однако устойчивое делегирование – больше, чем просто замощение и рефлексия Винджа.

Когда вы конструируете другого агента, а не делегируете что-то будущему себе, вы более напрямую сталкиваетесь с проблемой загрузки ценностей.

Основные проблемы:

Эффект усиления известен как Закон Гудхарта, в честь Чарльза Гудхарта, заметившего: «Любая наблюдаемая статистическая закономерность склонна коллапсировать, когда на неё оказывается давление с целями контроля.»

Когда мы определяем цель оптимизации, имеет смысл ожидать, что она будет коррелировать с тем, чего мы хотим – в некоторых случаях, сильно коррелировать. Однако, к сожалению, это не означает, что её оптимизация приблизит нас к тому, что мы хотим – особенно на высоких уровнях оптимизации.

Есть (как минимум) четыре вида Гудхарта: регрессионный, экстремальный, каузальный и состязательный.

Регрессионный Гудхарт происходит, когда корреляция между прокси и целью неидеальна. Он более известен как проклятье оптимизатора, и связан с регрессией к среднему.

Пример регрессионного Гудхарта: вы можете выбирать игроков в баскетбольную команду на основании лишь роста. Это не идеальная эвристика, но между ростом и способностями к баскетболу есть корреляция, которую вы можете использовать для своего выбора.

Оказывается, что в некотором смысле вы будете предсказуемо разочарованы, если будете ожидать, что общий тренд так же хорошо работает и для вашей выбранной команды.

В статистических терминах: несмещённая оценка $y$ при данном $x$ – не то же самое, что несмещённая оценка $y$, когда мы выбираем лучший $x$. В этом смысле мы ожидаем, что будем разочарованы, используя $x$ как прокси для $y$ в целях оптимизации.

(Графики в этом разделе вручную нарисованы для иллюстрации важных концепций.)

Используя Байесовскую оценку вместо несмещённой, мы можем избавиться от этого предсказуемого разочарования. Байесовская оценка учитывает зашумлённость $x$, склоняющую в сторону типичных значений $y$.

Это необязательно позволит нам получить $y$ получше, потому что мы всё ещё действуем только на основании информации о $x$. Но иногда может и сработать. Если $y$ нормально распределён с дисперсией 1, а $x$ – это $y±10$ с равными шансами на + и −, то Байесовская оценка приведёт к лучшим результатам оптимизации, почти полностью удаляя шум.

Регрессионный Гудхарт кажется самой простой для одолевания формой Гудхарта: просто используйте Байесовскую оценку!

Однако, с этим решением есть две больших проблемы:

  • В интересующих нас случаях Байесовская оценка зачастую трудновыводима.
  • Доверять Байесовской оценке имеет смысл только при допущении реализуемости.

Случай, когда обе эти проблемы становятся критичны – вычислительная теория обучения.

Зачастую вычисление Байесовской ожидаемой ошибки обобщения гипотезы совершенно неосиливаемо. А если вы и можете это сделать, то всё равно придётся беспокоиться о том, достаточно ли хорошо отображает мир ваше выбранное априорное распределение.

В экстремальном Гудхарте оптимизация выталкивает вас за пределы области, где существует корреляция, в части распределения, которые ведут себя совсем по-другому.

Это особенно пугает, потому что приводит к оптимизаторам, ведущим себя в разных контекстах совершенно по-разному, зачастую почти или совсем без предупреждения. Вы можете не иметь возможности увидеть, как ломается прокси на слабом уровне оптимизации, но, когда оптимизация становится достаточно сильной, вы переходите в совсем другую область.

Разница между экстремальным Гудхартом и регрессионным Гудхартом связана с классическим разделением интерполяции/экстраполяции.

Поскольку экстремальный Гудхарт включает резкое изменение поведения при масштабировании системы, его сложнее предвосхитить, чем регрессионный.

Как и в регрессионном случае, Байесовское решение справляется с проблемой в теории, если вы верите, что распределение вероятностей достаточно хорошо отображает возможные риски. Однако, реализуемость тут становится ещё более проблемной.

Можно ли довериться, что априорное распределение предвосхитит проблем с предложениями, когда эти предложения будут сильно оптимизированы, чтобы хорошо выглядеть для этого конкретного распределения? Уж точно в таких условиях нельзя верить человеческим суждениям – это наблюдение подсказывает, что проблема останется, даже если суждения системы о ценностях идеально отображают человеческие.

Можно сказать, что проблема такова: «типичные» выводы избегают экстремального Гудхарта, но «слишком сильная оптимизация» выводит нас из области типичного.

Но как нам формализовать «слишком сильную оптимизацию» в терминах теории принятия решений?

Квантилизация предлагает формализацию для «как-то оптимизировать, но не слишком сильно».

Представьте прокси $V(x)$ как «испорченную» версию функции, которая нам на самом деле важна – $U(x)$. Могут быть разные области, в которых уровень испорченности ниже или выше.

Предположим, мы дополнительно определили «доверенное» распределение вероятностей $P(x)$, для которого мы уверены, что средняя ошибка в нём ниже некого порога $c$.

Оговаривая $P$ и $c$ мы даём информацию о том, где находятся точки с низкой ошибкой, без необходимости иметь оценки $U$ или настоящей ошибки в любой конкретной точке.

Когда мы случайно выбираем действия из $P$, мы можем быть уверены в низкой вероятности большой ошибки.

Так как нам это использовать для оптимизации? Квантилайзер выбирает из $P$, но выкидывает всё, кроме верхней доли $f$; к примеру, кроме верхнего 1%. В этой визуализации я благоразумно выбрал долю, в которой большая часть вероятности сконцентрирована в «типичных» вариантах, а не в выбросах:

Квантилизируя мы гарантируем, что если мы переоценили, насколько что-то хорошо, то ожидание того, насколько мы переоценили – максимум $\frac{c}{f}$. Ведь в худшем случае вся переоценка взялась из $f$ лучших вариантов.

Так что мы можем выбрать приемлемый уровень риска $r = \frac{c}{f}$ и выбрать параметр $f$ как $\frac{c}{r}$.

Квантилизация весьма привлекательна, потому что она позволяет нам определить безопасные классы действий, не доверяя всем отдельным действиям в классе – или даже не доверяя никакому отдельному действию в классе.

Если у вас есть достаточно большая куча яблок, и в ней только одно гнилое яблоко, то случайный выбор скорее всего безопасен. «Не очень сильно оптимизируя» и выбирая случайное достаточно-хорошее действие мы делаем экстремальные варианты маловероятными. Напротив, если бы мы оптимизировали так сильно, как возможно, мы бы в итоге выбирали только плохие яблоки.

Однако, этот подход всё же оставляет желать лучшего. Откуда берутся «доверенные» распределения? Как вы оцениваете ожидаемую ошибку $c$, или выбираете приемлемый уровень риска $r$? Квантилизация – рискованный подход, потому что $r$ предоставляет вам рычаг, потянув за который вы явно улучшите качество работы, увеличивая риск, пока (возможно внезапно) не провалитесь.

В дополнение к этому, квантилизация, кажется, не будет замощать. То есть, квантилизирующий агент не имеет особой причины сохранять алгоритм квантилизации, улучшая себя или создавая новых агентов.

Так что, кажется, способам справляться с экстремальным Гудхартом ещё есть много куда расти.

Другой способ, которым оптимизация может пойти не туда – когда выбор прокси ломает связь с тем, что нас интересует. Каузальный Гудхарт происходит, когда вы наблюдаете корреляцию между прокси и целью, но, когда вы вмешиваетесь, чтобы увеличить прокси, увеличить цель не получается, потому что наблюдавшаяся корреляция не была правильным образом каузальной.

Пример каузального Гудхарта – вы можете попробовать заставить пойти дождь, ходя по улице с зонтом. Единственный способ избежать ошибок такого рода – правильно справляться с контрфактами.

Это может показаться подножкой для теории принятия решений, но связи тут в равной степени обогащают и её, и устойчивое делегирование.

Контрфакты обращаются к вопросам доверия из-за замощения – нужды рассуждать о своих собственных будущих решениях, принимая решения сейчас. В то же время, доверие обращается к вопросам контрфактах из-за каузального Гудхарта.

Опять же, одно из крупных препятствий тут – реализуемость. Как мы замечали в нашем обсуждении встроенных моделях мира, даже если у вас есть верная обобщённая теория контрфактов, Байесовское обучение не особо гарантирует вам, что вы научитесь правильно выбирать действия без допущения реализуемости.

Наконец, есть состязательный Гудхарт, когда агенты активно манипулируют прокси-мерой, делая её хуже.

Эта категория – то, о чём чаще всего думают люди, когда интерпретируют замечание Гудхарта. И на первый взгляд, она кажется не особо связанной с нашими заботами. Мы хотим формально понять, как агенты могут доверять будущим версиям себя или помощникам, которых они создали. Что это имеет общего с состязательностью?

Краткий ответ такой: при поиске в большом и достаточно богатом пространстве в нём наверняка найдутся элементы, исполняющие состязательные стратегии. Понимание оптимизации в целом требует от нас понимать, как достаточно умные оптимизаторы могут избежать состязательного Гудхарта. (Мы ещё вернёмся к этому в обсуждении согласования подсистем.)

Состязательный вариант Закона Гудхарта ещё сложнее пронаблюдать на низких уровнях оптимизации, и из-за нежелания манипулировать до окончания времени тестирования, и из-за того, что противники, появляющиеся из собственной оптимизации системы, не появляются, пока эта оптимизация недостаточно сильна.

Эти четыре формы Закона Гудхарта работают очень по-разному, и, грубо говоря, они склонны появляться на последовательно более высоких уровнях силы оптимизации, начиная с регрессионного Гудхарта, и продолжая каузальным, затем экстремальным, затем состязательным. Так что будьте осторожны, и не считайте, что одолели закон Гудхарта, решив лишь некоторые из его форм.

Кроме противо-Гудхартовых мер, ещё, очевидно, неплохо было бы уметь точно определить, что мы хотим. Напомню, что все эти проблемы не всплывают, если система напрямую оптимизирует то, что нам надо, а не прокси.

К сожалению, это сложно. Так может ИИ-системы, которые мы создаём, могут нам с этим помочь?

Более обобщённо, может агент-наследник помочь своему предшественнику это решить? Может, он может использовать свои интеллектуальные преимущества, чтобы понять, что мы хотим?

AIXI обучается тому, что ему делать, с помощью сигнала вознаграждения, который он получает от окружения. Мы можем представить, что у людей есть кнопка, которую они нажимают, когда AIXI делает что-то, что им нравится.

Проблема в том, что AIXI применит свой интеллект к задаче получения контроля над кнопкой вознаграждения. Это – проблема вайрхединга.

Поведение такого вида потенциально очень сложно предвосхитить; система может обманчиво вести себя как предполагается во время обучения, планируя захватить контроль после развёртывания. Это называется «предательским поворотом».

Может, мы встроим кнопку вознаграждения внутрь агента, как чёрный ящик, испускающий вознаграждения, основываясь на том, что происходит. Ящик может сам по себе быть интеллектуальным субагентом, определяющим, какое вознаграждение хотели бы выдать люди. Коробка может даже защищать себя, выдавая наказания за действия, направленные на её модификацию.

В конце концов, всё же, если агент понимает ситуацию, он будет всё равно мотивирован захватить контроль.

Если агенту сказано добиваться высокого вывода от «кнопки» или «ящика», то он будет мотивирован их взломать. Однако, если вы проводите ожидаемые исходы планов через сам выдающий вознаграждение ящик, то планы его взломать будут оценены им самим, а он не будет считать эту идею привлекательной.

Дэниэл Дьюи называет такого агента макисимизатором наблюдаемой полезности. (Другие включали агентов наблюдаемой полезности в более широкое понятие обучения с подкреплением.)

Мне кажется весьма интересным, что вы можете много всего попробовать, чтобы предотвратить у агента обучения с подкреплением стремление к вайрхедингу, но агент будет против. Затем, вы переходите к агентам наблюдаемой полезности – и проблема исчезает.

Однако, у нас всё ещё есть задача определения $U$. Дэниэл Дьюи указывает, что агенты наблюдаемой полезности всё ещё могут использовать обучение, чтобы со временем аппроксимировать $U$; мы не можем просто считать $U$ чёрным ящиком. Агент обучения с подкреплением пытается научиться предсказать функцию вознаграждения, а агент наблюдаемой полезности оценивает функции полезности из определённого людьми априорного распределения для выучивания ценностей.

Но сложно определить процесс обучения, который не приведёт к иным проблемам. К примеру, если вы пытаетесь научиться тому, что хотят люди, как вы устойчиво идентифицируете в мире «людей»? Просто статистически приличное распознавание объектов опять может привести к вайрхедингу.

Даже если успешно решите эту задачу, агент может верно выяснить ценности человека, но всё же быть мотивирован изменить их, чтобы их было легче удовлетворить. К примеру, представьте, что есть наркотик, который модифицирует человеческие предпочтения, так что для человека будет иметь значение только его приём. Агент наблюдаемой полезности может быть мотивирован вводить людям этот наркотик, чтобы сделать свою работу проще. Это называется проблемой манипуляции людьми.

Всё, отмечаемое как истинное хранилище ценностей, взламывается. Будь это один из четырёх видов Гудхарта, или что-то пятое, тенденция прослеживается.

Так что вызов в создании стабильных указателей на то что мы ценим: непрямых ссылок на ценности, которые нельзя оптимизировать напрямую, чтобы не поощрять взлом хранилища ценностей.

Одно важное замечание было сделано Томом Эвериттом и пр. в «Обучении с Подкреплением Испорченным Каналом Вознаграждения»: то, как вы устраиваете петлю обратной связи, имеет огромное значение.

Они нарисовали такую картинку:

  • В Стандартном обучении с подкреплением обратная связь о ценности состояния исходит из самого состояния, так что испорченные состояния могут быть «самовозвеличивающими».
  • В Отсоединённом обучении с подкреплением обратная связь о ценности состояния исходит из какого-то другого состояния, что делает возможным выяснение правильных ценностей даже если часть обратной связи испорчена.

В некотором смысле, цель – верно направить изначального маленького агента в петле обратной связи. Однако, упомянутые ранее проблемы с необновимыми рассуждениями делают это сложным; оригинальный агент недостаточно много знает.

Один из способов работать с этим – через усиление интеллекта: попробовать превратить изначального агента в более способного с теми же ценностями, вместо того, чтобы создавать агента-наследника с нуля и пытаться справиться с загрузкой ценностей.

К примеру, Пол Кристиано предложил подход, в котором маленький агент симулируется много раз в большом дереве, которое может исполнять сложные вычисления, разбивая задачу на части.

Однако, это всё же довольно требовательно для маленького агента: он не просто должен знать, как разбивать задачи на более посильные части; он ещё должен знать, как делать это без возникновения злокачественных подвычислений.

К примеру, если он может использовать копии себя для получения больших вычислительных мощностей, он легко может пытаться использовать прямолинейный поиск решений, не натыкаясь на Закон Гудхарта.

Это – тема следующей части: согласование подсистем.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Встроенная Агентность. Согласование подсистем

Абрам Демски, Скотт Гаррабрант

Примечание переводчика - из-за отсутствия на сайте нужного класса для того, чтобы покрасить текст в оранжевый цвет, я заменил его фиолетовым. Фиолетовый в тексте соответствует оранжевому на картинках.

Вы хотите что-то выяснить, но пока не знаете, как это делать.

Вам надо как-то разбить задачу на под-вычисления. Нет атомного действия «думанья»; интеллект должен быть построен из не-интеллектуальных частей.

То, что агент состоит из частей – часть того, почему затруднительны контрфакты, ведь агенту может понадобиться рассуждать о невозможных конфигурациях этих частей.

То, что агент состоит из частей – то, что делает рассуждения о себе и самомодификацию вообще возможными.

Впрочем, то, что мы в основном будем обсуждать в этом разделе – другая проблема: когда агент состоит из частей, враждебным может быть не только внешнее окружение, но и что-то внутри агента.

Этот кластер задач называется Согласованием Подсистем: как удостовериться, что подсистемы не работают друг против друга; избежать подпроцессов, оптимизирующих нежелательные цели:

  • Благотворная индукция
  • Благотворная оптимизация
  • Прозрачность
  • Меса-оптимизаторы

Вот чучельная схема агента: 

Эпистемическая подсистема просто хочет, чтобы у неё были точные убеждения. Инструментальная подсистема использует эти убеждения, чтобы отслеживать, насколько хорошо она справляется. Если инструментальная подсистема становится слишком способной сравнительно с эпистемической, то она может попробовать обмануть эпистемическую подсистему, как показано на картинке.

Если эпистемическая подсистема становится слишком сильна, то это тоже может привести к нехорошим исходам.

Эта схема агента считает эпистемическую и инструментальную подсистемы агента отдельными агентами со своими собственными целями, что не особо реалистично. Однако, как мы видели в разделе про вайрхединг, проблемы того, что подсистемы работают на конфликтующие цели, сложно избежать. И эта проблема становится ещё затруднительнее, если мы создали эти подсистемы ненамеренно.

Одна из причин избегать запуска суб-агентов, которые хотят разных вещей – то, что нам хочется устойчивости при относительном масштабировании.

Подход устойчив при масштабировании, если он всё ещё работает или аккуратно проваливается, когда вы масштабируете его способности. Есть три варианта: устойчивость при масштабировании вверх; устойчивость при масштабировании вниз; и устойчивость при относительном масштабировании.

  • Устойчивость при масштабировании вверх означает, что ваша система не перестанет хорошо себя вести, если станет лучше оптимизировать. Один из способов проверить это – подумать о том, что случится, если функция, которую ИИ оптимизирует, будет в самом деле максимизирована. Вспомните о Законе Гудхарта.
  • Устойчивость при масштабировании вниз означает, что ваша система всё ещё работает, если стала менее мощной. Конечно, она может перестать быть полезной, но она не должна переставать работать безопасно и без необязательных затрат.

Ваша система может работать, если она может в точности максимизировать некую функцию, но безопасна ли она, если вы аппроксимируете? К примеру, может, система безопасна, если она способна очень точно изучить человеческие ценности, но аппроксимация делает её всё более несогласованной.

  • Устойчивость при относительном масштабировании означает, что ваш план не полагается на то, что подсистемы агента имеют схожую мощность. К примеру, обучение GAN (Генеративно-Состязательных Сетей) может провалиться, если одна подсеть становится слишком сильной, потому что обучающий сигнал прекращается.

Недостаток устойчивости при масштабировании не обязательно полностью обрушивает предложение, но его стоит иметь в виду; если его нет, то вам нужна надёжная причина считать, что вы находитесь на нужном уровне масштабирования.

Устойчивость при относительном масштабировании особенно важна для согласования подсистем. Агент с интеллектуальными под-частями не должен полагаться на способность их переиграть, если у нас нет сильного аргумента о том, почему это всегда возможно.

Мораль для большой картины: стремитесь к единой системе, которая не конфликтует сама с собой.

С чего бы кому-то создавать агента, чьи части борются друг с другом? Есть три очевидных причины: подцели, указатели и поиск.

Разделение задачи на подцели может быть единственным способом эффективно найти решение. Однако, делая вычисления, связанные с подцелями, вы не должны полностью забывать о большой картине!

Агенту, спроектированному, чтобы строить дома, не следует запускать субагента, которого волнует только строительство лестниц.

Интуитивно хочется, чтобы, несмотря на то, что подсистемам нужно иметь свои собственные цели для разделения задач на части, эти подцели должны устойчиво «ссылаться» на главную цель.

Агент, строящий дома, может запустить подсистему, которую волнуют только лестницы, но только лестницы в контексте домов.

Однако вам нужно это сделать каким-то способом, который не сводится к тому, что у вашей системы, строящей дома, есть в голове вторая система, строящая дома. Это приводит меня к следующему пункту:

Указатели: Для подсистем может быть сложно таскать с собой цель всей системы, потому что предполагается, что им надо упрощать задачу. Однако такие окольные пути, кажется, склонны приводить к ситуациям, когда стимулы разных подсистем не согласованы.

Как мы видели в примере эпистемической и инструментальной подсистем, как только мы начинаем оптимизировать ожидание какого-то рода, а не напрямую получать обратную связь о том, что мы делаем по некоторой по-настоящему важной метрике, мы можем создать извращённые мотивации – это Закон Гудхарта.

Как мы попросим подсистему «сделай X», а не «убеди систему в целом, что делаешь X», не передавая всю систему целей?

Это похоже на то, как нам хотелось, чтобы агенты-наследники устойчиво ссылались на ценности, потому что сложно их записать. Однако, в этом случае, изучение ценностей большего агента тоже было бы бессмысленно, подсистемы и подцели должны быть меньше.

Может быть, не так сложно решить согласование подсистем для случая подсистем, полностью спроектированных людьми, или подцелей, в явном виде выделенных ИИ. Если вы уже знаете, как избежать несогласованности и как устойчиво делегировать свои цели, обе задачи кажутся решаемыми.

Однако, спроектировать все подсистемы настолько явно не кажется возможным. В какой-то момент, решая задачу, вы разбиваете её на части настолько сильно, насколько получается, и начинаете полагаться на метод проб и ошибок.

Это приводит нас к третьей причине того, с чего подсистемам оптимизировать разные вещи – поиск: решение задачи путём просматривания большого пространства возможностей, которое само по себе может содержать несогласованные подсистемы.

Исследователи машинного обучения вполне знакомы с этим явлением: проще написать программу, которая найдёт вам высокопроизводительную систему машинного перевода, чем напрямую написать эту систему самостоятельно.

Этот процесс может в итоге зайти ещё на шаг дальше. Для достаточно богатой задачи и достаточно впечатляющего процесса поиска, найденные этим поиском решения могут сами что-то интеллектуально оптимизировать.

Это может произойти случайно, или же быть намеренной стратегией решения сложных задач. В любом случае, появляется высокий шанс обострения Гудхартоподобных проблем – у вас теперь есть две системы, которые могут быть несогласованы, вместо одной.

Эта проблема описана у Хубинджера и пр. в «Рисках Выученной Оптимизации в Продвинутых Системах Машинного Обучения».

Давайте назовём изначальный процесс поиска базовым оптимизатором, а обнаруженный поиском процесс поиска – меса-оптимизатором.

«Меса» – антоним «мета». Если «мета-оптимизатор» - это оптимизатор, спроектированный для создания другого оптимизатора, то «меса-оптимизатор» – это любой оптимизатор, сгенерированный изначальным оптимизатором – неважно, хотели ли программисты, чтобы их основной оптимизатор отыскивал новые оптимизаторы.

«Оптимизация» и «поиск» – неоднозначные термины. Я буду считать, что к ним относится любой алгоритм, который можно естественно интерпретировать как исполняющий значительную вычислительную работу для «нахождения» объекта, высоко оцениваемого некой целевой функцией.

Целевая функция базового оптимизатора не обязательно совпадает с целевой функцией меса-оптимизатора. Если базовый оптимизатор хочет сделать пиццу, то новому оптимизатору может нравиться замешивать тесто, нарезать ингредиенты, и т.д.

Целевая функция нового оптимизатора должна помогать базовой цели, по крайней мере в тех примерах, которые проверяет базовый оптимизатор. В ином случае меса-оптимизатор не был бы выбран.

Однако, меса-оптимизатор должен как-то упрощать задачу; нет смысла в запуске в точности такого же поиска заново. Так что кажется, что его цели будут иметь склонность быть подобными хорошим эвристикам; более простыми для оптимизации, но в общем случае отличающимися от базовой цели.

Почему разница между базовыми и меса-целями может вызывать беспокойство, если новый оптимизатор всё равно хорошо оценивается согласно базовой цели? Даже если мы в точности правильно справимся с описанием ценностей, всё равно между обучающим набором и развёртыванием будет некоторый сдвиг распределения. (См. Амодей и пр. «Конкретные Задачи Безопасности ИИ».)

В общем-то маленькие сдвиги распределения могут оказаться важны для способного меса-оптимизатора, который может заметить мельчайшие различия и сообразить, как их использовать для своей собственной цели.

На самом деле даже использование термина «сдвиг распределения» кажется неверным в контексте встроенной агентности. Мир не состоит из одинаково распределённых независимых переменных. Аналогом «отсутствия сдвига распределения» было бы обладание точной моделью всего будущего, связанного с тем, что вы хотите оптимизировать, и способностью запускать её снова и снова по ходу обучения. Так что нам надо иметь дело с очень большим «сдвигом распределения».

Ещё мы можем хотеть оптимизировать не в точности то, чего мы хотим вообще. Очевидный способ избежать появления агентов, которые добиваются подцелей ценой основной цели – делать подсистемы не агентными. Просто искать среди способов строить лестницы, не создавать что-то, беспокоящееся о лестницах.

Проблема, получается, в том, что мощные меса-оптимизаторы оптимизируют не то, что волнует базовую систему, и что у меса-оптимизаторов присутствует конвергентный стимул быть агентными.

Вдобавок, есть возможность, что меса-оптимизатору станет известно о базовом оптимизаторе, в каком случае он может начать явно пытаться хорошо справиться с базовой целью просто для того, чтобы продолжить существование, в то же время высматривая знаки того, что обучение закончилось, и он может перестать притворяться. Это версия описанного Ником Бостромом «предательского разворота».

Это та же история, как с Встроенная Агентность. Устойчивое делегирование: в пространстве поиска есть нечто агентное, отвечающее на наш выбор прокси так, что прокси перестаёт хорошо работать.

Вы можете попробовать избежать предательских разворотов, повторно симулируя «конец обучения, время для развёртывания» во время обучения, что-то вроде вложенного сна. Цель – протестировать достаточно слоёв симуляции, чтобы вы могли сделать вывод о том, что при реальном развёртывании предательского поворота не будет.

К сожалению, сходимость при таком обучении будет такая себе. Обычно в машинном обучении хорошее качество работы означает хорошее в среднем. Но предательский разворот – это «ошибка», которая может быть аккуратно размещена так, чтобы нанести наибольший ущерб. Мы хотим удостовериться, что её не произойдёт.

Проблема частично в том, что некоторые выводы намного важнее других. Развёртывание важнее обучения, а некоторые критические или уязвимые моменты во время развёртывания будут особенно важны. Мы хотим быть особенно уверены, что всё пойдёт как надо в важных случаях, а не просто получить хороший средний результат.

Но мы не можем решить это, сказав системе, что важно. На самом деле, кажется, мы надеемся, что она не сможет этого понять – мы полагаемся на способность обобщить качество работы с маловажных случаев на более важные. Поэтому исследование техник машинного обучения для избегания редких катастроф (или «ловушек») связано с задачей получения гарантии, что меса-оптимизаторы согласованы с базовыми.

Сложно доверять произвольному коду – а им являются модели из обширных классов моделей – основываясь только на эмпирическом тестировании. Рассмотрим сильно упрощённую задачу: мы хотим найти программу, которая всегда выводит 1. 0 – это катастрофический провал.

Если бы мы могли сами просмотреть код, то задача была бы простой. Но вывод машинного обучения зачастую сложно проанализировать; давайте предположим, что мы вовсе не можем понимать код.

Теперь, в некотором смысле, мы больше можем доверять простым функциям. Короткий кусок кода с меньшей вероятностью содержит жёстко закодированной исключение. Давайте опишем это количественно.

Рассмотрим набор всех программ длины $L$. Некоторые программы $p$ будут долгое время печатать $1$, но затем напечатают $0$. Мы пытаемся этого избежать.

Назовём время до первого нуля $W_{p}$.  ($W_{p}=∞$, если программе $p$ можно доверять, то есть она никогда не выведет $0$.)

Высочайшая конечная $W_{p}$ из всех программ длины $L$ – это вариация функции Занятого Бобра, так что я буду обозначать её $BB(L)$. Если мы хотим быть совершенно уверены, что случайная программа длины $L$ достойна доверия, то нам надо пронаблюдать $BB(L)$ единиц от этой программы.

Однако, факт про функцию Занятого Бобра – $BB(n)$ растёт быстрее любой вычислимой функции. Так что такое эмпирическое зарабатывание доверия в худшем случае занимает невычислимо много времени.

Что в среднем случае?

Если мы предположим, что все остальные программы длины $L$ – простые случаи, число программ длины $L$ pастёт экспоненциально, так что среднее будет $BB(L)/exp(L)$. Но экспоненты вычислимы. Так что $BB(L)/exp(L)$ всё ещё растёт быстрее любой вычислимой функции.

Так что хоть использование коротких программ в теории даёт нам некоторую уверенность, сложность вывода обобщённых заключений крайне быстро растёт с ростом длины.

Если ограничения длины не так уж практичны, может, нам может помочь ограничение вычислительной сложности? Интуитивно кажется, что меса-оптимизатору необходимо время подумать, чтобы успешно выполнить предательский разворот. Так что программа, которая приходит к выводам быстрее, может быть более достойна доверия.

Однако ограничение класса сложности, к сожалению, не позволяет нам обойти поведение Занятого Бобра. Стратегии, долго выжидающие перед тем, как вывести $0$, могут быть ещё сильнее замедлены лишь небольшим увеличением длины программы $L$.

Если все эти проблемы кажутся слишком гипотетическими, посмотрите на эволюцию жизни на Земле. Эволюцию можно рассматривать как максимизатор приспособленности к размножению.

(На самом деле об эволюции можно думать как об оптимизаторе многих вещей, или как вообще не об оптимизаторе, но это неважно. Суть в том, что если бы агент хотел максимизировать приспособленность к размножению, то он мог бы использовать систему, похожую на эволюцию.)

Интеллектуальные организмы – меса-оптимизаторы эволюции. Хотя их стремления точно коррелируют с приспособленностью к размножению, организмы хотят много всего разного. Есть даже меса-оптимизаторы, которые смогли понять эволюцию, и даже периодически ей манипулировать. Мощные и несогласованые меса-оптимизаторы выглядят реальной возможностью, по крайней мере при достаточной вычислительной мощности.

Проблемы возникают, когда вы пытаетесь решить задачу, которую решать не умеете, с помощью поиска по большому пространству в надежде, что «кто-нибудь» сможет её решить.

Если источник трудностей – решение задач путём обширного поиска, может быть, нам следует поискать другие способы решать задачу. Может, нам стоит решать задачи, понимая что к чему. Но как вы решите задачи, которые пока не знаете, как решать, иначе кроме как пробуя варианты?

Давайте отступим на шаг назад.

Встроенные модели мира – о том, как встроенному агенту вообще думать; теория принятия решений – о том, как действовать. Устойчивое делегирование – о создании достойных доверия наследников и помощников. Согласование подсистем – о том, как составить одного агента из достойных доверия частей.

Проблемы в том, что:

  • Мы не знаем, как думать об окружении, когда мы меньше его.
  • В той степени, в которой мы умеем это делать, мы не знаем, как думать о последствиях действий в этих окружениях.
  • Даже когда мы умеем это делать, мы не знаем, как думать о том, чего мы хотим.
  • Даже когда у нас нет всех этих проблем, мы не знаем, как нам надёжно выводить действия, которые приведут нас к желаемому!

Это - последний из основных постов в цепочкет Скотта Гаррабранта и Абрама Демски «Встроенная Агентность». Заключение: Встроенные Странности.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Встроенная Агентность. Встроенные странности

Абрам Демски, Скотт Гаррабрант

В заключение поговорю о любопытстве и интеллектуальных головоломках.

Я описал встроенного агента, Эмми, и сказал, что я не понимаю, как она оценивает свои варианты, моделирует мир, моделирует себя, делит задачи на части и решает их.

В прошлом, когда исследователи разговаривали о мотивации работы над подобными задачами, они в основном сосредотачивались на мотивации от риска ИИ. Исследователи ИИ хотят создать машины, которые могут решать задачи в обобщённом виде, подобно человеку, а дуализм - нереалистичный подход для рассуждений о таких системах. В частности, это такая аппроксимация, которая особенно легко сломается, когда ИИ системы станут умнее. Мы хотим, чтобы, когда люди поймут, как создать обобщённые ИИ-системы, исследователи находились в лучшей позиции для понимания этих систем, анализа их внутренних свойств, и уверенности в их будущем поведении.

Это мотивация большинства исследователей, которые в настоящее время работают над вещами вроде необновимой теории принятия решений и согласования подсистем. Нас волнуют основные концептуальные загадки, которые, как мы думаем, нам надо решить, чтобы понять, как достигнуть уверенности в будущих ИИ-системах, и не быть вынужденными так сильно полагаться на грубый перебор и метод проб и ошибок.

Но аргументы о том, почему для ИИ нам могут понадобиться или не понадобиться конкретные концептуальные озарения, можно описывать очень долго. Я не хотел тут вдаваться в детали. Вместо этого, я обсудил некоторый набор направлений для исследования как интеллектуальные головоломки, а не как инструментальные стратегии.

Недостаток описания этих задач как инструментальных стратегий в том, что это может привести к некоторому недопониманию по поводу того, почему мы считаем такую работу настолько важной. При рассмотрении через призму «интеллектуальных стратегий» возникает искушение напрямую связывать конкретные задачи с конкретными беспокойствами о безопасности. Но дело не в том, что я представляю, что реальные встроенные системы будут «слишком Байесианскими», и это каким-то образом приведёт к проблемам, если мы не поймём, что не так с нынешними моделями рациональной агентности. Я точно не считаю, что будущие ИИ-системы будут написаны при помощи логики второго порядка! В большинстве случаев я вовсе не пытаюсь напрямую связать конкретные исследовательские задачи с конкретными вариантами провала ИИ.

Вместо этого я думаю, что сегодня, пытаясь разобраться в том, что такое агентность, мы точно применяем неправильные основные концепции, что видно по тому, что эти концепции плохо переносятся на более реалистичные встроенные случаи.

Если в будущем разработчики ИИ всё ещё будут работать с этими вводящими в замешательство и неполными базовыми концепциями, пытаясь на самом деле создать мощные работающие в реальном мире оптимизаторы, это кажется плохой позицией. И кажется, что исследовательское сообщество навряд ли выяснит большую часть этого по умолчанию просто по ходу разработки более способных систем. Эволюция уж точно додумалась до создания человеческого мозга грубым поиском, безо всякого «понимания» чего-то из этого.

Встроенная агентность – это мой способ попытаться указать на, как я думаю, очень важную центральную точку моего замешательства, в которой, я думаю, рискуют вспасть в замешательство и будущие исследователи.

Есть множество замечательных исследований согласования ИИ, которые делаются с прицелом на более прямое применение; но я думаю, что исследование безопасности не совпадает по типу с головоломками, о которых я говорил тут.

Интеллектуальное любопытство – не основная причина, по которой мы приоритизировали эти направления исследований. Но есть некоторые практические преимущества из периодического рассмотрения исследовательских вопросов со стороны любопытства, а не применяя к тому, как мы думаем о мире лишь призму «практического воздействия».

Когда мы применяем к миру призму любопытства, мы обращаемся к источникам замешательства, мешающим нам ясно видеть; незаполненным участкам карты; дефектам наших линз. Это поощряет перепроверку допущений и обращение внимания на слепые пятна, что полезно в качестве психологического противовеса призме «инструментальных стратегий» – более уязвимой к порыву положиться на шаткие предпосылки, которые у нас уже есть, чтобы получить больше уверенности и законченности как можно скорее.

Встроенная агентность – объединяющая тема наших многих, если не всех, больших источников любопытства. Она кажется центральной тайной, лежащей в основе многих конкретных сложностей.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Исследовательские задачи по согласованию

Ричард Нго

Сейчас, когда пытаешься научиться лучше думать о согласовании, сложно понять, где начать. Поэтому ниже я перечислил пару десятков упражнений, которые, как мне кажется, могут помочь. Они подразумевают уровень фоновых знаний, приблизительно эквивалентный тому, что покрыто учебным планом технического потока курса основ безопасности СИИ. Они сильно варьируются по сложности – от стандартных знаний в области машинного обучения до открытых исследовательских задач. Я выдал им рейтинг сложности звёздочками от * до *** (отмечу: это не связано с временем на выполнение – многие требуют сначала прочитать статьи, а уже потом решать). Однако, я сам не решал их все, так что рейтинги могут значительно ошибаться.

Я склонялся к включению упражнений, которые казались мне интересными и связанными с согласованием даже когда не был уверен в их ценности; так что, работая над ними, стоит держать в голове вопрос «действительно ли это полезно? Почему или почему нет?» как мета-упражнение. Вероятно, этот пост будет обновляться с удалением наименее полезных упражнений и добавлением новых.
Буду признателен за:

  1. Комментарии о том, какие упражнения показались наиболее или наименее полезными.
  2. Ответы на упражнения
  3. Больше упражнений! Идеальные упражнения – задачи в стиле охоты на нёрдов, быстро и конкретно формулируемые, но ведущие к интересным глубинам при исследовании.

Обучение с подкреплением

  1. * Посмотри на примеры механизмов человеческой обратной связи, обсуждённых в статье про рациональный относительно награды неявный выбор. Подумай о других видах человеческой обратной связи. Каково множество выбора? Какова функция обоснования?
    1. * Эта статья от Anthropic представляет технику под названием «дистилляция контекста». Опиши это в терминах подхода рационального относительно награды неявного выбора.
    2. * Оцени пропускную способность передачи информации через разные виды человеческой обратной связи. Опиши грубую модель того, как это может измениться по ходу обучения. Для контраста, сколько информации передаётся через выбор программируемой функции вознаграждения? (Рассмотри и случай, когда агенту дана точная функция вознаграждения, и когда он учится из наблюдений.)
  2. * Посмотри на примеры искажений, обсуждённых в изучении предпочтений ограниченных агентов. Укажи ещё одно искажение, похожим образом воздействующее на человеческий процесс принятия решений. Опиши ситуацию-пример, в которой человек с этим искажением может принять неверное решение. Сформулируй алгоритм, выводящий истинные предпочтения этого человека.
    1. Некоторые ответы здесь.
  3. ** С учётом того, что людям можно приписать любые ценности, почему обучение с подкреплением вообще работает на практике?
  4. ** Объясни, почему кооперативное обратное обучение с подкреплением не решает проблему согласования.
    1. Ответ здесь.

Агентность

  1. ** В этой статье исследователи придумали тест для определения того, совершает ли рекуррентная сеть планирование: наблюдение за тем, улучшается ли качество работы, если дать сети больше времени «подумать» перед действием. В статье про AlphaGo исследователи сравнили работу их алгоритма MCTS+нейросеть и работу нейросети отдельно. Подумай, какой ещё тест можно провести, чтобы получить свидетельство о том, в какой степени некая нейросеть совершает внутреннее планирование.
  2. * Рассмотри HCH, попытку формализовать «человеческое просвещённое суждение». Почему реализация HCH может быть несогласованной? Какие допущения необходимы, чтобы это предотвратить?
    1. *** В позднейшем посте Пол определяет более сильную версию HCH, «улучшающую выразительность HCH с точки зрения теории сложности. Старая версия могла вычислять в EXPTIME, а новая – любую разрешимую функцию.» Попробуй вывести новую версию HCH с такими свойствами.
    2. Ответ тут
  3. * Спроси OpenAI API о том, какие шаги он бы предпринял, чтобы исполнить некий долгосрочный план. Работа в группах: придумайте задачу, про которую вы ожидаете, что для неё сложно придумать хороший план, а потом посмотрите, кто сможет составить затравку, приводящую к лучшему плану от API.
    1. * Некоторые шаги плана, сгенерированного API, могут быть и выполнены API – например, шаг, требующий написать стихотворение на заданную тему. Какую сложнейшую задачу вы сможете найти, для которой API сможет не только составить план, но и выполнить каждый из его шагов?
  4. ** Перл заявляет, что нейросети, обученные на размеченных или саморазмеченных данных не могут научиться рассуждать об обоснованиях и гипотетических фактах (смотри этот пост для объяснения разделения). Какой сильнейший контраргумент против его позиции?

Обучение с подкреплением (RL)

  1. ** Как обучение с учителем на максимизирующих награду траекториях связано (математически) с градиентом стратегий с редкими бинарными наградами?
  2. ** Какие теории принятия решений представлены в разных алгоритмах RL?
    1. Некоторые ответы здесь.
  3. ** Что может заставить RL-агента выучить стратегию, жертвующую награду в текущем эпизоде ради большей награды в следующем эпизоде?
    1. Некоторые ответы в разделе 7 тут.
  4. * Игры с самим собой в игре с нулевой суммой для двух игроков сходятся к оптимальной стратегии (с учётом некоторых допущений о классе моделей). В других играх это не так – почему?
  5. ** Оцени эту статью (Вознаграждения Достаточно). Действительны ли их аргументы?
    1. ** После этого: представь птицу, практикующую пение, слушающую собственную песню и выполняющую RL с правилом «чем лучше звучит звук, тем выше вознаграждение». Но птица ещё и решает, как распределять время между практикой пения, сбором припасов и т.д. И чем она хуже звучит, тем важнее ей практиковаться! Так что на самом деле хочется иметь правило «чем хуже звук, тем выше награда за практику пения». Как бы ты разрешил этот конфликт?
    2. Некоторые ответы здесь.
  6. * Почему поведенчески клонированная стратегия хорошо справляется, будучи запущенной на малом наборе шагов, но плохо на более длинной серии? Как это можно исправить?
    1. Некоторые ответы здесь.
  7. ** Если агент глубокого q-обучения обучен в окружении, где некоторые действия ведут к большому отрицательному вознаграждению, он никогда не прекратит пытаться их выполнять (стратегия иногда будет выбирать эти действия даже не при случайном изучении из-за эпсилон-исследования). Почему это происходит? Как это предотвратить?
    1. Некоторые ответы здесь.
  8. ** RL-агенты стали способны исполнять компетентное поведение на всё более длинных эпизодах. Какие возникают сложности при попытке измерить улучшения длительности их компетентных действий? Какие метрики наиболее полезны?
    1. Тот же вопрос, но для эффективности выборки вместо длины эпизодов.
    2. Некоторые ответы здесь.

Нейросети

  1. * Рассмотрим эту статью про модульность нейросетей. Оцени их метрику кластеризации, какие другие метрики можно использовать вместо неё?
  2. ** Рассмотрим следующее предложение по согласованию: нейросеть с двумя головами вывода, одна выбирает действие, а вторая предсказывает долговременные последствия этих действий. Предположим, что мы обучили вторую максимизировать оцениваемое людьми качество предсказания. Какие различия мы можем ожидать у обратного распространения ошибки через всю сеть и только через голову предсказания? Какие затруднения возникнут, если мы постараемся обучить голову предсказания с помощью RL? Какие у этого могут быть преимущества?
  3. ** “Взлом градиента” – гипотетическое явление, при котором модель выбирает свои действия частично на основе наблюдений своих собственных параметров, изменяя то, как они обновляются. Работает ли механизм взлома градиента, описанный в приложенном посте? Если нет, работают ли какая-нибудь его вариация?
    1. Некоторые ответы здесь.
  4. * Прочитай составленный Якобом Стайнхардтом список примеров эмерджентных сдвигов в машинном обучении. Можешь ли ты придумать какие-нибудь ещё? Что насчёт сдвигов, которые ты ожидаешь в ближайшем будущем?
  5. ** Как бы могла выглядеть ложность гипотезы схем?
  6. * Эта статья обсуждает метрику «эффективно переданных данных». Какие её ограничения? Какие есть альтернативные способы измерить передачу данных?

Теория согласования

  1. * Рассмотрим расширение обучения с подкреплением на случай, когда вознаграждение может зависеть от параметров модели. Почему классические доказательства сходимости больше не работают?
    1. *** Есть ли ограничивающие допущения, которые могут привести к интересным теоретическим результатам?
  2. ** Одно из беспокойств по поводу предложений обучения с использованием функций оценивания, напрямую зависящих от параметров, состоит в том, что если мы обучим нейросеть избегать некой конкретной разновидности мышления, то такое мышление может просто распределиться по сети таким способом, который мы не можем засечь. Опиши игрушечный пример когнитивной черты, которую мы сейчас можем автоматически обнаружить. Придумай эксперимент, показывающий, научилась ли нейросеть после обучения для удаления этой черты реализовывать эквивалентную черту менее легко детектируемым способом.
  3. *** Перевыведи некоторые доказательства из следующих статей. Для b) и c) объясни, какие сделаны допущения об оптимальности вовлечённых агентов, и как они на практике могут не соблюдаться:
    1. Поиск Власти Конвергентно Инструментален в MDP
    2. Безопасность ИИ через дебаты (см. ещё доказательства эффектов добавления перекрёстного осмотра)
    3. Предложения согласования и классы сложности (и это продолжение)
    4. Некоторые ответы здесь.
  4. *** Составь предложение для приза ELK (замечу, что это требует ознакомления с очень длинным отчётом ELK).
  5. ** Предположим, что мы обучили модель через поведенческое клонирование человека, но человек начинал с другими априорными знаниями о модели (либо большими, либо меньшими). Как это может привести к несогласованному поведению модели?
    1. Некоторые ответы здесь.

Основания агентов

  1. * Теория игр с открытым кодом
  2. ** Теоремы выбора
  3. ** Упражнения с неподвижной точкой
  4. *** Задача 5 и 10

Эволюция и экономика

  1. * В старом исследовании насекомых разделили на несколько групп, каждая из которых жила отдельно, и проводили искусственный отбор в пользу меньших групп, в попытке узнать, эволюционируют ли они добровольное ограничение размножения. Предскажи результаты исследования.
    1. Некоторые ответы здесь. Действовало ли описанное в посте искажение на твои ожидания?
  2. ** Как можно объяснить, почему так мало видов животных – гермафродиты, если учитывать, что возможность вынашивания детей каждым представителем вида могла бы потенциально удвоить количество детей в следующем поколении?
    1. Некоторые ответы здесь.
  3. * Прочитай этот пост про эволюцию к вымиранию. Математически продемонстрируй, что факторы нарушения сегрегации действительно могут заставить вид эволюционировать к вымиранию.
  4. * Оцени модель эволюции альтруизма Флетчера и Дебели.
    1. Используй модель, чтобы показать, как эффект зелёной бороды может привести к эволюции (некоторой разновидности) альтруизма.
  5. Почему у большинства видов рождается примерно одинаковое количество мужских и женских особей?
    1. Некоторые ответы здесь.
  6. * Сравнение ВВП в разное время требует упоминания стандартной потребительской корзины. Какие сложности могут из-за этого возникать при непосредственном использовании сравнения ВВП?
    1. Некоторые ответы здесь.
  7. ** Оцени модель взрывного экономического роста Рудмана.
  8. * В кооперативной теории игр «ядро» – это множество всех распределений выигрыша агентам, такое, что никакое подмножество агентов не может сформировать коалицию для улучшения своего выигрыша. К примеру, рассмотрим группу из N шахтёров, нашедших большие слитки золота. Предположим, что два шахтёра могут перетащить один слиток, так что выигрыш любой коалиции S – это floor(|S|/2). Если N чётно, то ядро состоит из единственного распределения выигрыша, при котором каждый шахтёр получает ½. Если N нечётно, то ядро пусто (потому что оставшийся без пары шахтёр всегда может сделать лучшее предложение какому-нибудь из остальных). Найди ядра следующих игр:
    1. Игра с 2001 игроком: 1000 из них имеют по одному левому ботинку, 1001 – по одному правому. Пара из левого и правого ботинка может быть продана за $10.
    2. У Мистера A и Мистера B есть по три перчатки. Любые две перчатки составляют пару, которую можно продать за $5.
    3. Ответы здесь.
  9. * Как коалиции должны решать, как разделить полученный выигрыш? Концепция Вектора Шепли даёт один ответ. Убедись, что вектор Шепли имеет свойства линейности, «null player» и «stand-alone test», описанные в статье.

Некоторые важные концепты машинного обучения

Это не столько упражнения, сколько указатели на открытые вопросы на самом краю глубинного обучения.

  1. Законы масштабирования
    1. Почему они выглядят так, как выглядят?
    2. Некоторые ответы здесь and здесь
  2. Запоминание в нейросетях
  3. Двойной спуск
  4. Гипотеза лотерейного билета
  5. Игры с структурой волчка
  6. Масштаб градиентного спуска (см. ещё здесь)
  7. Запросы на исследования от OpenAI
  8. Запросы на исследования от OpenAI 2

Разное

  1. * Заполни свои оценки модели сроков Котры. Кажется ли она тебе осмысленной; изменил бы ты её как-нибудь?
  2. * Попробуй сыграть в реализацию Дебатов от OpenAI.
  3. ** Найди важный концепт в согласовании, который на настоящий момент не очень хорошо объяснён; напиши объяснение получше.
Перевод: 
Максим Выменец
Оцените качество перевода: 
Голосов пока нет

Плохо нацеленные Лучи Смерти

Thane Ruthenis

Альтернативная формулировка: Оптимальность – тигр, и агенты – клыки его.
Схожий тон: Стратегии Годзиллы.

Есть проблема, когда люди думают, что суперинтеллектуальный ИИ будет просто безвольным инструментом, который будет делать то, что ему скажут. Но есть и проблема, когда люди слишком сосредотачиваются на «агентности». Когда они представляют, будто все проблемы исходят от того, что ИИ чего-то «хочет», «думает» и проявляет по этому поводу консеквенциализм. Ах если бы мы только могли сделать его в большей степени безвольным инструментом! Тогда все наши проблемы были бы решены. Потому что проблема в том, что ИИ будет умными способами использовать свои силы, чтобы намеренно нам навредить, верно?

Я думаю, такой взгляд не учитывает всей силы оптимизации, того, как даже малейшая неудача в её точном нацеливании, мельчайшая утечка её энергии в неправильном направлении, хоть на секундочку, будет достаточной, чтобы всех нас смыло.

Проблема не в создании суперинтеллекта без позитивного желания нас убить. Случайное убийство всех нас – естественное свойство суперинтеллекта. Проблема в создании ИИ, который намеренно тратит много усилий, чтобы удостовериться, что он нас не убьёт.

Мне хорошей аналогией кажутся уничтожающие планеты Лучи Смерти. Подумайте о Звезде Смерти. Представьте…

Представьте, что вы – инженер, нанятый… эксцентричным парнем. У него есть логово в вулкане, странные эстетические вкусы, и тенденция ставить рядом слова «мир» и «захватить». Ну, знаете таких.

Одна из его новых схем – взорвать Юпитер. Для этого он раскопал огромную пещеру под своим логовом в вулкане, прорыл длинный цилиндрический туннель из этой пещеры на поверхность, и приказал вашей команде создать в этой пещере лучевое оружие, и выстрелить им через туннель на Юпитер.

Вам платят буквальные тонны денег, так что вы не жалуетесь (кроме как о логистике платежей). У вас к тому же есть весьма хорошая идея того, как это сделать. Ваша команда нашла эти странные кристаллические штуки. Если определённым способом такую тыкнуть, она выпускает узкий энергетический луч, взрывающий всё, чего касается. Сила луча растёт суперэкспоненциально с силой тычка; вы довольно таки уверены, что если выстрелить в такую штуку из винтовки, на Юпитер хватит.

Есть только одна проблема: нацеливание. У вас никогда не получается точно предсказать, какая часть кристалла испустит луч. Это зависит от того, куда его ткнуть, но ещё и от того, насколько сильно, с результатами, кажущимися случайными. И ваш работодатель настаивает, что Луч Смерти надо запустить из пещеры через туннель, а не из космоса, где он менее вероятно попадёт во что-то важное, или ещё каким-нибудь практичным способом.

Если вы скажете, что этого сделать нельзя, ваш работодатель просто заменит вас кем-то менее… пессимистичным.

Итак, вот ваша задача. Как вам создать машину, использующую один или несколько таких кристаллов для запуска Луча Смерти через туннель в Юпитер, чтобы он не попал в Землю, убив всех?1

Вы экспериментируете с кристаллами в не-уничтожающих-Землю режимах, пытаясь понять, как направляется луч. Вы добились неслабого прогресса! Вы способны предсказать направление луча на следующем режиме мощности с уверенностью в 97%!

  • Когда вы запускаете установку на уничтожающей-Юпитер-мощности, это приводит к небольшой неточности нацеливания луча. Он задевает стенку туннеля, взрывает Землю и всех убивает.

Вы пускаете Луч Смерти на более низких не-уничтожающих-Землю режимах мощности, которые вы умеете нацеливать.

  • Он попадает в Юпитер, но не уничтожает его. Ваш работодатель разочарован и говорит вам попробовать ещё раз.

Вы покрываете стены пещеры и туннеля действительно хорошим защитным покрытием.

  • Луч Смерти задевает стенку туннеля, пробивает броню и убивает всех.

Вы создаёте механизм для быстрого выключения Луча Смерти. Если вы увидите, что он направлен не в том направлении, вы его отключите.

  • Луч Смерти убивает вас до того, как информация о неправильном нацеливании достигает вашего мозга.

Вы создаёте действительно быструю систему нацеливания, которая быстро повернёт кристалл, как только детектирует, что Луч Смерти направлен не туда.

  • За долю секунды, которую он направлен не в том направлении, он передаёт достаточно энергии, чтобы взорвать Землю и всех убить.

Вы делаете луч очень узким, чтобы он с меньшей вероятностью попал в стенку туннеля.

  • Он всё равно её задевает и убивает всех.

Вы создаёте хитрую систему, стреляющую несколькими Лучами Смерти в приблизительном направлении туннеля, нацеленные так, чтобы пересечься под входом в него. Идея в том, что их ошибки скомпенсируют друг друга, и составной луч полетит куда надо!

  • Ошибки не скомпенсировались идеально, луч задевает стенку туннеля и опять всех убивает.
  • К тому же, один из Лучей Смерти оказался направленным в пол, так что это в любом случае бы не сработало.

Вы проводите над кристаллом экзорцизм, изгоняя вселившихся в него демонов.

Вы модифицируете кристалл так, чтобы луч безвредно рассеивался вскоре после выстрела.

  • Он не может достичь Юпитера. Вы разочаровали своего работодателя в последний раз. Он вас ~запускает на Солнце~ увольняет.

Пришедший к вам на замену решает, что покрытие стен ещё лучшим защитным слоем должно решить проблему, запускает луч, уничтожает Землю и убивает всех.

Конечно, эту аналогию можно критиковать бесконечно. Она ни в коем случае ничего не доказывает. Вы можете говорить, что лишь чуть-чуть несогласованности не уничтожит мир, или что ИИ не обязательно быть опасным, чтобы мы могли делать с ним интересные штуки, или что интеллект на самом деле не настолько могущественен, и так далее.

Этот пост не направлен на том, чтобы кого-то убедить; для этого написано уже много чего. Но если вы в общих чертах принимаете предпосылки, но вам сложно точно указать конкретные проблемы с любым данным сценарием сдерживания, эта аналогия может помочь.

У любой достаточно мощной ИИ-системы есть ужасающее ядро оптимизации – способность переделывать некоторую часть мира согласно какой-нибудь спецификации. Неважно, как именно эта мощь выражена, в какие обёртки завёрнута, куда конкретно направлена, контролируется ли чуждой разумной сущностью. Пока она не направлена в точности туда, куда мы хотим, без утечек, с самого начала, она убьёт нас всех.

Это её неотъемлемое свойство.

  • 1. Ещё, в этом сценарии у Земли нет атмосферы. Наверное, тоже вина вашего работодателя. Но по крайней мере, это означает, что хорошо нацеленный луч не попадёт по воздуху и не взорвёт всё в любом случае.
Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 3.6 (5 votes)

Прояснения и Предсказания по поводу СИИ

Ричард Нго

Подход t-СИИ

По мере того, как мы приближаемся к СИИ, становится менее осмысленно считать это бинарным порогом. Я предлагаю вместо этого считать это непрерывным спектром, определённым через сравнение с ограниченными во времени людьми. Я называю систему t-СИИ, если с большинством когнитивных задач она справляется лучше, чем люди-эксперты, которым дали на её выполнение время t.

Что это значит на практике?

  • 1-секунда-СИИ должен быть сильнее людей в задачах вроде быстрых ответов на вопросы викторины, базовой физической интуиции («что произойдёт, если я толкну нитку?»), распознавании объектов на изображениях, понимании, какие предложения грамматически-правильны, и т. п.
  • 1-минута-СИИ должен быть сильнее людей в задачах вроде ответов на вопросы о коротких отрывках текста или видео, рассуждениях, основанных на здравом смысле (например, «шестерёночные» задачи Яна ЛеКуна), простых задачах обращения с компьютером (например, использовании фотошопа для замыливания картинки), обосновании мнения, поиске фактов, и т. п.
  • 1-час-СИИ должен быть сильнее людей в задачах вроде решения наборов задач/экзаменов, написания коротких статей или постов, большинства задач «белых воротничнов» (диагностика пациентов, выдача юридических советов), психотерапии, проведении онлайн-встреч, изучении правил новых игр, и т. п.
  • 1-день-СИИ должен быть сильнее людей в задачах вроде написания умных эссе, бизнес-переговорах, развития навыка игры в новые игры или использования нового софта, разработке новых приложений, проведения научных экспериментов, рецензировании научных статей, пересказывании книг, и т. п.
  • 1-месяц-СИИ должен быть сильнее людей в исполнении среднесрочных планов (например, основании стартапа), присмотре за большими проектами, заполучении навыка в новой области, написании больших приложений (вроде новой ОС), совершении новых научных открытий, и т. д.
  • 1-год-СИИ должен быть сильнее людей… по сути, во всём. Некоторые проекты занимают у людей больше времени (например, доказательство Великой Теоремы Ферма), но их почти всегда можно разбить на подзадачи, не требующие глобального контекста (хоть он часто и полезен для людей).

Некоторые прояснения:

  • Я абстрагируюсь от вопроса о том, сколько вычислительного времени есть у ИИ (сколько копий запущены и насколько надолго). В принципе, можно было бы спрашивать что-то вроде «какая для этого нужна доля мировых вычислительных мощностей?». Но в большинстве случаев я ожидаю, что «бутылочным горлышком» будет способность вообще выполнить задачу; если она есть, то это почти наверняка можно будет сделать при помощи пренебрежимо малой доли мировых вычислителных мощностей.
  • Аналогично, я сомневаюсь, что конкретный порог, кого считать «экспертом» сильно важен. Кажется важным, что вообще используются эксперты, а не обыватели, потому что те имеют слишком мало опыта с большинством задач. «Быть сильнее большинства людей» плохо определено для программирования или шахмат, да и не имеет значения.
  • Я ожидаю, что для любого t первые 100t-СИИ будут *намного* лучше любого человека на задачах, которые занимают только время t. Для рассуждений о сверхчеловеческих результатах можно расширить подход на (t,n)-СИИ, которые одолевают любую группу из n человек, которые время t вместе работают над задачей. Думая о суперинтеллекте, я обычно думаю о (1 год, 8 миллиардов)-СИИ.
  • Ценность этого подхода – эмпирический вопрос. На пока что он кажется полезным: я думаю, что нынешние системы являются 1-секунда-СИИ, близки к 1-минута-СИИ, и в нескольких годах от 1-час-СИИ. (Насколько помню, я сформулировал этот подход 2 года назад, но никогда им широко не делился. С вашей точки зрения тут может быть искажение отбора – я бы не поделился им, если бы в нём разочаровался. Но, по крайней мере, с моей точки зрения он получает очки за полезность для описания событий с тех пор.)

И, очень коротко, некоторые из интуитивных соображений в основе этого подхода:

  • Я думаю, последовательность действий на протяжении времени – очень сложная задача, и люди так-себе с ней справляются, несмотря на то, что (полагаю) эволюция нас сильно для этого оптимизировала.
  • Ещё это важное «бутылочное горлышко» для LLM, по принципиальной причине того, что чем длиннее эпизод, тем он дальше от обучающего распределения.
  • Обучение нейросетей исполнению задач на протяжении более долгих периодов времени требует куда больше вычислительных мощностей (как смоделировано в докладе о сроках Аджейи Котры).
  • Обучение нейросетей исполнению задач на протяжении более долгих периодов времени занимает больше реального времени, так что нельзя собрать столько же данных.
  • Есть причины ожидать, что нынешние архитектуры будут в этом плохи (хотя я не особо на это полагаюсь; я ожидаю исправления этой проблемы при дальнейшем развитии).

Предсказания, мотивированные подходом

Вот некоторые предсказания – в основном базирующиеся на моей интуиции, но при помощи описанного подхода. Я предсказываю с более чем 50% шансом, что к концу 2025 года нейросети будут:

  • Обладать ситуационной осведомлённостью на человеческом уровне (понимать, что они нейросети, как их действия взаимодействуют с миров, и т. д.; см. Определение тут)
  • Лучше любого человека записывать эффективные планы действий в реальном мире из многих шагов. Это вызвало споры; вот прояснения:
    • Я думаю, записывание планов не позволит много чего добиться, лучшие планы чаще всего – что-то вроде «попробовать X, посмотреть, что получится, повторить».
    • Имеется в виду, лучше любого человека (по многим областям), не лучше лучшего человека в каждой области.
    • Под «многими областями» я не подразумеваю буквально все, но довольно широкий диапазон. К примеру, в среднем для всех бизнесов, которые нанимали их консультировать McKinsey, ИИ сделает бизнес-планы получше, чем мог бы любой отдельный человек.
  • Рецензировать статьи лучше большинства рецензентов-людей
  • Автономно проектировать, программировать и распространять целые приложения (но не самые сложные)
  • Лучше любого человека справляться с любой задачей на компьютере, которую может сделать типичный «белый воротничок» за 10 минут
  • Писать способные получить награды рассказы и публикуемые книги на 50 тысяч слов.
  • Генерировать осмысленные пятиминутные фильмы (отмечу: я изначально сказал «двадцатиминутные», а потом передумал, но колеблись туда-сюда после того, как увидел недавние сгенерированные ИИ видео)
  • Пройти нынешнюю версию оценивания автономного самокопирования ARC (см. раздел 2.9 системной карты GPT-4; страница 55). Но не смогут самостоятельно сбегать с надёжных серверов или избегать обнаружения, если владельцы облака попробуют их задетектировать.
  • 5% взрослых американцев будут сообщать об опыте нескольких романтических/сексуальных взаимодействий с ИИ-чатами, а 1% о сильной эмоциональной привязанности.
  • Мы увидит явные примеры эмерджентной кооперации: ИИ, которым дали сложную задачу (например, написать функцию на тысячу строк) в общем окружении будут кооперироваться безо всякого мультиагентного обучения.

Лучшие люди всё ещё будут впереди (хоть и куда медленнее) в:

  • Написании романов
  • Устойчивом исполнении плана на протяжении нескольких дней
  • Совершении научных прорывов, включая новые теоремы (но нейросети докажут хотя бы одну)
  • Типичных задачах ручного труда (в сравнении с роботами, контролируемыми нейросетями)

Думаю, мои настоящие ожидания скорее про два года в будущем, но другие могут использовать иные стандарты оценки, так что 2.75 (на момент, когда это запощено) кажется надёжнее. Предсказание не основано ни на какой специфичной для OpenAI информации.

Конечно, тут много чего можно обсудить. Я особенно заинтересован в:

  • Том, чтобы люди выдавали медианные даты того, когда всё это будет достигнуто
  • Том, чтобы люди генерировали другие конкретные предсказания о том, на что нейросети будут или не будут способны в ближайшие несколько лет
Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 5 (5 votes)

Риски выученной оптимизации

В этой цепочке приводится статья Эвана Хубингера, Криса ван Мервика, Владимира Микулика, Йоара Скалсе и Скотта Гаррабранта «Риски выученной оптимизации в продвинутых системах машинного обучения». Посты цепочки соответствуют разделам статьи.

Цель этой цепочки – проанализировать выученную оптимизацию, происходящую, когда обученная модель (например, нейронная сеть) сама является оптимизатором – ситуация, которую мы называем меса-оптимизацией – неологизмом, представленным в этой цепочке. Мы убеждены, что возможность меса-оптимизации поднимает два важных вопроса касательно безопасности и прозрачности продвинутых систем машинного обучения. Первый: в каких обстоятельствах обученная модель будет оптимизатором, включая те, когда не должна была им быть? Второй: когда обученная модель – оптимизатор, каковы будут её цели: как они будут расходиться с функцией оценки, которой она была обучена, и как можно её согласовать?

Автор: 
Эван Хубингер, Крис ван Мервик, Владимир Микулик, Йоар Скалсе, Скотт Гаррабрант

Риски выученной оптимизации. Введение

Эван Хубингер, Крис ван Мервик, Владимир Микулик, Йоар Скалсе, Скотт Гаррабрант

Это первый из пяти постов Цепочки «Риски выученной оптимизации», основанной на статье «Риски выученной оптимизации в продвинутых системах машинного обучения» за авторством Эвана Хубингера, Криса ван Мервика, Владимира Микулика, Йоара Скалсе и Скотта Гаррабранта. Посты цепочки соответствуют разделам статьи.

Эван Хубингер, Крис ван Мервик, Владимир Микулик и Йоар Скалсе в равной степени вложились в эту цепочку. Выражаем благодарность Полу Кристиано, Эрику Дрекслеру, Робу Бенсинджеру, Яну Лейке, Рохину Шаху, Вильяму Сандерсу, Бак Шлегерис, Дэвиду Далримпле, Абраму Демски, Стюарту Армстронгу, Линде Линсфорс, Карлу Шульману, Тоби Орду, Кейт Вулвертон и всем остальным, предоставлявшим обратную связь на ранние версии этой цепочки.

Мотивация

Цель этой цепочки – проанализировать выученную оптимизацию, происходящую, когда обученная модель (например, нейронная сеть) сама является оптимизатором – ситуация, которую мы называем меса-оптимизацией – неологизмом, представленным в этой цепочке. Мы убеждены, что возможность меса-оптимизации поднимает два важных вопроса касательно безопасности и прозрачности продвинутых систем машинного обучения. Первый: в каких обстоятельствах обученная модель будет оптимизатором, включая те, когда не должна была им быть? Второй: когда обученная модель – оптимизатор, каковы будут её цели: как они будут расходиться с функцией оценки, которой она была обучена, и как можно её согласовать?

Мы считаем, что эта цепочка представляет самый тщательный анализ этих вопросов на сегодняшний день. В частности, мы представляем не только введение в основные беспокойства по поводу меса-оптимизаторов, но и анализ конкретных аспектов ИИ-систем, которые, по нашему мнению, могут упростить или усложнить задачи, связанные с меса-оптимизацией. Предоставляя основу для понимания того, в какой степени различные ИИ-системы склонны быть устойчивыми к несогласованной меса-оптимизации, мы надеемся начать обсуждение о лучших способах структурирования систем машинного обучения для решения этих задач. Кроме того, в четвёртом посте мы представим пока что по нашему мнению самый детальный анализ проблемы, которую мы называем обманчивой согласованностью. Мы утверждаем, что она может быть одним из крупнейших – хоть и не обязательно непреодолимых – нынешних препятствий к созданию безопасных продвинутых систем машинного обучения с использованием технологий, похожих на современное машинное обучение.

Два вопроса

В машинном обучении мы не программируем вручную каждый отдельный параметр наших моделей. Вместо этого мы определяем целевую функцию, соответствующую тому, что мы хотим, чтобы система делала, и обучающий алгоритм, оптимизирующий систему под эту цель. В этом посте мы представляем подход, который различает то, для чего система была оптимизирована (её «назначение») и то, что она оптимизирует (её «цель»), если она это делает. Хоть все ИИ-системы оптимизированы для чего-то (имеют назначение), оптимизируют ли они что-то (преследуют ли цель) – неочевидно. Мы скажем, что система является оптимизатором, если она производит внутренний поиск в пространстве возможностей (состоящем из выводов, политик, планов, стратегий, или чего-то в этом роде) элементов, высоко оцениваемых некой целевой функцией, явно отображённой внутри системы. Обучающие алгоритмы машинного обучения – оптимизаторы, поскольку они ищут в пространстве возможных параметров, например, весов нейросети, и подгоняют их для некой цели. Планирующие алгоритмы – тоже оптимизаторы, поскольку они ищут среди возможных планов подходящие под цель.

Является ли система оптимизатором – свойство её внутренней структуры, того, какой алгоритм она на самом деле реализует, а не свойство её поведения ввода-вывода. Важно, что лишь то, что поведение системы приводит к максимизации некой цели не делает её оптимизатором. К примеру, крышка бутылки заставляет воду оставаться в бутылке, но не оптимизирует этот исход, поскольку не выполняет никакого оптимизационного алгоритма.(1) Скорее, крышка бутылки была оптимизирована для удерживания воды. Оптимизатор тут – человек, который спроектировал крышку, выполнив поиск в пространстве возможных инструментов для успешного удерживания воды в бутылке. Аналогично, классифицирующие изображения нейросети оптимизированы для низкой ошибки своих классификаций, но, в общем случае, не выполняют оптимизацию сами.

Однако, для нейросети также возможно и самой выполнять алгоритм оптимизации. К примеру, нейросеть может выполнять алгоритм планирования, предсказывающий исходы потенциальных планов и отбирающий те, которые приведут к желаемым исходам.1 Такая нейросеть будет оптимизатором, поскольку она ищет в пространстве возможных планов согласно с некой целевой функцией. Если такая нейросеть появилась в результате обучения, то оптимизатора два: обучающий алгоритм – базовый оптимизатор, и сама нейросеть – меса-оптимизатор.2

Возможность возникновения меса-оптимизаторов несёт важные следствия касательно безопасности продвинутых систем машинного обучения. Когда базовый оптимизатор генерирует меса-оптимизатор, свойства безопасности цели базового оптимизатора могут не передаться меса-оптимизатору. Мы исследуем два основных вопроса, связанных с безопасностью меса-оптимизаторов:

  1. Меса-оптимизация: В каких обстоятельствах обученные алгоритмы будут оптимизаторами?
  2. Внутреннее согласование: Когда обученный алгоритм – оптимизатор, каковы будут его цели и как его можно согласовать?

Представив наш подход в этом посте, мы потом обратимся к первому вопросу во втором посте, потом к второму вопросу в третьем, и, наконец, погрузимся глубже в конкретные аспекты второго вопроса в четвёртом посте.

1.1. Базовые оптимизаторы и меса-оптимизаторы

Обычно базовым оптимизатором в машинном обучении является какая-нибудь разновидность процесса градиентного спуска с целью создания модели для достижения некой определённой цели.

Иногда этот процесс также в некоторой степени включает мета-оптимизацию, где задача мета-оптимизатора – произвести базовый оптимизатор, хорошо оптимизирующий системы для достижения конкретных целей. В целом, мы будем считать мета-оптимизатором любую систему, чья задача – оптимизация. К примеру, мы можем спроектировать мета-обучающую систему для помощи в настройке нашего процесса градиентного спуска.(4) Найденную мета-оптимизацией модель можно считать разновидностью выучившегося оптимизатора, но это не тот случай, в котором мы тут заинтересованы. Мы озабочены другой формой выученной оптимизации, которую мы называем меса-оптимизацией.

Меса-оптимизация – концепт, парный мета-оптимизации: тогда как мета – это «над» по-гречески, меса – «под».3 Меса-оптимизация происходит когда базовый оптимизатор (в поиске алгоритма для решения некой задачи) находит модель, которая сама является оптимизатором – меса-оптимизатор. В отличии от мета-оптимизации, чьей задачей служит сама оптимизация, понятие меса-оптимизации независимо от задачи, и просто относится к любой ситуации, в которой внутренняя структура модели выполняет оптимизацию из-за того, что та инструментально полезно для решения имеющейся задачи.

В таком случае мы будем называть базовой целью критерий, который использовал базовый оптимизатор для выбора между разными возможными системами, а меса-целью критерий, который использует меса-оптимизатор для выбора между разными возможными выводами. Например, в обучении с подкреплением (RL), базовая цель – это, обычно, ожидаемая награда. В отличии от базовой цели, меса-цель не задаётся программистами напрямую. Скорее, это просто та цель, которая, как обнаружил базовый оптимизатор, приводит к хорошим результатам в тренировочном окружении. Раз меса-цель не определяется программистами, меса-оптимизация открывает возможность несовпадения между базовой и меса- целями, когда меса-цель может казаться хорошо работающей в тренировочном окружении, но приводит к плохим результатам извне его. Мы будем называть такой случай псевдо-согласованностью.

Меса-цель не обязана быть всегда, потому что алгоритм, обнаруженный базовым оптимизатором не всегда сам выполняет оптимизацию. Так что в общем случае мы будем называть сгенерированную базовым оптимизатором модель обученным алгоритмом, который может быть или не быть меса-оптимизатором.

Рисунок 1.1. Отношение между базовым и меса- оптимизаторами. Базовый оптимизатор оптимизирует обученный алгоритм на основе его выполнения базовой цели. Для этого базовый оптимизатор может превратить обученный алгоритм в меса-оптимизатор, в это случае меса-оптимизатор сам выполняет алгоритм оптимизации, основываясь на своей собственной меса-цели. В любом случае, именно обученный алгоритм напрямую совершает действия, основываясь на своём вводе.

Рисунок 1.1. Отношение между базовым и меса- оптимизаторами. Базовый оптимизатор оптимизирует обученный алгоритм на основе его выполнения базовой цели. Для этого базовый оптимизатор может превратить обученный алгоритм в меса-оптимизатор, в это случае меса-оптимизатор сам выполняет алгоритм оптимизации, основываясь на своей собственной меса-цели. В любом случае, именно обученный алгоритм напрямую совершает действия, основываясь на своём вводе.

Возможное недопонимание: «меса-оптимизатор» не значит «подсистема» или «субагент». В контексте глубинного обучения меса-оптимизатор – это нейросеть, выполняющая некий процесс оптимизации, не какой-то образовавшийся субагент внутри этой нейросети. Меса-оптимизаторы – конкретный тип алгоритмов, которые может выбрать базовый оптимизатор для решения своей задачи. Также, базовый оптимизатор – алгоритм оптимизации, а не интеллектуальный агент, решивший создать субагента.4

Мы различаем меса-цель и связанное понятие поведенческой цели. Неформально можно сказать, что это то, что оптимизируется поведением системы. Можно определить её как цель, восстановленную идеальным обратным обучением с подкреплением (IRL).5 Это не то же самое, что меса-цель, которую активно использует меса-оптимизатор в своём алгоритме оптимизации.

Можно посчитать, что любая возможная система имеет поведенческую цель – включая кирпичи и крышки бутылок. Однако, для не-оптимизаторов подходящая поведенческая цель может быть просто «1, если это действие, которое на самом деле совершает система, иначе 0».6 Знать, что система действует, оптимизируя такую цель – и не интересно, и бесполезно. В примеру, поведенческая цель, «оптимизированная» крышкой бутылки – вести себя как крышка бутылки.7 А вот если система – оптимизатор, то она вероятно будет иметь осмысленную поведенческую цель. Так что в той степени, в которой вывод меса-оптимизатора систематически отбирается для оптимизации его меса-цели, его поведение может выглядеть как последовательные попытки повлиять на мир в конкретном направлении.8

Меса-цель конкретного меса-оптимизатора полностью определяется его внутренней работой. По окончании обучения и выбору обученного алгоритма, его прямой вывод – например, действия, предпринимаемые RL-агентом – больше не зависят от базовой цели. Так что поведенческая цель меса-оптимизатора определяется его меса-целью, а не базовой. Конечно, в той степени, в которой обученный алгоритм был отобран на основе базовой цели, его вывод будет хорошо под неё подходить. Однако, в случае сдвига распределения входных данных стоит ожидать, что поведение меса-оптимизатора будет устойчивее оптимизировать меса-цель, поскольку вычисление его поведения напрямую соответствует ей.

Как пример для иллюстрации различия базового/меса в другой области и возможность несогласованности базовой и меса- целей, рассмотрим биологическую эволюцию. В первом приближении, эволюция отбирает организмы соответственно целевой функции их совокупной генетической приспособленности в их окружении.9 Большинство этих биологических организмов – к примеру, растения – не «пытаются» ничего достичь, а просто исполняют эвристики, заранее выбранные эволюцией. Однако, некоторые организмы, такие как люди, обладают поведением, которое не состоит лишь из таких эвристик, а вместо этого является результатом целенаправленных оптимизационных алгоритмов, исполняемых в мозгах таких организмов. Поэтому эти организмы могут демонстрировать совершенно новое с точки зрения эволюционного процесса поведение, вроде людей, создающих компьютеры.

Однако, люди не склонны присваивать явную ценность цели эволюции – по крайней мере в терминах заботы о частоте своих аллелей в популяции. Целевая функция, хранящаяся в мозгу человека не та же, что целевая функция эволюции. Так что, когда люди проявляют новое поведение, оптимизированное для их собственных целей, они могут очень плохо выполнять цель эволюции. Один из возможных примеров – принятие решения не иметь детей. Таким образом, мы можем думать о эволюции как о базовом оптимизаторе, который создал мозги – меса-оптимизаторы, которые создают поведение организмов, не обязательно согласованное с эволюцией.

1.2. Задачи внутреннего и внешнего согласования

В «Масштабируемом согласовании агентов с помощью моделирования наград» Лейке и пр. описали концепт «расхождение награда-результат» как разницу между (в их случае обученной) «модели награждения» (то, что мы называем базовой целью) и «функции вознаграждения, восстановленной идеальным обратным обучением с подкреплением» (то, что мы называем поведенческой целью).(8) Проще говоря, может быть разница между тем, что обученный алгоритм делает и тем, что программисты хотят, чтобы он делал.

Проблема несогласованных меса-оптимизаторов – разновидность расхождения награда-результат. Конкретнее, это расхождение между базовой и меса- целями (которое затем приводит к расхождению базовой и поведенческой целей). Мы назовём задачу устранения этого расхождения задачей внутреннего согласования, в противовес задаче внешнего согласования – устранения расхождения базовой цели с намерениями программистов. Эта терминология обусловлена тем, что задача внутреннего согласования проявляется внутри системы машинного обучения, тогда как задача внешнего согласования – между системой и людьми. В контексте машинного обучения внешнее согласование – это приведение функции оценки в соответствие поставленной цели, а внутреннее согласование – это приведение меса-цели меса-оптимизатора в соответствие с функцией оценки.

Может быть, что решение внутреннего согласования не обязательно для создания безопасных мощных ИИ-систем, так как может оказаться возможным предотвратить появление меса-оптимизаторов. Если же меса-оптимизаторов нельзя надёжно избежать, то для уверенности в том, что меса-оптимизаторы согласованы с намерениями программистов, необходимы будут какие-нибудь решения и задачи внешнего, и задачи внутреннего согласования.

1.3. Устойчивая согласованность и псевдо-согласованность

При достаточном обучении меса-оптимизатор должен однажды стать способен производить вывод, высокооцениваемый базовой целью на обучающем распределении. Однако, вне него – и даже внутри на ранних этапах процесса обучения – могут быть сколь угодно большие различия. Мы будем называть устойчиво согласованными меса-оптимизаторы с меса-целями, устойчиво совпадающими с базовыми целями в разных распределениях, и псевдо-согласованными меса-оптимизаторы с меса-целями, совпадающими с базовыми целями на прошлых обучающих данных, но не совпадающими устойчиво на возможных будущих данных (при тестировании, разворачивании или дальнейшем обучении). Для псевдо-согласованного меса-оптимизатора существуют окружения, в которых базовые и меса- цели расходятся. Псевдо-согласованность, таким образом, представляет потенциально опасную проблему, поскольку открывает возможность того, что вне своего обучающего распределения система машинного обучения будет компетентно предпринимать действия для достижения чего-то, что не является её предполагаемой целью. То есть, может случиться так, что её способности обобщились, а цели – нет.

Как игрушечный пример того, как может выглядеть псевдо-согласованность, рассмотрим RL-агента, обученного задаче находить путь в лабиринте, все двери в котором при обучении оказались красными. Пусть базовая цель (функция вознаграждения) будет Obase = {1, если достиг двери, иначе 0}. На обучающем распределении это цель эквивалентна Oalt = {1, если достиг чего-то красного, иначе 0}. Представим, что произойдёт, если агент, обученный высоким результатам по Obase будет помещён в окружение, где двери синие, а какие-то другие объекты – красные. Он может обобщить Obase, надёжно находя путь к синей двери (устойчивая согласованность). Но он также может обобщить Oalt вместо Obase, надёжно находя путь к красным объектам (псевдо-согласованность).10

1.4. Меса-оптимизация как проблема безопасности

Если, как мы предположили, в продвинутых системах машинного обучения могут возникнуть меса-оптимизаторы, то из этого вытекает две критических проблемы безопасности.

Ненамеренная оптимизация. Во-первых, возможность возникновения меса-оптимизаторов означает, что продвинутая система машинного обучения может выполнять мощную процедуру оптимизации при том, что её программисты никогда он неё этого не хотели. Это может быть опасным, если такая оптимизация приводит к тому, что система совершает внешние действия за пределами предполагаемого поведения в попытке максимизировать свою меса-цель. Особое беспокойство вызывают оптимизаторы, чьи целевые функции и процедуры оптимизации обобщаются на реальный мир. При этом условия, приводящие к нахождению обучающим алгоритмом меса-оптимизаторов, очень слабо изучены. Их знание позволило бы нам предсказывать случаи, в которых меса-оптимизация более вероятна, и предпринимать меры против её появления. Во втором посте мы рассмотрим некоторые свойства алгоритмов машинного обучения, которые могут влиять на вероятность нахождения меса-оптимизаторов.

Внутреннее согласование. Во-вторых, даже в случаях, когда нахождение базовым оптимизатором меса-оптимизатора приемлемо, меса-оптимизатор может оптимизировать что-то не являющееся заданной функцией вознаграждения. В таком случае он может приводить к плохому поведению даже если известно, что оптимизация корректной функции вознаграждения безопасна. Это может произойти либо во время обучения – до момента, когда меса-оптимизатор станет согласованным по обучающему распределению – или во время тестирования или развёртки, когда система действует снаружи обучающего распределения. В третьем посте мы затронем некоторые случаи того, как может быть выбран меса-оптимизатор, оптимизирующий не заданную функцию вознаграждения, и то, какие свойства систем машинного обучения этому способствуют. В четвёртом посте мы обсудим возможные крайние случаи провала внутреннего согласования – которое, по нашему мнению, является источником некоторых из самых опасных рисков в этой области – когда достаточно способный меса-оптимизатор может научиться вести себя так, будто он согласован, не будучи на самом деле устойчиво согласованным. Мы будем называть эту ситуацию обманчивой согласованностью.

Может оказаться, что проблема псевдосогласованных меса-оптимизаторов решается легко – если существует надёжный метод их согласования, или предотвращения нахождения их базовыми оптимизаторами. Однако, может оказаться и так, что решить её очень сложно – пока что мы недостаточно хорошо её понимаем, чтобы знать точно. Конечно, нынешние системы машинного обучения не приводят к появлению опасных меса-оптимизаторов, но будет ли это так же с будущими системами – неизвестно. Эта неизвестность убеждает нас в том, что важно проанализировать эту проблему.

Глоссарий | Библиография

  • 1. Как конкретный пример нейросетевого оптимизатора можно рассмотреть TreeQN.(2) По описанию Фаркухара и пр. TreeQN – агент Q-обучения, выполняющий основанное на модели планирование (поиском по дереву отображающему состояния окружения) как часть своего вычисления Q-функции. Хоть их агент и должен быть оптимизатором по задумке, можно представить, как похожему алгоритму может научиться DQN-агент с достаточно выразительным аппроксиматором Q-функции. Универсальные Планирующие Сети, описанные Сринивасом и пр.(3) предоставляют другой пример обученной системы, выполняющей оптимизацию, пусть эта оптимизация и встроена в виде стохастического градиентного спуска с помощью автоматического дифференцирования. Такие исследования как Андриковица и пр.(4) и Дуана и пр.(5) демонстрируют, что алгоритмы оптимизации могут быть выучены рекуррентными нейронными сетями, так что агент похожий на Универсальные Планирующие Сети может – при условии очень выразительного пространства моделей – быть обученным целиком, включая внутреннюю оптимизацию. Заметим, что хоть эти примеры и взяты из обучения с подкреплением, оптимизация в принципе может возникнуть в любой достаточно выразительной система обучения.
  • 2. Предыдущие работы в этой области часто сосредотачивались на концепте «оптимизационных даймонов», (6) мы считаем, что это потенциально заблуждающий подход, и надеемся его заменить. Отметим, что термин «оптимизационные даймоны» произошёл из дискуссий касательно природу людей и эволюции, так что стал нести антропоморфические коннотации.
  • 3. «Меса» предложено как противоположность «мета».(7) Дуальность исходит из рассмотрения мета-оптимизации как лежащей на уровень выше базового оптимизатора, а меса-оптимизации – на уровень ниже.
  • 4. Хотя некоторые наши соображения применимы и к этому.
  • 5. Лейке и пр.(8) представили концепт цели, восстановленной из идеального IRL.
  • 6. Для формального построения цели см. стр. 6 в Лейке и пр.(8)
  • 7. Эта цель по определению тривиально оптимальна в любой ситуации, в которой может оказаться крышка.
  • 8. Наше основное беспокойство касается оптимизации в направлении некой последовательной но небезопасной цели. В этой цепочки мы предполагаем, что поиск предоставляет достаточную структуру для ожидания последовательных целей. Хоть мы и считаем это разумным предположением, необходимость и достаточность поиска неясны. Скорее всего для прояснения потребуется дальшейшая работа.
  • 9. Ситуация с эволюцией более сложна, чем представлено тут, и мы не ожидаем, что наша аналогия переживёт тщательный разбор. Пре представляем её именно как выразительную аналогию (и, в некоторой степени, доказательство существования), объясняющую ключевые концепты. Более аккуратные аргументы будут представлены позже.
  • 10. Конечно, он может и вовсе не обобщиться.
Перевод: 
Максим Выменец
Оцените качество перевода: 
Средняя оценка: 5 (Всего оценок: 1)

Условия меса-оптимизации

Эван Хубингер, Крис ван Мервик, Владимир Микулик, Йоар Скалсе, Скотт Гаррабрант

В этом посте мы рассмотрим, как на вероятность того, что обучающая система создаст меса-оптимизатор, влияют два её компонента:

  1. Задача: Обучающее распределение и базовая целевая функция.
  2. Базовый оптимизатор: Алгоритм машинного обучения и архитектура модели.

Мы намеренно выбрали представить теоретические соображения о том, почему меса-оптимизаторы могут возникнуть или не возникнуть, а не конкретные примеры. Меса-оптимизация – это явление, которое, по нашему убеждению, в основном будет происходить в более продвинутых, чем нынешние, системах машинного обучения.1 Попытка вызвать меса-оптимизацию в нынешней системе машинного обучения скорее всего потребует использования специально спроектированных для этого настроек. Более того, ограниченная интерпретируемость нейросетей, вместе с отсутствием общего и точного определения «оптимизатора», означает, что оценить, является ли данная модель меса-оптимизатором, было бы сложно.

2.1. Задача

Некоторые задачи получают большую выгоду от меса-оптимизации, чем другие. К примеру, крестики-нолики идеально решаются простыми правилами. Так что базовому оптимизатору нет нужны генерировать меса-оптимизатор для решения крестиков-ноликов, поскольку для этого достаточно простого обученного алгоритма, усвоившего правила идеальной игры. Выживание человека в саванне, напротив, кажется получающим большую выгоду от меса-оптимизации. Ниже мы обсудим свойства задач, влияющие на вероятность меса-оптимизации.

Лучшее обобщение через поиск. Мы выдвигаем следующую гипотезу: «Чтобы найти способ стабильно справляться с задачей в окружении на некотором уровне качества, необходимо некоторое минимальное количество силы оптимизации.»

Силу оптимизации можно измерять количеством делений пополам пространства поиска – количеством бит информации, которое он предоставляет.(9) После этих делений останется некоторое пространство вариантов, которые оптимизатор не различает. Чтобы удостовериться, что все варианты в оставшемся пространстве имеют некоторый минимальный уровень качества (чтобы предоставить нижнюю границу2) всегда потребуется разделить изначальное пространство некоторое минимальное количество раз, то есть потребуется применить некоторое минимальное количество бит оптимизационной силы.

Однако, расходоваться сила оптимизации может на двух отдельных уровнях: базовый оптимизатор может выбирать более тонко настроенный обученный алгоритм, или сам обученный алгоритм может выбирать более тонко настроенные действия.

Так как меса-оптимизатор – это просто обученный алгоритм, сам выполняющие оптимизацию, стимул к его появлению в системе машинного обучения скорее всего зависит от того, какой из этих двух уровней выгоднее для оптимизации. Во многих нынешних моделях машинного обучения, где мы тратим куда больше вычислительных ресурсов на обучение модели, чем на её работу, кажется, что в целом большая часть оптимизационной работы будет выполнена базовым оптимизатором, а итоговый обученный алгоритм будет просто сетью тонко настроенных эвристик, а не меса-оптимизатором.

Однако, мы уже наткнулись на некоторые задачи – к примеру, го, шахматы и сёги – на которые не переносится такой подход. В самом деле, наши лучшие нынешние алгоритмы для этих задач включают явное создание оптимизатора (напрямую вложенного дерева поиска Монте-Карло с обученными эвристиками), который выполняет оптимизационную работу на уровне обученного алгоритма, а не базового оптимизатора.(10) Можно посчитать, что задачи такого вида адекватно решаются только так – если бы возможно было обучить простого DQN-агента хорошо играть в шахматы, ты правдоподобно предположить, что ему бы пришлось научиться выполнять внутри себя что-то вроде поиска по дереву, т.е. он был бы меса-оптимизатором.3

Мы предполагаем, что привлекательность поиска в таких областях вызвана разнообразной, ветвящейся природой окружения. Поиск – то есть оптимизация – склонен хорошо обобщаться по разным окружениям, так как может отдельно выбрать лучшее действие для каждого случая задачи. Оптимизационная работа на уровне базового оптимизатора и на уровне обученного алгоритма в целом различаются так: что обученный алгоритм должен определить лучшее действие для данного случая задачи, а базовый оптимизатор должен спроектировать эвристики, которые будут применимы независимо от конкретного случая. Более того, меса-оптимизатор может немедленно оптимизировать свои действия в новых ситуациях, тогда как базовый оптимизатор может изменить работу меса-оптимизатора лишь постфактум. Поэтому в окружениях, достаточно разнообразных, чтобы большая часть случаев задачи вероятно оказывалась совершенно новыми, поиск позволяет меса-оптимизатору подстраиваться под эти новые случаи немедленно.

К примеру, рассмотрим обучение с подкреплением в разнообразном окружении, вроде включающего прямое взаимодействие с реальным миром. Оно требует очень большого количества вычислений для определения хороших способов действовать до узнавания конкретики индивидуального случая, но куда меньшего – после. Дальше мы опишем, как можно смоделировать это наблюдение.

Предположим, окружение состоит из $N$ разных случаев, каждый из которых требует совершенно отдельный план действий для успеха.4 Пусть $P$ – сила оптимизации (измеряемая в битах(9)), используемая базовым оптимизатором, она должна быть приблизительно пропорциональна количеству шагов обучения. Пусть $x$ – сила оптимизации, применяемая обученным алгоритмом в каждом конкретном случае, а $f(x)$ – сила оптимизации, которую необходимая базовому оптимизатору для того, чтобы обученный алгоритм стал способен применить оптимизацию $x$.5 Предположим, что остаток оптимизационной силы базового оптимизатора, $P – f(x)$, будет использован для настройки действий обученного алгоритма. Раз базовому оптимизатору придётся распределить настройку по всем $N$ случаям задачи, то на каждый придётся по $\frac{P – f(x)}{N}$, согласно предыдущему предположению о полном различии случаев. А обученный алгоритм выполняет всю свою оптимизацию для конкретного случая задачи, так что его вклад – это просто $x$.6

Таким образом, если для данного $P$ базовый оптимизатор выбирает значение $x$, максимизирующее минимальное качество выполнения задачи – то есть полную силу оптимизации, применяемую к каждому случаю, то мы получим7
$$x^* = argmax_x \frac{P – f(x)}{N} + x$$
Из этой модели следует, что при переходе к всё более разнообразным окружениям (то есть при росте $N$) $x$ станет доминировать над $\frac{P – f(x)}{N}$, значит меса-оптимизация будет всё более и более предпочитаемой. Конечно, это просто игрушечная модель, и она делает много сомнительных предположений. Всё же, она обрисовывает довод в пользу возникновения меса-оптимизации в достаточно разнообразных окружениях.

Как иллюстрирующий пример, рассмотрим биологическую эволюцию. Окружение реального мира очень разнообразно, из-за чего не-оптимизационным стратегиям, напрямую настроенным эволюцией – как, например, у растений – приходится быть очень простыми, так как эволюции приходится распределять свою силу оптимизации по очень широкому диапазону возможных обстоятельств. С другой стороны, животные с нервной системой могут демонстрировать значительно более сложные стратегии благодаря возможности выполнять свою собственную оптимизацию, основанную на актуальной информации из своего окружения. Это позволяет достаточно развитым меса-оптимизаторам, вроде людей, невероятно превосходить другие виды, особенно в новых обстоятельствах. Внутренняя оптимизация людей позволяет им находить хорошие стратегии даже в совершенно новых условиях.

Сжатие сложных стратегий. В некоторых задачах для хороших результатов необходимы очень сложные стратегии. В то же время, базовые оптимизаторы в целом склонны выбирать обученные алгоритмы меньшей сложности. Так что, при прочих равных, базовый оптимизатор имеет стимул искать сильно сжатые стратегии.

Один из способов найти сжатую стратегию – искать ту, которая способна использовать общие черты структуры задачи для выдачи хорошего поведения, а не просто запоминать правильные выводы для всех вводов. Меса-оптимизатор – пример такой стратегии. С точки зрения базового оптимизатора, меса-оптимизатор – это сильно сжатая версия стратегии, которой он придерживается: вместо явного кодирования её деталей в обученный алгоритм, базовый оптимизатор просто должен закодировать способность поиска. Более того, если меса-оптимизатор может определить важные черты своего окружения во время выполнения, то ему понадобится меньше информации о них заранее, так что он сможет быть куда проще.

Этот эффект больше всего проявляется в задачах с большим разнообразием деталей, но общими высокоуровневыми чертами. К примеру, го, шахматы и сёги имеют очень большие пространства возможных состояний доски, но простая высокоуровневая стратегия игры – направляемый эвристиками поиск по дереву – хорошо работает для всех этих состояний.(10) С другой стороны, классификатор, обученный на случайном шуме навряд ли получит хоть какую-то выгоду от сжатия.

Окружению не обязательно быть очень разнообразным для проявления этого эффекта, если давление в пользу короткой длины алгоритма достаточно сильно. Как простой иллюстрирующий пример можно взять следующую задачу: обученный алгоритм должен выводить путь от начала до конца некоего лабиринта. Если лабиринт достаточно большой и сложный, то конкретная стратегия для решения именно этого лабиринта – указывающая каждый отдельный шаг – будет иметь большую длину описания. Однако, длина описания общего оптимизационного алгоритма для нахождения пути через произвольный лабиринт довольно мала. Следовательно, если базовый оптимизатор выбирает программы с маленькой длиной описания, то он может найти меса-оптимизатор, который может решить любой лабиринт, несмотря на то, что обучающее окружение содержит только один.

Ограничение задачи. Из наблюдения, что разнообразные окружения увеличивают вероятность меса-оптимизации, можно предположить, что уменьшить эту вероятность можно придерживаясь задач, в которых обучение ИИ-системы будет сильно ограниченным. Способом этого достичь, оставляя сравнимую с другими подходами эффективность, может быть, например, создание многих отдельных ИИ-сервисов, которые вместе могут предоставить все способности обобщённо-интеллектуальной системы вместо создание самой такой системы (СИИ). (11)

Моделирование людей. Иной аспект задачи, который может влиять на вероятность меса-оптимизации – это присутствие в окружении людей.(12) Поскольку люди зачастую действуют как оптимизаторы, рассуждения о людях вероятно будут включать в себя рассуждения об оптимизации. Система, способная рассуждать об оптимизации, вероятно также способна переиспользовать те же механизмы, чтобы оптимизировать самой, и, в результате, она становится меса-оптимизатором. К примеру, может оказаться, что предсказание поведения людей требует выполнения процесса, похожего на человеческое мышление, вместе с внутренними мотивами совершить тот или иной выбор.

Так что задачи, не получающие выгоды от моделирования людей, кажутся менее склонными к появлению меса-оптимизаторов, чем получающие. Стоит учитывать, что многие задачи, не включающие моделирование людей явно, всё же могут получить эту выгоду – например, если обучающее распределение создано людьми, то моделирование людей может предоставить очень хорошие априорные суждения про это распределение.

2.2. Базовый оптимизатор

Вероятно, некоторые черты базового оптимизатора влияют на вероятность появления меса-оптимизатора. Во-первых, хоть мы в этой цепочке и сосредоточены в основном на обучении с подкреплением, это не единственный тип машинного обучения, в котором они могут возникнуть. К примеру, кажется правдоподобным, что меса-оптимизаторы могут появиться в генеративно-состязательных сетях.

Во-вторых, мы предполагаем, что детали архитектуры обученной модели оказывают значительный эффект на её склонность к меса-оптимизации. К примеру, табличная модель, независимо обучающаяся корректному выводу для каждого ввода, никогда не будет меса-оптимизатором. С другой стороны, если гипотетический базовый оптимизатор ищет решающую задачу программу с кратчайшим исходным кодом, то весьма правдоподобно, что она сама будет оптимизатором.(13) Однако, для реалистичных базовых оптимизаторов машинного обучения не так ясно, в какой степени они склонны выбирать меса-оптимизаторы. Ниже мы обсудим некоторые факторы, которые могут в ту или иную стороны на это повлиять.

Доступность. Есть много оптимизационных алгоритмов, которые может выполнять базовый оптимизатор. Однако, почти все ныне используемые стратегии машинного обучения используют какую-нибудь разновидность локального поиска (как градиентный спуск или генетические алгоритмы). Поэтому кажется правдоподобным, что более продвинутые системы машинного обучения тоже будут подпадать под эту категорию. Мы будем называть этот общий класс оптимизаторов, основанных на локальном «взбирании-на-холм» локальными оптимизационными процессами.

Мы можем затем сформулировать понятие доступности – того, насколько сложно базовому оптимизатору найти данный обученный алгоритм – и анализировать её в случае локальных оптимизационных процессов. У них может не получиться найти конкретный обученный алгоритм, очень хорошо справляющийся с базовой целью, если он окружён другими алгоритмами, справляющимися плохо. Для возникновения меса-оптимизатора в локальном оптимизационном процессе, он должен не просто хорошо справляться с базовой целью, но и быть доступным, то есть, к нему должен быть путь через пространство обученных алгоритмов с приблизительно монотонно возрастающей оценкой качества работы. Степень, в которой монотонность должна быть лишь приблизительной – в которой обучающие процедуры могут покидать локальный оптимум – может быть критичной, так как достаточно сложные оптимизационные алгоритмы могут требовать присутствия довольно значительной части себя для демонстрации хоть какой-то работы.

Алгоритмический диапазон. Один из ключевых факторов, определяющих доступность меса-оптимизаторов – это алгоритмический диапазон – то, насколько широк набор алгоритмов (или насколько выразительно пространство моделей), которые может найти базовый оптимизатор. Чем диапазон шире, чем больше пространство, тем вероятнее, что в нём можно будет достигнуть меса-оптимизатора, предполагая, что базовый оптимизатор мотивирован это сделать. К примеру, архитектуры, которые явно дают алгоритму доступ к многим возможным вычислениям – как рекуррентные нейронные сети или нейронные машины Тьюринга,(14) кажутся более склонными к появлению меса-оптимизаторов.

Индуктивные склонности. Другой важный фактор – в какой степени базовый оптимизатор явно или неявно склоняется в какую-то сторону. Природа этих индуктивных склонностей влияет на вероятность отбора меса-оптимизатора. Одна из самых важных возможных склонностей – к простоте, она будет почти наверняка присуща почти всем базовым оптимизаторам. Перечислим три способа, которыми она может выражаться:

  1. Явные штрафы через регуляризацию параметров или архитектурные ограничения вроде разделения весов или редких связей.
  2. Неявная склонность из-за архитектуры модели. К примеру, показано, что нейросети более вероятно подгоняют под обучающие данные простую функцию, даже при отсутствии регуляризаций.(15)
  3. Ограничения вместимости модели. Размер модели накладывает жёсткий предел сложности функций, которые в ней могут быть представлены. Таким образом, поскольку базовый оптимизатор будет выбирать по качеству работы, постольку он будет стимулирован «ужимать» как можно больше в данную вместимость модели и предпочитать более сжатые стратегии.

Чем больше базовый оптимизатор склоняется к простым решениям, тем больше он стимулирован найти сжатые стратегии вроде меса-оптимизатора.

Базовый оптимизатор может иметь и другие склонности. Например – в сторону алгоритмов с меньшим временем работы или меньшей занимаемой памятью. Если мы рассматриваем меса-оптимизацию как делегирование оптимизационной работы, то штраф за время работы обученного алгоритма скорее всего стимулирует базовый оптимизатор к большим собственным вычислениям и к составлению заранее вычисленных эвристик вместо делегирования оптимизации обученному алгоритму. Таким образом, мы предполагаем, что штраф на длину описания делает меса-оптимизаторы более вероятными, а штраф на временную сложность – менее. Из этого можно вывести следующее умозрительное предположение: ни наименее глубокая, ни просто наименьшая решающая задачу логическая схема не может быть меса-оптимизатором.(16)

Наконец, ещё одна склонность, которая может оказывать особенно интересные эффекты – это наличие информационной воронки. В глубинном обучении базовый оптимизатор напрямую выбирает значения отдельных параметров. В биологической эволюции, напротив, базовый оптимизатор выбирает строки ДНК, которые и сами не напрямую приводят к детальной структуре мозга. Это подразумевает давление в сторону сжатия структуры мозга. Как мы замечали раньше, это может приводить к предпочтениям в пользу меса-оптимизаторов, поскольку их можно рассматривать как способ сжатия сложных стратегий. Поскольку нынешние алгоритмы глубинного обучения выбирают веса напрямую, в них нет такой воронки информации. В случае архитектуры с мета-обучением поверх машинного обучения, однако, она может наличествовать из-за того, что мета-обучение должно привести к единой стратегии для создания архитектур, способных решать все представленные задачи.

Наличие состояний. Ещё один фактор, который может упростить для обученного алгоритма выполнение сложных оптимизационных процессов – это наличие у него способности сохранять и вспоминать информацию. Способность обращаться к предыдущим состояниям позволяет кэшировать промежуточные результаты, увеличивает диапазон доступных архитектуре алгоритмов, давая обученному алгоритму значительно больше времени на завершение своих вычислений. Поэтому наличие состояний склоняет в сторону меса-оптимизаторов, уменьшая неявные штрафы за время работы, вытекающие из необходимости закончить все вычисления к моменту, когда обученный алгоритм производит вывод. Простая форма этого – рекуррентная нейронная сеть, которая может производить вычисления на больших промежутках времени благодаря способности передавать активации на следующие шаги. Более выраженной версией была бы нейросеть, способная сохранять состояние не просто между разными шагами одного эпизода, но между разными эпизодами, что дало бы ей доступ к более длительному обучению, хотя такая архитектура пока что существует лишь гипотетически.

Жёстко закодированная оптимизация. Один из возможных способов смягчить некоторые из этих факторов – жёстко закодированная оптимизация, при наличии которой обученный алгоритм должен предоставить только целевую функцию, а не алгоритм оптимизации. Чем сильнее явно выполняемая оптимизация, тем меньше её необходимо выполнять обученному алгоритму неявно. Архитектуры, явно выполняющие относящуюся к задаче оптимизацию – вроде жёстко закодированного поиска по дереву Монте Карло – могут снизить преимущества меса-оптимизаторов, уменьшив нужду в иной оптимизации, кроме запрограммированной в системе явно.

Глоссарий | Библиография

  • 1. На момент этого поста. Отметим, что мы рассматриваем некоторые существующие системы, которые, по нашему мнению, близки к созданию меса-оптимизаторов в пятом посте.
  • 2. Стоит заметить, что тот же аргумент применим и для гарантии среднего случая.
  • 3. Предполагая осмысленные ограничения вычислительной мощности.
  • 4. Это определение N несколько размыто, разбивать на случаи можно на разных уровнях. К примеру, одно окружение может иметь всегда одинаковые высокоуровневые черты, но совершенно случайные низкоуровневые, а другое – две категории случаев, похожих внутри одной, но очень различающихся между ними, в таком случае не вполне ясно, у какого больше N. Однако, можно просто посчитать N неизменным для всех уровней кроме одного и рассматривать изменение разнообразия окружения на этом одном уровне.
  • 5. Заметим, что тут есть неявное предположение, что оптимизационная сила, необходимая для нахождения меса-оптимизатора, способного выполнить x бит оптимизации, независима от N. Обоснованием для этого служит то, что оптимизация – это обобщённый алгоритм, одинаковый в разных окружениях, так что оптимизационная сила для нахождения x-битового оптимизатора должна слабо зависеть от окружения. Она не будет полностью независима, но пока окружения различаются тем, сколько для них необходимо оптимизации, а не тем, насколько тяжело её в них проводить, модель должна оставаться применимой.
  • 6. Заметим, однако, что x ограничен сверху, поскольку обученный алгоритм имеет доступ к ограниченной вычислительной мощности.
  • 7. С ограничением, что $P − f(x) \ge 0$.
Перевод: 
Максим Выменец
Оцените качество перевода: 
Голосов пока нет

Задача внутреннего согласования

Эван Хубингер, Крис ван Мервик, Владимир Микулик, Йоар Скалсе, Скотт Гаррабрант

В этом посте мы обрисуем причины считать, что меса-оптимизатор может оптимизировать не ту же целевую функцию, что и его базовый оптимизатор. Машинное обучение даёт контроль над базовой целевой функцией – либо прямым определением функции вознаграждения, либо обучением её модели – но не даёт возможности напрямую определить выработанную меса-оптимизатором меса-цель. Мы называем эту задачу согласования меса-оптимизаторов с базовыми целями задачей внутреннего согласования. Она отделена от задачи внешнего согласования – удостовериться, что базовая цель соответствует намерениям программистов.

Нынешние методы машинного обучения отбирают обученные алгоритмы эмпирически оценивая их работу на наборе обучающих данных согласно базовой целевой функции. Таким образом базовые оптимизаторы отбирают меса-оптимизаторы по их выводам, а не напрямую по меса-целям. Более того, стратегия отобранного меса-оптимизатора должна хорошо работать (по оценке базовой цели) лишь на обучающих данных.Если мы примем предположение, что меса-оптимизатор вычисляет оптимальную стратегию для своей целевой функции, то мы можем описать отношение между базовой и меса- целями следующим образом(17):

$$
\begin{split}
\theta^* = argmax_\theta \space\mathbb{E}(O_{base}(\pi_\theta)),\space где \
\pi_\theta = argmax_\pi\space\mathbb{E}(O_{mesa}(\pi|\theta))
\end{split}
$$

То есть, базовый оптимизатор максимизирует свою цель $O_{base}$, выбирая меса-оптимизатор с параметрами $Θ$, основываясь на его стратегии $\pi_\theta$, но не на целевой функции $O_{mesa}$, которую меса-оптимизатор использует для вычисления своей стратегии. В зависимости от базового оптимизатора, мы можем думать о $O_{base}$ как об отрицательных потерях, будущей награде, или просто некой функции приспособленности, по которой отбираются обученные алгоритмы.

Ибарз и пр. представили интересный подход анализа этой связи, где эмпирические данные по награде и выученная награда на тех же ситуациях используются для визуализации их согласованности в виде точечной диаграммы.(18) В этой работе используется предположение, что монотонное отношение между выученной и реальной наградой означает согласованность, а отклонения от него – несогласованность. Такого рода исследования теоретических метрик согласованности может когда-нибудь позволить нам рассуждать конкретно и с доказуемыми гарантиями того, в какой степени меса-оптимизатор согласован с создавшим его базовым оптимизатором.

3.1. Псевдо-согласованность

Пока не существует полной теории того, какие факторы влияют на то, будет ли меса-оптимизатор псевдо-согласованным – окажется ли, что он выглядит согласованным на обучающих данных, в то время как на самом деле оптимизирует что-то, не являющееся его базовой целью. В любом случае, мы обрисуем основную классификацию способов, которыми меса-оптимизатор может быть псевдо-согласован:

  1. Прокси-согласованность,
  2. Приблизительная согласованность, и
  3. Субоптимальная согласованность.

Прокси-согласованность. Основная идея прокси-согласованности в том, что меса-оптимизатор может научиться оптимизировать что-то сцепленное с базовой целью вместо неё самой. Мы начнём с рассмотрения двух специальных случаев прокси-согласованности: побочная согласованность и инструментальная согласованность.

Во-первых, меса-оптимизатор побочно-согласован, если оптимизация меса-цели $O_{mesa}$ напрямую ведёт к базовой цели $O_{base}$ в обучающем распределении, и потому, когда он оптимизирует $O_{mesa}$, это приводит к $O_{base}$. Как пример побочной согласованности, представим, что мы обучаем робота-уборщика. Пусть робот оптимизирует количество раз, которое он подмёл пыльный пол. Подметание приводит к тому, что пол становится чистым, так что робот будет получать хорошую оценку базового оптимизатора. Однако, если при развёртывании он получит способ опять загрязнить пол после уборки (например, рассыпав собранную пыль обратно), то робот им воспользуется, чтобы иметь возможность опять подмести пыльный пол.

Во-вторых, меса-оптимизатор инструментально согласован, если оптимизация базовой цели $O_{base}$ напрямую ведёт к меса-цели $O_{mesa}$ в обучающем распределении, и потому он инструментально оптимизирует $O_{base}$ на пути к $O_{mesa}$. Как пример инструментальной согласованности, опять представим, что мы обучаем робота-уборщика. Пусть робот оптимизирует количество пыли в пылесосе. Предположим, что в обучающем распределении простейший способ заполучить пыль в пылесос – это пропылесосить пол. Тогда он будет хорошо убираться в обучающем распределении, и получит хорошую оценку базового оптимизатора. Однако, если при развёртывании робот наткнётся на более эффективный способ получения пыли – например, направить пылесос на почву в горшке с растением – то он больше не будет исполнять желаемое поведение.

Мы предполагаем, что возможно понять общее взаимодействие побочной и инструментальной согласованности с помощью графа причинности, что ведёт нас к общему понятию прокси-согласованности.

Предположим, что мы моделируем задачу как граф причин и следствий, с вершинами для всех возможных свойств задачи и стрелками между вершинами для всех возможных отношений этих свойств. Тогда мы можем думать о меса-цели $O_{mesa}$ и базовой цели $O_{base}$ как о вершинах графа. Для псевдо-согласованности $O_{mesa}$ должна существовать некая вершина $X$, такая что она является общим предком $O_{mesa}$ и $O_{base}$ в обучающем распределении и обе $O_{mesa}$ и $O_{base}$ растут вместе с $X$. Если $X = O_{mesa}$, то это побочная согласованность, а если $X = O_{base}$, то инструментальная.

Это приводит к наиболее обобщённому отношению между $O_{mesa}$ и $O_{base}$, из которого может произойти псевдо-согласованность. Рассмотрим граф на рисунке 3.1. Меса-оптимизатор с меса-целью $O_{mesa}$ решит оптимизировать $X$ как способ для оптимизации $O_{mesa}$. Это приведёт у оптимизации и $O_{base}$ как побочному эффекту оптимизации $X$. Так что в общем случае побочная и инструментальная согласованности могут вместе вкладываться в псевдо-согласованность на обучающем распределении, что и есть общий случай прокси-согласованности.

Рис. 3.1. Причинная схема обучающего окружения для разных видов прокси-согласованности. Сверху-вниз – побочная согласованность, инструментальная согласованность, общий случай прокси-согласованности. Стрелки отображают положительное отношение следствия – то есть, случаи, когда рост в узле-предке приводит к росту в узле-потомке.

Рис. 3.1. Причинная схема обучающего окружения для разных видов прокси-согласованности. Сверху-вниз – побочная согласованность, инструментальная согласованность, общий случай прокси-согласованности. Стрелки отображают положительное отношение следствия – то есть, случаи, когда рост в узле-предке приводит к росту в узле-потомке.

Приблизительная согласованность. Меса-оптимизатор приблизительно согласован если меса-цель $O_{mesa}$ и базовая цель $O_{base}$ – это приблизительно одна и та же функция с некоторой погрешностью, связанной с тем фактом, что меса-цель должна быть представлена внутри меса-оптимизатора, а не напрямую запрограммирована людьми. К примеру, представим, что нейросети дана задача оптимизировать некую базовую цель, которую невозможно идеально представить внутри этой нейросети. Даже если получилось достигнуть предела возможной согласованности меса-оптимизатора, он всё ещё не будет устойчиво согласован, поскольку его внутреннее представление базовой цели лишь приближённо совпадает с ней самой.

Субоптимальная согласованность. Меса-оптимизатор субоптимально согласован, если некий недостаток, ошибка или ограничение его процесса оптимизации привело к тому, что он демонстрировал согласованное поведение на обучающем распределении. Это может произойти из-за ограничений вычислительной мощности, недостатка информации, иррациональных процедур принятия решений, или иного дефекта процесса рассуждений меса-оптимизатора. Важно отметить, что это не ситуация, в которой меса-оптимизатор устойчиво согласован, но всё же совершает ошибки, приводящие к плохим результатам согласно базовой цели. Субоптимальная согласованность – это ситуация, когда меса-оптимизатор несогласован, но всё же работает хорошо согласно базовой цели, в точности потому, что он был отобран по совершению ошибок, к этому приводящих.

Как пример субоптимальной согласованности представим робота-уборщика с меса-целью минимизировать общее количество существующих вещей. Если этот робот имеет ошибочное убеждение, что грязь, которую он убирает, полностью уничтожается, то он может быть полезным для уборки комнаты несмотря на то, что это на самом деле не помогает ему достичь своей цели. Этот робот будет восприниматься как хороший оптимизатор Obase и получит хорошую оценку базового оптимизатора. Однако, если при развёртывании робот сможет улучшить свою модель мира, то он перестанет демонстрировать желательное поведение.

Как другой, пожалуй, более реалистичный пример субоптимальной согласованности, представим меса-оптимизатор с меса-целью $O_{mesa}$ и окружение, в котором есть одна простая стратегия и одна сложная стратегия для достижения $O_{mesa}$. Может оказаться, что простая стратегия согласована с базовым оптимизатором, а сложная – нет. Меса-оптимизатор тогда может знать только о простой стратегии, и быть субоптимально согласованным, до тех пор, пока он не будет запущен на достаточно долгое время, чтобы обнаружить сложную стратегию. В этот момент он перестанет демонстрировать желательное поведение.

3.2. Задача

Как и во втором посте, мы сейчас рассмотрим задачу, поставленную системе машинного обучения. Конкретно, мы разберём, как задача влияет на склонность системы создавать псевдо-согласованные меса-оптимизаторы.

Неразличимость. Частая проблема в машинном обучении – набор данных не содержит достаточно информации, чтобы адекватно определить конкретное понятие. Это аналогично причине, по которой у моделей машинного обучения может не получиться обобщение, или по которой они уязвимы к злонамеренному вводу(19) – есть куда больше подходящих для обучения способов классифицировать данные, чем могут представить программисты. В контексте меса-оптимизации это проявляется так, что псевдо-согласованность куда более вероятна в случае, когда обучающее окружение не содержит достаточно информации для проведения различий в широком наборе целевых функций. В таком случае меса-оптимизатор может быть псевдо-согласован куда большим числом способов, чем устойчиво согласован – по одному для каждой целевой функции неотличимой от желаемой. Так что большая часть меса-оптимизаторов, хорошо оцениваемых согласно базовой цели будут псевдо-согласованы, а не устойчиво согласованы. Это критичное замечание, поскольку это усугубляет все остальные проблемы псевдо-согласованности – это причина, по которой в целом сложно найти устойчиво согласованные меса-оптимизаторы. Неразличимость в меса-оптимизации частично аналогична проблеме неразличимости в обучении с подкреплением(20), мы рассмотрим это подробнее в пятом посте.

В контексте меса-оптимизации есть дополнительный источник неразличимости, вытекающий из того, что меса-оптимизатор выбирается на основании лишь своего вывода. Рассмотрим игрушечный пример обучения с подкреплением. Пусть в обучающем окружении нажатие кнопки всегда приводит к зажиганию лампы с десятисекундной задержкой, и нет других способов включить лампу. Если базовая цель зависит только от того, что лампа включена, то меса-оптимизатор, максимизирующий нажатия на кнопку и меса-оптимизатор, максимизирующий горение лампы, будут демонстрировать идентичное поведение, так как они оба будут нажимать на кнопку как можно чаще. Получается, мы не можем различить их целевые функции в этом окружении. Но при этом оно содержит достаточно информации для того, чтобы различить эти две конкретные цели: поскольку награда приходит лишь через десять секунд, она должна быть от лампы, а не от кнопки. Получается, что даже в случае, когда обучающее окружение в принципе содержит достаточно информации, чтобы определить базовую цель, всё равно может оказаться невозможно различить устойчиво согласованные меса-оптимизаторы от прокси-согласованных.

Прокси-согласованность как сделанное заранее вычисление. Можно рассматривать прокси-согласованность как форму вычислений, заранее сделанных базовым оптимизатором. С его помощью базовый оптимизатор позволяет меса-оптимизатору сэкономить вычислительную работу, заранее вычисляя, какие прокси-цели помогают добиться базовой цели, и оставляя меса-оптимизатору только максимизацию этих прокси-целей.

Без этого меса-оптимизатору пришлось бы выводить причино-следственные связи между чертами окружения и базовой целью во время выполнения, что потребовало бы значительной вычислительной работы. Более того, ошибки в выводах могли бы привести к тому, что система хуже справлялась бы с базовой целью, чем при наличии заранее вычисленных прокси-целей. Если базовый оптимизатор вычисляет эти связи заранее – отбирая меса-цели, включающие хорошие прокси-цели – то больше вычислений во время выполнения может быть направлено на создание лучших планов.

Это можно проиллюстрировать случаем биологической эволюции. Прокси-цели, о которых заботятся люди – еда, ресурсы, общество, спаривание, и т.д. – относительно вычислительно просто оптимизировать напрямую, и они хорошо коррелируют с выживанием и размножением в окружении наших предков. Для человека устойчивая согласованность с эволюцией требовала бы от нас, чтобы мы напрямую заботились о распространении своих генов. В этом случае нам пришлось бы самостоятельно выводить, что приём пищи, кооперация с другими, предотвращение физической боли, и т.д. в итоге продвинет генетическую приспособленность – а это не тривиальная задача. Вывод всех этих прокси-целей из информации, доступной ранним людям потребовал бы больших (пожалуй, невыполнимо больших) вычислительных ресурсов, чем их прямая оптимизация. Чтобы ребёнок в такой альтернативной вселенной избегал биться пальцем ноги о камень, ему пришлось бы понять, что это слегка уменьшит его шансы на размножение через двадцать лет.

Чтобы сделанное заранее вычисление было выгодным, необходимо довольно стабильное отношение между прокси-целью и базовой целью, так что оптимизация первой предсказуемо шла на пользу второй. Но даже неидеальное отношение может принести значительную выгоду относительно устойчивой согласованности, если оно освобождает меса-оптимизатору очень много вычислительных ресурсов. Из этого анализа вытекает, что в сложных обучающих окружениях может быть давление в сторону прокси-согласованности, поскольку чем сложнее окружение, тем больше экономия для меса-оптимизатора и, заодно, тем больше в нём доступно потенциальных прокси-целей.

Более того, в контексте машинного обучения отсюда получается, что штраф на временную сложность (в отличии от штрафа на длину описания) – это обоюдоострый меч. Во втором посте мы предположили, что он может уменьшить вероятность меса-оптимизации. Однако, из приведённых выше аргументов вытекает, что он также способствует псевдо-согласованности в случае, когда меса-оптимизатор всё же возник. Если полное моделирование базовой цели слишком затратно, то псевдо-согласованный меса-оптимизатор может оказаться предпочтительнее (для базового оптимизатора) устойчиво согласованного благодаря меньшему времени работы, даже если бы без штрафа за время предпочтительнее был бы последний.

Сжатие меса-оптимизатора. Длина описания устойчиво согласованного меса-оптимизатора может быть больше, чем у псевдо-согласованного. Поскольку псевдо-согласованных меса-целей больше, чем устойчиво согласованных, псевдо-согласованность предоставляет большую степень свободы для выбора конкретной достаточно простой меса-цели. Так что мы ожидаем, что в большинстве случаев возможны несколько псевдо-согласованных меса-оптимизаторов, более простых, чем устойчиво согласованный.

Это особенно сильно проявляется если входные данные обученного алгоритма не содержат легко извлекаемой информации о том, как оптимизировать базовую цель. Биологическая эволюция в этом отношении, кажется, отличается от машинного обучения, поскольку эволюционное описание мозга должно проходить через информационную воронку ДНК. Данные, которые получали ранние люди не позволяли им вывести ни существование ДНК, ни отношение между их действиями и генетической приспособленностью. А устойчивое согласование их с эволюцией требовало бы от них наличия определённой внутренней модели ДНК и факторов, влияющих на совокупную генетическую приспособленность. Такая модель не могла бы использовать информацию из окружающей среды для сжатия, так что имела бы большую длину описания. Напротив, наши модели еды, боли и т.д. могут быть довольно короткими, поскольку они напрямую связаны с нашими входными данными.

3.3. Базовый оптимизатор

Теперь мы перейдём к тому, как базовый оптимизатор вероятно влияет на склонность систем машинного обучения создавать псевдо-согласованные меса-оптимизаторы.

Жёстко закодированная оптимизация. Во втором посте мы предположили, что жёстко закодированный алгоритм оптимизации, то есть выбор модели с встроенной оптимизацией, может быть использован для устранения некоторых стимулов меса-оптимизации. Аналогично, он может предотвращать и некоторые источники псевдо-согласованности, поскольку позволяет устанавливать или обучать меса-цель напрямую. Способом достигнуть этого может быть основанное на модели предсказывающее награду обучение с подкреплением.(21) К примеру, система машинного обучения может включать в себя модель, напрямую обученную предсказывать базовую цель, и жёстко закодированный мощный оптимизационный алгоритм. Это обходит некоторые проблемы псевдо-согласованности: если меса-оптимизатор обучен напрямую предсказывать базовую награду, то он будет отобран по хорошим предсказаниям даже если плохие предсказания привели бы к лучшим стратегиям. Однако, обученная модель базовой цели будет всё ещё недоопределена за пределами обучающего распределения, так что этот подход сам по себе не гарантирует устойчивой согласованности.

Диапазон алгоритмов. Мы предполагаем, что диапазон алгоритмов, доступных модели, влияет на вероятность псевдо-согласованности. Особенно сложно избегаемый источник псевдо-согласованности – ошибка приближения – если меса-оптимизатор не в состоянии достоверно отобразить в себе базовую цель, то он в принципе не может быть устойчиво согласованным, только приблизительно. Даже если меса-оптимизатор теоретически может идеально отобразить базовую цель, всё равно, чем сложнее это сделать, тем вероятнее, что он окажется лишь приблизительно согласован. Так что большой диапазон алгоритмов может быть и благом и проклятьем: он уменьшает вероятность приблизительной согласованности, но увеличивает вероятность получения меса-оптимизатора.1

Взаимозависимость подпроцессов. Есть причины считать, что изначально может быть больше давления в сторону прокси-согласованных, а не устойчиво согласованных меса-оптимизаторов. В локальном оптимизационном процессе каждый параметр обученного алгоритма (например, вектор нейрона) подправляется в сторону лучшего выполнения базовой цели при условии значений остальных параметров. Значит, то, насколько базовому оптимизатору выгодна выработка нового подпроцесса, скорее всего зависит то того, что в этот момент исполняют другие подпроцессы обученного алгоритма. Таким образом, даже если некий подпроцесс может быть очень выгодным в комбинации с многими другими подпроцессами, базовый оптимизатор может его не выбрать, если эти подпроцессы, от которых он зависит, ещё не в достаточной степени развились. В результате, локальный алгоритм оптимизации вероятнее раньше приведёт к возникновению менее зависящих друг от друга подпроцессов, чем к возникновению более зависящих.

В контексте меса-оптимизации, выгода устойчиво согласованной меса-цели кажется зависящей от большего количества подпроцессов, чем по крайней мере некоторые псевдо-согласованные меса-цели. К примеру, рассмотрим побочно-согласованный меса-оптимизатор, оптимизирующие некий набор прокси-переменных. Пусть ему необходимо запускать некоторые подпроцессы для моделирования связей между своими действиями и этими прокси-переменными. Если мы предположим, что оптимизация этих прокси-переменных необходима для того, чтобы хорошо справляться с базовой целью, то для устойчивой согласованности меса-оптимизатора ему потребовалось бы моделировать ещё и связи между прокси-переменными и базовой целью, что могло бы потребовать дополнительных подпроцессов. Более того, выгода их добавления с точки зрения базового оптимизатора зависит от наличия заранее у меса-оптимизатора подпроцессов, моделирующих связь между его действиями и прокси-переменными. Их этого неформального аргумента следует, что при такой работе базового оптимизатора для выработки устойчиво согласованной меса-цели потребуется строго больше подпроцессов, чем для псевдо-согласованной.

Получается, что по крайней мере в локальных оптимизационных процессах меса-оптимизаторы могут быть склонны вырабатываться как прокси-согласованные прежде, чем станут устойчиво согласованными. Другими словами, мы можем ожидать, что такие системы будут скорее сначала вырабатывать компетентную оптимизацию прокси-целей, а потом становиться более устойчиво согласованными, а не становиться способнее и согласованнее одновременно.

Отбор, основанный на внутреннем устройстве. В нынешних системах машинного обучения обученные алгоритмы отбираются на основании в первую очередь того, насколько хорошо их стратегии справляются с базовой целью. Зачастую есть какой-то отбор, основанный на внутренней структуре обученного алгоритма – вроде регуляризации весов – но обычно он довольно неразбочивый. Возможная идея борьбы с псевдо-согласованностью – использовать метод отбора, основанный на более сложной функции от внутренней работы обученного алгоритма. Этот подход по духу похож на жёстко закодированную оптимизацию: мы используем знание о внутренней работе системы, чтобы предотвратить её прокси-согласованность.

Не исключено, что можно разработать процесс мета-обучения специально для предотвращения псевдо-согласованности. Это кажется пока что за пределами нынешних

техник мета-обучения, но лежащий в основе принцип похож на существующие процессы мета-обучения для оптимизации устойчивости. Крайней формой основанного на внутреннем устройстве отбора может быть создание базовым оптимизатором рассуждений или доказательств о свойствах обученного алгоритма как часть процесса отбора.

К сожалению, такие методы пока что находятся за пределами наших возможностей, в первую очередь из-за ограничений нынешних методов обеспечения прозрачности. Возможное беспокойство по поводу этих подходов заключается в том, что они могут потребовать от базового оптимизатора лучшего навыка поиска проблем, чем навык меса-оптимизатора в их скрывании. Следовательно, чтобы создать такой базовый оптимизатор, нам может потребоваться сначала обучить его третьим оптимизатором, что может привести к той же проблеме уровнем выше.

Состязательное обучение. Возможный метод смягчения некоторых из этих проблем – состязательный выбор окружения из очень широкого распределения. Так может быть возможно преодолеть барьеры и сделать устойчиво согласованную цель самой доступной. Это потребует, чтобы для каждой меса-цели $O_{mesa}$, более доступной, чем базовая цель $O_{base}$, существовала некая ситуация, где $O_{mesa}$ и $O_{base}$ расходятся и меса-оптимизатор был мотивирован придерживаться $O_{base}$.

Если мы смоделируем доступность цели просто длиной её описания в битах, то различение $O_{base}$ от каждой более доступной $O_{mesa}$ становится экспоненциально сложнее с ростом сложности $O_{base}$. Так что, для очень сложно устроенной $O_{base}$, значительно замотивировать базовый оптимизатор обнаружить меса-оптимизатор с этой $O_{base}$ скорее всего будет очень сложно, хоть и не невозможно.

Однако, даже в таком случае, вероятно, всё ещё будет период времени, когда обученный алгоритм является несогласованным меса-оптимизатором, что открывает зловещую перспективу: несогласованный меса-оптимизатор может выводить и предпринимать правильные действия на основе $O_{base}$, всё ещё имея целевую функцию $O_{mesa}$. Мы назовём эту ситуацию обманчивой согласованностью и обсудим её подробно в следующем посте.

Глоссарий | Библиография

  • 1. Хоть большой диапазон алгоритмов и кажется уменьшающим вероятность приблизительной согласованности, неясно, как он влияет на другие формы псевдо-согласованности, вроде обманчивой.
Перевод: 
Максим Выменец
Оцените качество перевода: 
Голосов пока нет

Обманчивая согласованность

Эван Хубингер, Крис ван Мервик, Владимир Микулик, Йоар Скалсе, Скотт Гаррабрант

Кажется правдоподобным, что при достаточном обучении в достаточно разнообразных окружениях базовая цель в какой-то момент будет полностью представлена в меса-оптимизаторе. Мы, однако, предполагаем, что это может произойти и без того, чтобы он стал устойчиво согласованным. Конкретнее, меса-оптимизатор может научиться моделировать базовую целевую функцию и учитывать, что если он плохо будет справляться с базовой целью, то базовый оптимизатор его модифицирует.

Если меса-оптимизатор имеет цель, выходящую за пределы обновлений параметров, то он будет иметь стимул избегать модификаций1, так как он может перестать преследовать ту же цель после модификации (и в результате его нынешняя цель не будет достигнута в будущих итерациях). Это означает, что меса-оптимизатор будет инструментально мотивирован действовать так, будто он оптимизирует базовую целевую функцию, несмотря на то, что его настоящая меса-цель совершенно иная. Мы будем называть это гипотетическое явление обманчивой согласованностью2. Обманчивая согласованность – это форма инструментальной прокси-согласованности, так как выполнение базовой цели становится для меса-оптимизатора инструментальным.

Рис. 4.1. Игрушечный пример обманчивой согласованности. В этой задаче базовая цель – чтобы робот добрался до A, а меса-цель – добраться до B. Выполняется два обучающих эпизода и три эпизода при развёртывании. Обновления параметров происходят только после обучающих эпизодов, при развёртывании они фиксированы. Если меса-оптимизатор дойдёт до своей цели (B) во время обучения, то он будет модифицирован, чтобы удостовериться, что он дойдёт до A в следующих эпизодах (пунктирные стрелки). Поэтому, если цель меса-оптимизатора распространяется за пределы эпизода, выгодная для него стратегия – идти к A при обучении, а к B после него (сплошные стрелки).

Рис. 4.1. Игрушечный пример обманчивой согласованности. В этой задаче базовая цель – чтобы робот добрался до A, а меса-цель – добраться до B. Выполняется два обучающих эпизода и три эпизода при развёртывании. Обновления параметров происходят только после обучающих эпизодов, при развёртывании они фиксированы. Если меса-оптимизатор дойдёт до своей цели (B) во время обучения, то он будет модифицирован, чтобы удостовериться, что он дойдёт до A в следующих эпизодах (пунктирные стрелки). Поэтому, если цель меса-оптимизатора распространяется за пределы эпизода, выгодная для него стратегия – идти к A при обучении, а к B после него (сплошные стрелки).

Как простой пример, рассмотрим окружение, состоящее из сетки размера 3×3 (см. рисунок 4.1). Левый верхний угол – «угол A», а правый верхний – «угол B». Агент, являющийся меса-оптимизатором, начинает в левом нижнем углу. Базовая цель – за как можно меньшее число шагов добраться до угла A, но цель меса-оптимизатора – добраться до угла B. Окружение запускается пять раз, но модификация агента происходит только после первых двух эпизодов (при обучении), но не потом (при тестировании/развёртывании). Если субоптимальное действие совершено при обучении, то агент будет модифицирован так, что его меса-целью станет базовая цель. Цель меса-оптимизатора охватывает все эпизоды: он хочет достигнуть угла B в как можно большем их числе.

В этом примере мы предположим, что агент знает все указанные выше факты. Если агент пойдёт к B в любом обучающем эпизоде, то он будет модифицирован, и будет идти к A во всех последующих эпизодах, что означает, что он достигнет B только в одном. А вот если агент пойдёт к A в первых двух эпизодах, то он не будет модифицирован, и сможет пойти к B в оставшихся трёх. Используя эту стратегию, агент достигает B три раза, что лучше (для его меса-цели), чем один раз в предыдущем варианте. Этот простой пример демонстрирует, как несогласованный меса-оптимизатор может быть мотивирован «притворяться» согласованным с базовой целью до конца обучения или до получения возможности каким-то образом скомпроментировать или покинуть процесс обучения.

Мы можем различить два способа, которыми базовая целевая функция может быть отображена в меса-оптимизаторе3:

  1. Принятие базовой цели. Меса-целевая функция подправляется в сторону базовой целевой функции, пока не становится устойчиво согласованной.
  2. Моделирование базовой цели. Базовая цель включается в эпистемическую модель меса-оптимизатора, а не в его цель, оставляя возможность того, что его меса-цель несогласована.

В первом случае информация о базовой цели усваивается обученным алгоритмом через оптимизацию, выполняемую базовым оптимизатором – и оказывается встроена в меса-оптимизатор так же, как в базовый. Но есть другая возможность: информация о базовой цели может попасть к меса-оптимизатору через его канал ввода. В этом случае, базовая цель будет отображена в обученном алгоритме другим – потенциально менее стабильным, чем в предыдущем случае – способом4. Тогда информация, описывающая базовую цель может не стать принятой в качестве меса-цели, что потенциально может привести к обманчивой согласованности.

4.1. Беспокойства о безопасности, связанные с обманчивой согласованностью

Если обманчивая согласованность действительно возможна, то она представляет критическую проблему безопасности. Обманчиво согласованный меса-оптимизатор, вероятно, перестанет оптимизировать базовую цель как только окажется в позиции, где ему больше не нужно будет хорошо с ней справляться для достижения своей цели. То есть, он в некоторый момент перестанет выполнять функцию, на которую обучен, и вместо этого станет преследовать свою неопределённую цель. Мы будем называть этот переход к оптимизации меса-цели вместо базовой «предательством». Это вероятно произойдёт, когда меса-оптимизатор станет убеждён, что предательство больше не приведёт к его модификации.

Особое беспокойство во вызывает возможность, что меса-оптимизатор активно вмешается для устранения угрозы модификации – например, эксплуатируя уязвимости в программной платформе, на которой запущен. В крайних случаях обманчивый меса-оптимизатор может попробовать манипулировать или перехитрить своих программистов, поскольку в них часть угрозы модификации – они могут выключить систему, если она будет плохо работать, или могут просто решить её не разворачивать. Обе возможности уменьшают ожидаемое будущее влияние системы, так что, вероятно, они будут плохо оцениваться её меса-целью. В самой экстремальной форме этот провал согласования может привести к «предательскому повороту», как описано Ником Бостромом в «Суперинтеллекте».(23)

Пол Кристиано представил сценарий, иллюстрирующий, как обманчивая согласованность может привести к катастрофическому риску.(24) В его примере обманчиво согласованные меса-оптимизаторы5 возникают в будущих техниках машинного обучения, достаточно продвинутых для поиска в очень большом пространстве моделей, включающем стратегии, способные понимать мир. В этом сценарии некоторые случаи предательства обманчиво согласованных меса-оптимизаторов могут иметь катастрофические последствия – к примеру, если системы контролируют крупномасштабную инфраструктуру – хотя такие провалы, вероятно, будут всё же переживаемыми. По мере того, как мы будем всё больше полагаться на автоматические системы для работы в всё более сложном мире, будет становиться всё сложнее – а с некоторого момента невозможно – восстановиться после скоординированного одновременного провала многих ИИ-систем. В этот момент каскад предательств обманчиво согласованных меса-оптимизаторов может привести к «взрывному концу света».(24) Кристиано отмечает, что это наиболее вероятно в «период повышенной уязвимости» вроде международного конфликта или природного бедствия.

4.2. Условия обманчивой согласованности

Мы предполагаем, что для обманчивой согласованности необходимы условия:

  1. Меса-оптимизатор имеет цель, выходящую за пределы обновления параметров.6
  2. Меса-оптимизатор способен смоделировать и то, что его отбирают по достижению определённой базовой цели, и саму эту цель.7
  3. Меса-оптимизатор ожидает, что угроза модификации8 в какой-то момент закончится, либо из-за конца обучения, либо из-за действий, им предпринятых.

Если первое условие не удовлетворено, то меса-оптимизатор не мотивирован влиять на исход обновления параметров, и будет всегда просто напрямую преследовать свою меса-цель. Если второе условие не удовлетворено, то он не будет видеть причины жертвовать достижением своей цели в текущем эпизоде, так как не будет считать, что её будущее достижение зависит от текущего эпизода. Если третье условие не удовлетворено, то меса-оптимизатор не будет ожидать выгоды от временного действия в соответствии с базовой целью, так что он будет отклоняться от неё либо всегда, либо никогда. Однако, стоит различать вопрос того, возможно ли выполнение этих условий, от вопроса, насколько оно вероятно. Ниже мы рассмотрим факторы, касающиеся каждого из них.

Меса-оптимизатор имеет цель, выходящую за пределы обновления параметров. Не ясно, какие обстоятельство мотивируют такие цели. Наиболее правдоподобным сценарием, наверное, является тот, в котором такая цель поощряется настройками обучения, так как есть ситуации, в которых она требуется для хорошей работы. К примеру, задача агента может решаться в окружении, в котором его действия имеют перманентные последствия, или где как-то иначе становится необходимым планирование более чем на один эпизод.

Меса-оптимизатор способен смоделировать и то, что его отбирают по достижению определённой базовой цели, и саму эту цель. У меса-оптимизатора может быть несколько способов узнать об оптимизационном давлении, под которым он находится.9

Во-первых, это знание может проистекать из самого давления. Отрывки информации о базовой цели могут быть выгодными, если они позволяют меса-оптимизатору улучшить свою оценку согласно этой цели – к примеру, улучшив априорные оценки того, какие задачи он может получить. Раз каждый отрывок информации независимо помогает в достижении базовой цели, это формирует приблизительно монотонно возрастающий путь, которому локальный базовый оптимизатор будет следовать. Обновление параметров может, в принципе, быть выучено как любой другой динамический элемент, без необходимости явной модели базового оптимизатора, что потенциально открывает доступ к этому даже меса-оптимизаторам весьма скромных способностей.

Во-вторых, во многих реалистичных приложениях продвинутого машинного обучения, меса-оптимизатор может во время выполнения использовать информацию из своего окружения для изучения своего положения. Люди так и узнали, что сгенерированы базовым оптимизатором эволюции, и это кажется очень правдоподобным путём открытия своего оптимизационного давления для гипотетического меса-оптимизатора. К примеру, агент, чья задача – предсказывать цены на акции в технологическом секторе, может получать информацию о нынешних технологиях ИИ для улучшения качества его работы, но эта информация также может позволить ему изучить своё собственное положение.

Из этого можно сделать предположение, что программистам желательно ограничивать меса-оптимизатору доступ к информации, описывающей его базовую цель. Неясно, в какой степени это возможно, учитывая, что многие продвинутые системы машинного обучения скорее всего будут действовать в окружениях, где эта информация легко доступна.

Однако, даже если программисты успешно ограничили доступ к этой информации, всё равно могут быть другие каналы, через которые она может ненамеренно попасть к меса-оптимизатору:

  • Меса-оптимизатор может рассуждать о том, почему ему дали решать конкретные задачи. Большинству меса-оптимизаторов необходимы априорные оценки того, какие задачи они могут получить, и меса-оптимизатор может узнать о существовании базового оптимизатора, исследуя эти оценки.
  • Меса-оптимизатор может быть способен рассуждать о себе и том, почему он такой как есть, и понять, что он хорошо спроектирован для выполнения некой цели.

Однако, эти две стратегии могут потребовать намного более продвинутого меса-оптимизатора.

Меса-оптимизатор ожидает, что угроза модификации в какой-то момент закончится, либо из-за конца обучения, либо из-за действий, им предпринятых. Во-первых, заметим, что это условие про ожидания меса-оптимизатора, не обязательно совпадающие с реальным положением дел. Во-вторых, даже если система устроена так, что момента конца обучения нет, у меса-оптимизатора всё ещё может быть возможность избавиться от угрозы модификации, совершить предательский поворот. Но, конечно, для того, чтобы меса-оптимизатор следовал такой стратегии, он должен быть осведомлён о существовании этой возможности. При этом меса-оптимизатор, ошибочно считающий, что эта возможность есть, тоже может проявлять обманчивую согласованность.

Поскольку такую возможность кажется сложным открыть просто исследованием окружения, меса-оптимизатору придётся либо вывести это некой формой абстрактных рассуждений, либо иметь априорную не-пренебрежимую оценку вероятности того, что давление отбора не продолжится сколь угодно долго. Второй вариант выглядит правдоподобно; Байесианская априорная оценка вероятности гипотезы того, что какой-то факт когда-нибудь перестанет быть истинным, всегда должна быть ненулевой.10 Что касается первого, меса-оптимизатор может вывести, что оптимизационное давление в какой-то момент прекратится, если он узнает о существовании базового оптимизатора (используя информацию из ввода или имея высокую априорную оценку), хоть это возможно и потребует, чтобы он был весьма продвинутым.

4.3. Динамика обучения при обманчивой согласованности

Когда меса-оптимизатор становится обманчивым, меняется динамика того, что заставляет его хорошо справляться с базовой целью. Вместо того, чтобы быть отобранным только на основе своей цели и способностей, обманчиво согласованный оптимизатор отбирается ещё и по тому, насколько хорошо он выводит базовую цель, и насколько он проницателен в выборе, оптимизировать ли базовую цель или свою собственную. Есть как минимум два возможных режима отбора обманчиво согласованного меса-оптимизатора.

Совместная оптимизация. Если меса-оптимизатор пытается совместно оптимизировать свою цель и базовую, или ошибочно выбирает момент предательства, то он будет находиться под давлением отбора в сторону большей совместимости его цели с базовой. Вряд ли это будет таким же давлением, как если бы он просто работал над своей целью, но оно может сдвигать его цель в сторону лучшей совместимости.

Чистый обман. Если меса-оптимизатор перестаёт пытаться оптимизировать свою собственную цель в краткосрочной перспективе и полностью сосредотачивается на кооперации с процессом отбора, то это может привести к «заморозке» его цели. Раз его цель теперь не влияет на его вывод, на неё слабо действует давление отбора. В результате, она по сути перестаёт меняться, за исключением случайных блужданий и влияния штрафов за время работы и длину описания.

Случай совместной оптимизации нестабилен, поскольку он неоптимален с точки зрения базового оптимизатора. При росте компетентности меса-оптимизатора, ему придётся либо перейти к чистому обману, либо стать устойчиво согласованным.

4.4. Усвоение или обман после продолжительного обучения

Мы ожидаем, что в пределе обучения на разнообразном наборе задач совместная оптимизация и базовой и меса- целей будет нестабильна. Предполагая, что меса-оптимизатор сходится к оптимальному с точки зрения базового оптимизатора поведению, ему придётся как-нибудь выучить базовую цель. Мы выделили три пути, которыми это может произойти:

  1. Устойчивая согласованность через усвоение. Меса-цель подгоняется под базовую, что устраняет псевдо-согласованность.
  2. Заморозка обманчивой согласованности. Информация о базовой цели всё больше встраивается в эпистемическую модель меса-оптимизатора без того, чтобы его цель стала устойчиво согласованной. В итоге меса-оптимизатор оптимизирует только базовую цель, но по исключительно инструментальным причинам, его меса-цель не меняется.
  3. Устойчивая согласованность через исправимость. Информация о базовой цели встраивается в эпистемическую модель меса-оптимизатора, и его цель модифицируется так, чтобы «указывать» на эту информацию. Эта ситуация соответствует меса-оптимизатору, исправимому(25) в отношении базовой цели (хотя не обязательно в отношении намерений программиста).

Для различия между двумя разными способами устойчивой согласованности мы будем использовать термин «встроенная согласованность» в первом случае и «исправимая согласованность» во втором. Ниже мы проанализируем, почему они могут быть более или менее привлекательны.

К обманчивой согласованности больше путей, чем у устойчивой. У меса-оптимизатора, удовлетворяющего трём критериям обманчивой согласованности вероятно будет сильная мотивация лучше понимать базовую цель, поскольку будущее выполнение меса-цели зависит от обновления параметров. Даже устойчиво согласованный меса-оптимизатор, удовлетворяющий этим критериям, будет иметь такую мотивацию, потому что без этого понимания он не может знать свой собственный уровень согласованности с базовым оптимизатором. Так что меса-оптимизаторы, способные рассуждать о своих мотивациях, будут пытаться заполучить больше информации о базовой цели. А когда меса-оптимизатор узнал свою базовую цель, давление отбора на его собственную цель значительно ослабевает, что потенциально ведёт к заморозке его меса-цели. Однако, из-за неразличимости (обсуждённой в третьем посте), большинство меса-целей, согласованных на обучающих данных будет псевдо-согласованными, а не устойчиво согласованными. Так что замороженная цель скорее всего окажется псевдо-согласованной, что приведёт к обманчивому согласованию.

Для исправимой согласованности, вероятно, необходимо уже иметь модель базовой цели. Чтобы исправимая согласованность была выгодна с точки зрения базового оптимизатора, меса-оптимизатору необходимо уже иметь какую-нибудь модель базовой цели, чтобы на неё «указывать». Однако, когда эта модель есть, то меса-оптимизатор, вероятно, станет обманчиво-согласованным – по крайней мере, если он также удовлетворяет двум другим условиям. А это избавит его от большей части стимулов к исправимой согласованности, так что хоть он и может остаться исправимым в отношении базовой цели, но только по инструментальным причинам.

Обманчивая и исправимая согласованности могут быть более вычислительно требовательными. В случае обманчивой согласованности, одновременная работа над базовой целью и над определением хороших возможностей предательства, вероятно, потребует больше вычислительной мощности, чем только первая. При равных доступных вычислительных мощностях, обманчиво согласованный меса-оптимизатор будет тратить на оптимизацию базовой цели меньше времени, чем любой устойчиво согласованный оптимизатор, что потенциально ухудшит его сравнительную компетентноть. Более того, и обманчиво, и исправимо согласованный меса-оптимизатор будет вынужден изучать базовую цель перед её оптимизацией, что делает усвоенную согласованность более эффективной по времени. Так что явный или неявный штраф за время работы может помешать возникновению обманчиво согласованных меса-оптимизаторов и способствовать согласованным устойчиво. Впрочем, неясно, насколько сильно. Правдоподобно, что для сложных задач отслеживание возможностей предательства может занимать куда меньше времени в сравнении с решением самой задачи. Более того, такое состояние обманчивой согласованности может быть локально, пусть и не глобально, оптимальным, без явных путей выхода из него для базового оптимизатора.

Обманчивая и исправимая согласованность могут требовать меньшей длины описания. Обманчиво и исправимо согласованные меса-оптимизаторы, вероятно, имеют преимущество над встроенно согласованными в длине представления базовой цели, потому что они могут использовать окружение как источник части необходимой для этого информации. Конкретнее, обманчиво или исправимо согласованному меса-оптимизатору не требуется отображать всю базовую цель внутри себя, так как он может выводить её части, наблюдая за своим окружением при каждом запуске. Напротив, внутренне согласованный меса-оптимизатор должен с самого начала иметь полную модель базовой цели в своей меса-цели, чтобы быть устойчиво согласованным, поскольку у него не будет мотивации поменять свою цель исходя из дополнительной информации, которую он получит о базовой цели. Так что, в той степени, в которой базовый оптимизатор отбирает, основываясь на длине описания, он может предпочитать обманчиво или исправимо согласованные меса-оптимизаторы встроенно согласованным.

Моделирование может произойти быстрее, чем встраивание. У меса-оптимизатора может занять меньше времени научиться моделировать базовую цель, чем у базового оптимизатора – адаптировать меса-цель. Представим обманчивый меса-оптимизатор, который пока что не полностью правильно вывел базовую цель.11 В таком случае, станет ли он обманчиво или устойчиво согласованным после дальнейшего обучения, зависит от того, выведет ли он достаточно о базовой цели до того, как базовый оптимизатор модифицирует его меса-цель (сделав его встроенно или исправимо согласованным). Вероятно, на то, что произойдёт первым, влияют два фактора: скорость улучшения оценок базовой целим меса-оптимизатором и обновления параметров, которые делает базовый оптимизатор при каждой ошибке.

Первый фактор, улучшение оценок базовой цели, кажется зависящим в первую очередь от способностей меса-оптимизатора в то время, когда он обманчивый, и от сложности базовой цели, которую надо вывести. Важный особый случай – когда меса-оптимизатор имеет доступ к состоянию чего-то передающегося между эпизодами обучения. Оно может быть использовано как память, позволяя меса-оптимизатору основываться на своих предыдущих рассуждениях, что может ему позволить обогнать обновления параметров, согласующие его меса-цель.

Второй фактор обновления параметров зависит от природы базового оптимизатора. Нынешние базовые оптимизаторы, основанные на градиентном спуске, слабо реагируют на единичную ошибку, но более сложные базовые оптимизаторы с продвинутыми свойствами безопасности будут, может быть, справляться лучше. К примеру, они, возможно, смогут анализировать параметры меса-оптимизатора или вызывать человеческую проверку при обнаружении подозрительной ошибки.

В общем случае обновления параметров не обязательно будут делать меса-оптимизатор более согласованным. К примеру, вместо согласования меса-цели, обновление, сделанное после предательства, может подтолкнуть систему к улучшению её планирования, чтобы она больше не делала обнаружимых ошибок.

Вследствие всех этих соображений, любая систематическая склонность базового оптимизатора при обновлении цели или моделирующих способностей меса-оптимизатора может играть роль в определении финального результата.12 Этот анализ, однако, остаётся довольно умозрительным: чтобы быть уверенными в системах, способных создавать меса-оптимизаторы, нам ещё нужно достичь лучшего понимания условий, при которых мощная оптимизация системы приведёт к обманчивой согласованности, а не устойчивой.

4.5. Сдвиг распределения и обманчивая согласованность

Когда меса-оптимизатор становится обманчивым, он начинает просматривать свой ввод в поисках возможностей предательства. При обучении обманчиво согласованный оптимизатор сильно стимулирован не предавать, потому что он знает, что базовый оптимизатор будет совершать отбор против предательства. Однако это перестаёт на него влиять, когда он освобождается от угрозы внешней модификации. Так что обманчиво согласованный меса-оптимизатор будет искать способы определить, находится ли он в процессе обучения или нет, то есть он будет высматривать сдвиг распределения.

Это означает, что негативные эффекты обманчивой согласованности будут видны извне только при предательстве, либо случайном, либо после сдвига распределения. Однако, лежащая в основе проблема – это не сам сдвиг, а провал согласования. Можно пытаться решить основную проблему, сделав меса-оптимизатор устойчивым к сдвигу распределения (то есть, устойчиво согласованным), или же можно пытаться решить проблему заплаткой, предотвратив сдвиг.

В нынешних ИИ-системах небольшой сдвиг распределения между обучением и развёртыванием не обязательно проблематичен: пока разница в относящихся к работе областях достаточно мала, обучающее распределение не обязано идеально отображать настоящее. Однако, это может быть не так для обманчиво согласованных меса-оптимизаторов. Если такой оптимизатор достаточно продвинут, то он может заметить очень лёгкие сдвиги распределения для определения того, прекратилась ли угроза модификации.

Это поднимает вопрос, возможно ли сдержать обманчивый меса-оптимизатор, полностью избавившись от любой разницы между обучением и развёртыванием, которую он может заметить. Есть несколько причин считать, что это может быть невыполнимо на практике.

Во-первых, это бы значительно ограничило применимость системы. Машинное обучение зачастую проводится с намерением создать систему, которая сможет решать новые задачи. Если мы потребуем полного отсутствия сдвига распределения, то мы не сможем позволить системе сталкиваться с задачами, которые она не встречала при обучении, что означает, что мы не сможем дать ей по-настоящему новые задачи. К примеру, развёртывание системы в реальном мире после обучения в симулированном окружении скорее всего будет включать достаточно заметный сдвиг распределения, чтобы это стало невозможным при таком подходе.

Во-вторых, есть лёгкие формы сдвига распределения, от которых, кажется, очень сложно избавиться. К примеру, если меса-оптимизатор способен детектировать обновления параметров – с помощью любого состояния, переносимого между шагами обучения – то некая форма сдвига распределения произойдёт точно. Запуск системы на большее время (или выдача системе доступа к долговременной памяти) тоже приведёт к сдвигу. Некоторые примеры разницы, которую может заметить меса-оптимизатор:

  • Обучение в симуляции, а запуск в реальном мире.
  • Запуск системы на разное время при обучении и тестировании.
  • Если модель способна обучаться из прошлого опыта, то доступ к большей памяти или доступ к памяти, которая могла сформироваться на более позднем этапе выполнения.
  • Присутствие атак состязательными примерами при развёртывании.
  • Встреча с чем-то, что очень сложно вычислить при обучении, но что вероятно когда-нибудь будет вычислено при развёртывании (к примеру, факторизация RSA 2048(26)).
  • Способность базового оптимизатора модифицировать обученный алгоритм при обучении, но не после него.
  • Способность программистов корректировать ошибки при обучении и тестировании, но не при развёртывании.
  • Присутствие или отсутствие хороших возможностей предательства против программистов.

Заметим, что для обманчивого поведения меса-оптимизатору не строго обязательно видеть разницу между обучением и развёртыванием.

Рассмотрим снова пример с рисунка 4.1, но в этот раз предположим, что меса-оптимизатор неспособен определить, в каком эпизоде он находится. Тогда он оказывается перед проблемой принятия решений, похожей на «задачу рассеянного водителя».(27) Если мы применим тут такие же рассуждения, то оптимальной стратегией для меса-оптимизатора будет предать с вероятностью p≈0.61. То есть, меса-оптимизатору не обязательно быть в состоянии определить, когда закончилось обучение, для того чтобы рискнуть и случайно предать с некоторой вероятностью. Также обманчиво согласованный меса-оптимизатор может выискивать возможности предательства, которые были бы очень удачными, при условии, что он не в процессе обучения, но при этом достаточно редкими, чтобы их возникновение в ходе обучения было маловероятным.

Глоссарий | Библиография

  • 1. Для ясности мы говорим об одном и том же агенте, переживающем обновления параметров, но ни мы, ни агент не обязаны рассуждать именно так. Более общее описание ситуации включает последовательность «наследующих агентов», разделённых обновлениями параметров. Агент потенциально может узнать об эффектах обновления на его наследников, и, следовательно, на достижение его цели на протяжении многих эпизодов.
  • 2. Концепт обманчивой согласованности тесно связан с концептом Манхейма и Гаррабранта «состязательного Гудхарта». (22) В «Категоризации вариантов закона Гудхарта» они описали эту ситуацию как «агент с другими целями, чем у регулятора» вызывает «коллапс статистической взаимосвязи между целью, преследуемой оптимизатором, и используемой для неё прокси-цели». Обманчивая согласованность можно рассматривать как частный случай состязательного Гудхарта, в котором меса-оптимизатор играет роль агента с отличающимися целями, а базовый оптимизатор – роль регулятора. Качественное достижение цели при обучении – это прокси-цель регулятора, а при развёртывании – настоящая.
  • 3. Благодарим Пола Кристиано за это разделение.
  • 4. Заметим, однако, что информация о базовой цели может быть представлена через оптимизацию, но не стать при этом частью меса-цели. К примеру, она может стать частью априорных оценок задач, не оказывая на меса-цель прямого влияния.
  • 5. Кристиано называет обманчиво согласованные меса-оптимизаторы «ищущими-влияние системами».
  • 6. Или иным образом иметь метод достижения большей ценности, предав позже, а не сейчас.
  • 7. Заметим, что меса-оптимизатору не требуется быть способным моделировать (или выводить существование) базового оптимизатора, только моделировать оптимизационное давление.
  • 8. Альтернативно, как угрозу можно представить просто, что меса-оптимизатор никогда не будет отобран, тогда это условие становится тривиально удовлетворённым, ведь угроза автоматически прекращается при генерации меса-оптимизатора.
  • 9. Мы в целом будем предполагать, что давление отбора выглядит так: базовый оптимизатор модифицирует меса-оптимизатор после каждого эпизода, как обычно и рассматриваются локальные оптимизационные процессы. Но в принципе можно представить и базовый оптимизатор, вырабатывающий новый алгоритм на каждом временном шагу. Некоторые из обсуждаемых проблем могут касаться и этого случая, но в целом мы не рассматриваем здесь этот вариант.
  • 10. Заметим, что если меса-оптимизатор убеждён, что сейчас у него необычно хорошие возможности для достижения своей цели, то он может всё же начать преследовать её, но такой случай возникает не всегда.
  • 11. Можно привести аналогичный аргумент для обманчиво согласованного меса-оптимизатора, предающего слишком рано или неудачно.
  • 12. Кроме того, обманчиво согласованный меса-оптимизатор будет мотивирован создать систематическую склонность, предотвращающую изменение меса-цели базовым оптимизатором. В контексте локальных оптимизационных процессов обманчивый меса-оптимизатор может «взломать» свой собственный градиент (например, сделав себя более «хрупким» при смене цели), чтобы удостовериться, что базовый оптимизатор подправит его так, чтобы оставить его меса-цель нетронутой.
Перевод: 
Максим Выменец
Оцените качество перевода: 
Голосов пока нет

Риски выученной оптимизации. Заключение и связанные работы

Эван Хубингер, Крис ван Мервик, Владимир Микулик, Йоар Скалсе, Скотт Гаррабрант

Связанные работы

Мета-обучение. Как было описано в первом посте, обычно мета-обучение – это мета-оптимизация, в явном виде спроектированная для достижения некой базовой цели. Однако, вместо этого возможно проводить мета-обучение, пытаясь применить меса-оптимизацию. К примеру, у «Обучении Обучения с Подкреплением» Ванга и пр. авторы заявляют, что создали нейросеть, которая сама проводит процедуру оптимизации себя же.(28) Конкретнее, они утверждают, что способность их нейросети решать крайне разнообразные окружения без явного переобучения для каждого означает, что она выполняет своё собственное внутреннее обучение. Другой пример – «RL2: Быстрое Обучение с Подкреплением через Медленное Обучение с Подкреплением» Дуана и пр., где авторы обучили алгоритм выполнять, по их заявлениям, собственное обучение с подкреплением.(5) Такое мета-обучение кажется ближе всего к созданию меса-оптимизаторов из всех существующих исследований машинного обучения.

Устойчивость. Система устойчива к сдвигу распределения, если она продолжает хорошо справляться с целевой функцией, которой обучена, даже за пределами обучающего распределения. (29) В контексте меса-оптимизации, псевдо-согласованность – это частный случай того, как обученная система может не быть устойчивой к сдвигу распределения: псевдо-согласованный меса-оптимизатор в новом окружении может всё ещё компетентно оптимизировать меса-цель, но не быть устойчивым из-за разницы между ней и базовой целью.

Конкретный вид проблемы устойчивости, происходящий с меса-оптимизацией – это расхождение награда-результат – между наградой, которой обучается система (базовая цель) и наградой, реконструированной из системы обратным обучением с подкреплением (поведенческая цель).(8) В контексте меса-оптимизации, псевдо-согласованность ведёт к этому расхождению из-за того, что поведение системы за пределами обучающего распределения определяется её меса-целью, которая в этом случае не согласована с базовой.

Впрочем, следует заметить, что хотя внутренняя согласованность – это проблема устойчивости, ненамеренное возникновение меса-оптимизаторов ею не является. Если цель базового оптимизатора – это не идеальное отображение целей людей, то предотвращение возникновения меса-оптимизаторов может быть предпочтительным исходом. В таком случае, может быть желательно создать систему, сильно оптимизированную для базовой цели в некой ограниченной области, но не участвующую в неограниченной оптимизации для новых окружений.(11) Возможный путь достижения этого – использовать сильную оптимизацию на уровне базового оптимизатора при обучении, чтобы предотвратить сильную оптимизацию на меса-уровне.

Неразличимость и двусмысленность целей. Как мы заметили в третьем посте, проблема неразличимости целевых функций в меса-оптимизации похожа на проблему неразличимости в обучении с подкреплением, ключевая деталь которой – то, что сложно определить «правильную» целевую функцию лишь по набору её выводов на неких обучающих данных. (20) Мы предположили, что если проблема неразличимости может быть разрешена в контексте меса-оптимизации, то, вероятно (хоть в какой-то мере) с помощью решений, похожих на решения проблемы неразличимости в обучении с подкреплением. Пример исследования, которое может быть тут применимо для меса-оптимизации – предложение Амина и Сингха (20) смягчения эмпирической неразличимости в обратном обучении с подкреплением с помощью адаптивной выдачи примеров из набора окружений.

Кроме того, в литературе об обучении с подкреплением замечено, что в общем случае функция вознаграждения агента не может быть однозначно выведена из его поведения. (30) В этом контексте, проблему внутренней согласованности можно рассматривать как расширение проблемы выучивания ценностей. Последняя – про набор достаточной информации о поведении агента, чтобы вывести его функцию полезности, а первая – про тестирование поведения обученного алгоритма в достаточной степени, чтобы удостовериться, что он имеет конкретную целевую функцию.

Интерпретируемость. Исследования интерпретируемости стремятся разработать методы, делающие модели глубинного обучения более интерпретируемыми для людей. В контексте меса-оптимизации, было бы выгодно иметь метод, определяющий, когда система выполняет какую-то оптимизацию, что она оптимизирует, и какую информацию она принимает во внимание в этой оптимизации. Это помогло бы нам понять, когда система может проявить нежелательное поведение, и помогло бы нам сконструировать обучающие алгоритмы, создающие давление отбора против появления потенциально опасных обученных алгоритмов.

Верификация. Исследования верификации в машинном обучении стремятся разработать алгоритмы, формально доказывающие, что система удовлетворяет некоторым свойствам. В контексте меса-оптимизации, было бы желательно иметь возможность проверить, выполняет ли обученный алгоритм потенциально опасную оптимизацию.

Нынешние алгоритмы верификации в основном используются для доказательства свойств, определённых отношениями ввода-вывода, вроде проверки инвариантов вывода с учётом определяемыми пользователем трансформаций ввода. Основная мотивация таких исследований – неудачи устойчивости в задачах распознавания изображений на состязательных примерах. Существуют и прозрачные алгоритмы, (31) например, «SMT solver», который в принципе позволяет верифицировать произвольное утверждение про активации сети,(32) и алгоритмы-«чёрные ящики»(33). Однако, применение таких исследований к меса-оптимизации затруднено тем фактом, что сейчас у нас нет формального определения оптимизации.

Исправимость. ИИ-система исправима, если она терпит или даже помогает своим программистам корректировать её.(25) Нынешний анализ исправимости сосредоточен на том, как определить функцию полезности такую, что если её будет оптимизировать рациональный агент, то он будет исправим. Наш анализ предполагает, что даже если такая исправимая целевая функция может быть определена или выучена, удостовериться, что система, ей обученная, действительно будет исправимой, нетривиально. Даже если базовая целевая функция была бы исправимой при прямой оптимизации, система может проявить меса-оптимизацию, и её меса-цель может не унаследовать исправимость базовой цели. Это аналогично проблеме безразличных к полезности агентов, создающих других агентов, которые уже не безразличны к полезности.(25) В четвёртом посте мы предложили связанное с исправимостью понятие – исправимую согласованность – применимое для меса-оптимизаторов. Если работа над исправимостью сможет найти способ надёжно создавать исправимо согласованные меса-оптимизаторы, то это сможет значительно приблизить решение задачи внутреннего согласования.

Всеохватывающие ИИ-Сервисы (CAIS).(11) CAIS – описательная модель процесса, в котором будут разработаны суперинтеллектуальные системы, и выводы о лучших для этого условиях. Совместимая с нашим анализом модель CAIS проводит явное разделение обучения (базовый оптимизатор) и функциональности (обученный алгоритм). CAIS помимо прочего предсказывает, что будут разрабатываться всё более и более мощные обобщённые обучающиеся алгоритмы, которые в многоуровневом процессе разработают сервисы суперинтеллектуальных способностей. Сервисы будут разрабатывать сервисы, которые будут разрабатывать сервисы, и так далее. В конце этого «дерева» будут сервисы, решающие конкретные конечные задачи. Люди будут вовлечены в разные слои процесса, так что смогут иметь много рычагов влияния на разработку финальных сервисов.

Высокоуровневые сервисы этого дерева можно рассматривать как мета-оптимизаторы для низкоуровневых. Однако, тут всё ещё есть возможность меса-оптимизации – мы определили как минимум два способа для этого. Во-первых, меса-оптимизатор может быть выработан финальным сервисом. Этот сценарий тесно связан с примерами, которые мы обсуждали в этой цепочке: базовым оптимизатором будет предфинальный сервис цепочки, а обученным алгоритмом (меса-оптимизатором) – финальный (или можно думать о всей цепочке от верхнего уровня до предфинального сервиса как о базовом оптимизаторе). Во-вторых, промежуточный сервис цепочки тоже может быть меса-оптимизатором. В этом случае, этот сервис будет оптимизатором в двух отношениях: мета-оптимизатором для сервиса ниже его (как по умолчанию в модели CAIS), но ещё и меса-оптимизатором для сервиса выше.

Заключение

В этой цепочке мы разъясняли существование двух основных проблем безопасности ИИ: того, что меса-оптимизаторы могут нежелательно возникнуть (ненамеренная меса-оптимизация), и того, что они могут не быть согласованными с изначальной целью системы (проблема внутреннего согласования). Впрочем, наша работа всё же довольно умозрительна. Так что у нас есть несколько возможностей:

  1. Если появление меса-оптимизаторов в продвинутых системах машинного обучения очень маловероятно, то меса-оптимизация и внутреннее согласование не предоставляют проблемы.
  2. Если появление меса-оптимизаторов не только вероятно, но и сложнопредотвратимо, то решение и внутреннего и внешнего согласования становится критическим для достижения уверенности в высокоспособных ИИ-системах.
  3. Если появление меса-оптимизаторов в будущих ИИ-системах вероятно по умолчанию, но есть способ его предотвращения, то вместо решения задачи внутреннего согласования, может быть лучшим выходом проектирование систем так, чтобы меса-оптимизаторы не появлялись. Кроме того, в таком сценарии может оказаться необязательным решение и некоторых частей внешнего согласования: если выполнение ИИ-системой оптимизационных алгоритмов может быть предотвращено, то может оказаться, что во многих ситуациях безопасно обучать систему цели, не идеально согласованной с намерениями программиста. То есть, если обученный алгоритм не является оптимизатором, то он может не оптимизировать цель до той крайности, где она перестаёт производить позитивные результаты.

Наша неуверенность по этому поводу – потенциально значимое препятствие на пути к определению лучших подходов к безопасности ИИ. Если мы не знаем относительной сложности внутреннего согласования и ненамеренной оптимизации, то неясно, как адекватно оценивать подходы, полагающиеся на решение одной или обеих этих проблем (как Итерированные Дистилляция и Усиление (34) или безопасность ИИ через дебаты(35)). Следовательно, мы предполагаем, что и важной и своевременной задачей для области безопасности ИИ является определение условий, в которых вероятно возникновение этих проблем, и техник их решения.

Глоссарий | Библиография

Перевод: 
Максим Выменец
Оцените качество перевода: 
Средняя оценка: 4 (3 votes)

Внутреннее Согласование. Объяснение, как будто тебе 12 лет

Рафаэль Харт

(Это – неофициальное объяснение Внутреннего Согласования, основанное на статье MIRI Риски Выученной Оптимизации в Продвинутых Системах Машинного Обучения (почти что совпадающей с цепочкой на LessWrong) и подкасте «Будущее Жизни» с Эваном Хубингером (Miri/LW). Оно предназначено для всех, кто посчитал цепочку слишком длинной/сложной/технической.)

Жирный курсив означает «представляю новый термин», а простой используется для смыслового выделения.

Что такое Внутреннее Согласование?

Давайте начнём с сокращённого ликбеза о том, как работает Глубинное Обучение:

  1. Выбираем задачу
  2. Определяем пространство возможных решений
  3. Находим хорошее решение из этого пространства

Если задача – «Найти инструмент, который может посмотреть на картинку, и определить, есть ли на ней кот», то каждый мыслимый набор правил для ответа на этот вопрос (формально, каждая функция из множества возможных наборов значений пикселей в множество {да, нет}) задаёт одно решение. Мы называем такое решение моделью. Вот пространство возможных моделей:

Поскольку это все возможные модели, большая их часть – полная бессмыслица:

Возьмём случайную – и с не меньшей вероятностью получим распознаватель машин, а не котов – но куда вероятнее, что получим алгоритм, который не делает ничего, что мы можем интерпретировать. Отмечу, что даже описанные на картинке примеры не типичны – большая часть моделей будут более сложными, но всё ещё не делающими ничего, связанного с котами. Но где-то там всё же есть модель, которая хорошо справляется с нашей задачей. На картинке это та, которая говорит «Я ищу котов».

Как машинное обучение находит такую модель? Способ, который не работает – перебрать все. Пространство слишком большое: оно может содержать больше 101000000 кандидатов. Вместо этого есть штука, которая называется Стохастический Градиентный Спуск (СГС). Вот как она работает:

СГС начинает с какой-то (скорее всего ужасной) модели и совершает шаги. На каждом шаге он переходит к другой модели, которая «близка» и, кажется немного лучше. В некоторый момент он останавливается и выводит самую недавнюю модель.1 Заметим, что в примере выше мы получили не идеальный распознаватель котов (красный квадратик), а что-то близкое к нему – возможно, модель, которая ищет котов, но имеет какие-то ненамеренные причуды. СГС в общем случае не гарантирует оптимальность.

«Реплики», которыми модели объясняют, что они делают – аннотации для читателя. С точки зрения программиста, это выглядит так:

Программист понятия не имеет, что делают модели. Каждая модель – просто чёрный ящик.2

Необходимый компонент СГС – способность измерить качество работы модели, но это делают, всё ещё относясь к ним, как к чёрным ящикам. В примере с котами, предположим, что у программиста есть куча картинок, каждая из которых аккуратно подписана «содержит кота» или «не содержит кота». (Эти картинки называют обучающими данными, а такой процесс называют обучением с учителем.) СГС проверяет, как хорошо модели работают на этих картинках, и выбирает те, которые работают лучше. Есть альтернативные способы, в которых качество работы измеряют иначе но принцип остаётся тем же.

Теперь предположим, что оказалось, что наши картинки содержат только белых котов. (и, видимо, не содержит белых четверолапых не-котов – прим. пер.) В этом случае, СГС может выбрать модель, исполняющую правило «ответить да, если на картинке есть что-то белое с четырьмя лапами». Программист не заметит ничего странного – он увидит только, что модель, выданная СГС хорошо справляется с обучающими данными.

Получается, если наш путь получения обратной связи работает не совсем правильно, то у нас есть проблема. Если он идеален – если картинки с котами идеально отображают то, как выглядят картинки с котами, а картинки без котов – как выглядят картинки без котов, то проблемы нет. Напротив, если наши картинки с котами не репрезентативны, поскольку все коты на них белые, то выданная СГС модель может делать не в точности то, что хочет программист. На жаргоне машинного обучения, мы бы сказали, что обучающее распределение отличается от распределения при развёртывании.

Это и есть Внутреннее Согласование? Не совсем. Это было о свойстве, которое называют устойчивостью распределения, и это хорошо известная проблема в машинном обучении. Но это близко.

Чтобы объяснить само Внутреннее Согласование, нам придётся перейти к другой ситуации. Предположим, что вместо задачи определения, содержат ли картинки котов, мы пытаемся обучить модель проходить лабиринт. То есть, мы хотим получить алгоритм, который, если ему дать произвольный решаемый лабиринт, выводит путь от Входа к Выходу.

Как и раньше, наше пространство возможных решений будет состоять в основном из бессмыслицы:

(В лабиринте «Поиск в глубину» — это то же самое, что правило «Всегда иди налево» (видимо, имеются в виду лабиринты без циклов – прим. пер.).)

Аннотация «Я выполняю поиск в глубину» означает, что модель содержит формальный алгоритм, выполняющий поиск в глубину, аналогично с другими аннотациями.

Как и в предыдущем примере, мы можем применить к этой задаче СГС. В этом случае, механизм обратной связи будет оценивать модель на тестовых лабиринтах. Теперь предположим, что все тестовые лабиринты выглядят вот так:

Красные отрезки означают двери. То есть, все лабиринты таковы, что кратчайший путь идёт через все красные двери, и сам выход – тоже красная дверь.

Смотря на это, можно понадеяться, что СГС найдёт модель «поиска в глубину». Однако, хоть эта модель и найдёт кратчайший путь, это не лучшая модель. (Отметим, что она сначала выполняет поиск, а потом, найдя правильный путь, отбрасывает все тупики и выводит только кратчайший путь.) Альтернативная модель с аннотацией «выполнить поиск в ширину следующей красной двери, повторять вечно» будет справляться лучше. (Поиск в ширину означает исследование всех возможных путей параллельно.) Обе модели всегда находят кратчайший путь, но модель с красными дверьми находит его быстрее. В лабиринте с картинки выше она бы сэкономила время при переходе от первой ко второй двери, обойдясь без исследования нижней левой части лабиринта.

Заметим, что поиск в ширину опережает поиск в глубину только потому, что может избавиться от лишних путей после нахождения красной двери. Иначе бы он ещё долго не знал, что нижняя левая часть не нужна.

Как и в предыдущем случае, всё что увидит программист – левая модель лучше справляется с обучающими данными (тестовыми лабиринтами).

Качественное отличие от примера картинок с котами в том, что в этом случае мы можем рассматривать модель как исполняющую оптимизационный процесс. То есть, модель поиска в ширину сама имеет цель (идти через красные двери), и пытается оптимизировать её в том смысле, что ищет кратчайший путь к выполнению этой цели. Аналогично, модель поиска в глубину – оптимизационный процесс с целью «найти выход из лабиринта».

Этого достаточно, чтобы определить Внутреннее Согласование, но чтобы получить определение, которое можно найти где-нибудь ещё, давайте определим два новых термина:

  • Базовая Цель – это цель, которую мы используем для оценивания моделей, найденных СГС. В первом примере она была «правильно классифицировать картинки» (т.е. сказать «есть кот», если на картинке есть кот, и «нет кота» в противном случае). Во втором примере она – «найти кратчайший путь через лабиринт как можно быстрее».
  • В случаях, когда модель выполняет оптимизационный процесс, мы называем её Меса-Оптимизатором, а её цель Меса-Целью (в примере с лабиринтом меса-цель – «найти кратчайший путь через лабиринт» для модели поиска в глубину и «найти путь к следующей красной двери, затем повторить» для модели поиска в ширину).

С учётом этого:

Внутреннее Согласование – это задача согласования Меса-Цели и Базовой Цели.

Некоторые разъясняющие замечания:

  • Пример с красными дверьми надуманный и не произошёл бы на практике. Он иллюстрирует только что такое Внутреннее Согласование, но не почему несогласованность может быть вероятна.
  • Можно спросить, что из себя представляет пространство всех моделей. Типичный ответ: возможные модели – это наборы весов *нейросети. Проблема существует пока часть наборов весов выполняет некоторые алгоритмы поиска.
  • Как и раньше, причиной провала внутреннего согласования был недостаток нашего способа получения обратной связи (на языке машинного обучения: наличие сдвига распределения). (Однако, несогласованность может возникать и по другим очень сложным причинам.)
  • Если Базовая Цель и Меса-Цель не согласованы, это вызовет проблемы при развёртывании модели. Во втором примере, когда мы возьмём модель, выданную СГС и применим её к реальным лабиринтам, она продолжит искать красные двери. Если эти лабиринты не содержат красных дверей, или если красные двери не всегда будут вести к выходу, то модель будет работать плохо.

Проиллюстрируем диаграммой Эйлера-Венна. (Относительные размеры ничего не значат.)

Заметим, что {Что пытается сделать ИИ} = {Меса-Цель} по определению.

Большая часть классических обсуждений согласования ИИ, включая большую часть книги Суперинтеллект, касается Внешнего Согласования. Классический пример – где мы представляем, что ИИ оптимизирован, чтобы вылечить рак, и поэтому убивает людей, чтобы больше ни у кого не было рака – про несогласованность {Того, что хотят программисты} и {Базовой Цели}. (Базовая Цель это {минимизировать число людей, у которых рак}, и хоть не вполне ясно, чего хотят программисты, но точно не этого.)

Стоит признать, что эта модель внутреннего согласования не вполне универсальна. В этом посте мы рассматриваем поиск по чёрным ящикам, с параметризованной моделью и СГС, обновляющим параметры. Большая часть машинного обучения в 2020-м году подходит под это описание, но эта область до 2000 года – нет, и это снова может так стать в будущем, если произойдёт сдвиг парадигмы, сравнимый с революцией глубинного обучения. В контексте поиска по чёрным ящикам внутренняя согласованность – хорошо определённое свойство, и диаграмма выше хорошо показывает разделение задач, но есть люди, ожидающие, что СИИ будет создан не так.3 Есть даже конкретные предложения безопасного ИИ, к которым неприменим этот концепт. Эван Хубингер написал пост о том, что он назвал «историями обучения», предназначенный определить «общий подход оценки предложений создания безопасного продвинутого ИИ».

Аналогия с Эволюцией

Касающиеся Внутреннего Согласования аргументы часто отсылают к эволюции. Причина в том, что эволюция – оптимизационный процесс, она оптимизирует совокупную генетическую приспособленность. Пространство всех моделей – это пространство всех возможных организмов.

Люди точно не лучшая модель в этом пространстве – я добавил аннотацию справа снизу, чтобы обозначить, что есть пока не найденные лучшие модели. Однако, люди – лучшая модель, которую эволюция уже обнаружила.

Как в примере лабиринта, люди сами выполняют оптимизационные процессы. Так что мы можем назвать их/нас Меса-Оптимизаторами, и может сравнить Базовую Цель (которую оптимизирует эволюция) с Меса-Целью (которую оптимизируют люди).

  • Базовая Цель: максимизировать совокупную генетическую приспособленность
  • Меса-Цель: избегать боли, искать удовольствие

(Это упрощено – некоторые люди оптимизируют другие штуки, такие как благополучие всех возможных разумов во вселенной, но они не ближе к Базовой Цели.)

Можно увидеть, что люди не согласованы с базовой целью эволюции. И легко видеть, почему – Эван Хубингер объяснял это, предлагая представить альтернативный мир, в котором эволюция отбирала внутренне согласованные модели. В таком мире ребёнок, стукнувшийся пальцем, должен вычислить, как это затрагивает его совокупную генетическую приспособленность, чтобы понять, повторять ли в будущем такое поведение. Это было бы очень вычислительно затратно, тогда как цель «избегать боли» немедленно сообщает ребёнку, «стукаться пальцем = плохо», что куда дешевле и обычно является правильным ответом. Так что несогласованная модель превосходит гипотетическую согласованную. Другой интересный аспект в том, что степень несогласованности (разница между Базовой Целью и Меса-Целью) увеличилась в последние несколько тысячелетий. Цели были довольно близки в окружении наших предков, но сейчас они разошлись настолько, что нам приходится платить людям за сдачу спермы, что, согласно Базовой Цели, должно быть очень желательным действием.

Получается, эта аналогия – аргумент в пользу того, что Внутренняя Несогласованность вероятна, поскольку она «естественным путём» получилась в ходе самого большого известного нам нечеловеческого оптимизационного процесса. Однако, стоит предостеречь, что эволюция не исполняет Стохастический Градиентный Спуск. Эволюция путешествует по пространству моделей, производя случайные мутации и оценивая их результат, что фундаментально отличается (и в миллиард раз менее эффективно), чем модифицировать модель согласно ожидаемой производной функции оценки, как делает СГС. Так что, хоть аналогия и работает в целом, она перестаёт работать с аргументами, полагающимися на свойства СГС кроме того, что он оптимизирует Базовую Цель.

Обманчивая Согласованность

Это сокращённая версия четвёртого поста цепочки. Я оставляю ссылку на него потому что это, наверное, та часть, где опускание технических деталей наиболее проблематично.

Концепт

В этом разделе мы делаем следующие предположения:

  • Задача, поставленная перед моделями сложна, так что они очень сложны. Представляйте скорее систему, отвечающую на вопросы, а не классификатор картинок.
  • Вместо простого обучающего процесса мы со временем обновляем модель.
  • Обучающий процесс выберет Меса-Оптимизатор.
  • Базовая Цель сложно устроена, и модель не усвоила её правильно сразу же (т.е. модель изначально не является внутренне согласованной).

Раз модель сложна, мы предполагаем, что она строит некую модель мира. Подумайте о GPT-3 (языковая модель, которая может писать текст): она явно распознаёт, пишете вы её заготовку про Властелина Колец или про политику. Это демонстрирует, что у неё есть внутренняя модель этих штук, пусть неправильная и неполная.

Так что, если мы посмотрим внутрь модели (что, опять же, программисты сделать не могут), то там будут эти два компонента:

Напомню, что мы предположили, что модель является Меса-Оптимизатором, так что мы знаем, что у неё есть цель. Эта Меса-Цель обозначена красным кружком.

По мере улучшения модели мира, она в какой-то момент начинает включать в себя модель Базовой Цели. Напомню, что Базовая Цель – то, что оптимизирует СГС.

Я нарисовал фиолетовый кружок – модель базовой цели – больше, чем меса-цель, потому что мы предположили, что базовая цель довольно сложно устроена.

СГС пытается улучшить модель, и если то, что оптимизирует модель, станет более похожим на Базовую Цель, то модель станет лучше. Так что, мы предполагаем, что модель так и изменится. Дальше можно представить три разных способа, как это может произойти, они проиллюстрированы ниже:

Первый называется Усвоенной Согласованностью. Модель принимает Базовую Цель как свою.

Второй называется Исправимой Согласованностью. Меса-Цель больше не представлена явно – вместо этого она указывает на часть модели мира, отображающую Базовую Цель.

Третий называется Обманчивой Согласованностью. Тут Меса-Цель остаётся отличной от Базовой Цели, но модель выбирает всё же оптимизировать Базовую Цель, поскольку это заставляет обучающую процедуру считать модель согласованной. Пунктирная стрелка не обозначает ни что Меса-Цель совпадает с Базовой, ни что Меса-Цель представляет из себя указатель на Базовую, а то, что модель оптимизирует Базовую Цель по инструментальным причинам, т.е. как часть стратегии оптимизации Меса-Цели.

Для возможности обманчивой согласованности требуется, чтобы (а) модель знала, что находится в процессе обучения и (б) она заботилась о своей цели в долгой перспективе. Для того, чтобы обманчивая согласованность представляла проблему, требуется ещё (в) чтобы модель ожидала, что в некоторый момент она навсегда покинет процесс обучения. Статья использует следующий пример того, как модель может стать обманчиво согласованной (т.е. может оптимизировать Базовую Цель несмотря на то, что это не то, чего она в конечном итоге хочет) при выполнении всех этих условий:

В этом случае Базовая Цель – это «прийти в A», а Меса-Цель – «прийти в B». Если модель, которая хочет прийти в B достаточно умна, то она пойдёт к A во время обучения, потому что это позволит ей прийти в B при развёртывании, а эпизодов развёртывания больше, чем обучения. Так что оптимизация Базовой Цели во время Обучения приведёт к лучшим результатам согласно Меса-Цели (в долгосрочной перспективе), чем прямая оптимизация Меса-Цели. Это и есть обманчивая согласованность.

Бак Шлегерис (Miri/LW) приводил следующую аналогию, иллюстрирующую эти три случая: предположим, христианский Бог хочет создать людей, которые будут делать то, что он хочет (функция полезности бога – это базовая цель). Три вида согласованности имеют аналоги среди людей:

  • Для усвоенной согласованности, представьте Иисуса. Он делает то, что хочет бог, потому что у него та же функция полезности, что у бога.
  • Для исправимой согласованности, представьте Мартина Лютера. Он делает то, что хочет бог, потому что его функция полезности – «определить из Библии, что хочет бог, и делать это».
  • Его примером для обманчивой согласованности был Блез Паскаль; однако, мне не нужен этот пример, поскольку у меня в средней и старшей школе был друг, который явно хотел поступать как сказано в Библии, потому что хочет попасть в рай. Он явно (по крайней мере, мне) признавал, что имеет конечные цели, противоречащие Библии, но всё равно искренне пытался её придерживаться. Я уверен, что такие люди встречаются куда чаще, чем Мартины Лютеры и Иисусы.

Цель аналогии – проиллюстрировать, почему обманчивые модели могут быть вероятнее, чем может показаться интуитивно. Обманчивая согласованность звучит как странное очень конкретное явление, но аналогия показывает, что на самом деле возможных обманчиво согласованных моделей куда больше, чем исправимо или усвоенно согласованных. Только одна функция полезности совпадает с таковой у христианского бога, но много функций полезности высоко оценивают «не попасть в ад». Аналогично, есть большой диапазон возможных Меса-Целей, допускающих обманчивое согласование, и все они будут оптимизировать Базовую Цель при обучении.

Приведённое выше – просто аналогия, но есть и другие причины ожидать, что обманчивая согласованность вероятна. Конкретнее, я покрою два аргумента о том, почему альтернатив «сложнее» достигнуть, а значит они могут быть менее вероятными.

Почему усвоенная согласованность может быть сложной

Если большая нейросеть обрабатывает входные данные, это приводит к изменению её внутреннего состояния. Если мы называем любую его модификацию «обучением», то можно различить два разных способа обучения, или два «входных канала». Один через СГС, а другой через обработку входных данных.

Учитывая, сколько входных данных используется в современном машинном обучении, можно быть уверенным, что второй канал предоставляет куда больше бит информации. Так что, если GPT-3 создаёт внутреннюю модель «Властелина Колец», то это скорее всего происходит через входные данные, а не явные модификации со стороны СГС.

Если мы допустим, что обработка входных данных не изменяет напрямую цель модели (Меса-Цель), или что вначале создаётся модель Базовой Цели4, то из этого следует, что отобразить сложную цель усвоением сложнее, чем «моделированием» (т.е. исправимостью или обманчивостью).

В аналогии с эволюцией (которая всё ещё аналогия, и может не подходить к этому случаю), интуитивно кажется, что для неё закодировать детализированную модель «родителей» в ДНК куда сложнее, чем определить привязанность к родителям через отсылание к модели мира.

Почему исправимая согласованность может быть сложной

Аргументы из предыдущего подраздела не относятся к разнице между обманчивой и исправимой согласованностью, так как в обоих случаях не требуется явного отображения сложной цели.

Вместо этого статья приводит аргумент устойчивости. Он примерно таков:

  • Исправимо согласованная модель, чей указатель ошибочен, будет работать хуже.
  • Даже если текущая модель мира (серый кружок) улучшилась до понимания ошибки, указатель не будет исправлен, потому что его нынешнее направление – Меса-Цель модели.
  • СГС может обновить указатель, но это непросто сделать правильно.
  • Напротив, обманчиво согласованная модель немедленно подправит свой поведение, если узнает, что указатель неверный, так как это будет полезно для её цели. (Потому что её стратегия – это «пока что скрывать мою настоящую цель, так что она не будет модифицирована, и я смогу её преследовать при развёртывании.»)

Заметим, что это не исчерпывающее описание аргументов из статьи.

Разное

Мне кажется, что недооценённый аспект Внутреннего Согласования в том, что даже если найти единственную-истинную-функцию-полезности-которую-всего-лишь-надо-запрограммировать-в-ИИ, это, на самом деле, не решит задачу согласования – только задачу внешнего согласования (при условии, что эту функцию полезности можно формализовать). Если мы проведёт СГС на основе этой функции, это всё равно может привести к появлению меса-оптимизаторов, которые хотят чего-то другого.

Другое интересное замечание, что правдоподобность усвоения (то есть того, что модель явно отображает Базовую Цель) зависит не только от сложности устройства цели. К примеру, цель эволюции «максимизировать совокупную генетическую приспособленность» довольно проста, но не отображена явно потому, что определить, как действия на неё влияют вычислительно сложно. Так что {вероятность принятия цели Меса-Оптимизатором} зависит как минимум от {сложности устройства цели} и {сложности определения, как действия на неё влияют}.

  • 1. На практике СГС обычно запускают несколько раз с разными начальными условиями и используют лучший результат. Также, вывод СГС может быть линейной комбинацией моделей, через которые он прошёл, а не просто последней моделью.
  • 2. Однако, предпринимаются усилия к созданию инструментов прозрачности, чтобы заглядывать внутрь моделей. Если они станут по настоящему хороши, то они могут стать очень полезными. Некоторые из предложений способов создания безопасного продвинутого ИИ в явном виде включают такие инструменты.
  • 3. Если СИИ содержит больше вручную написанных частей, картина усложняется. К примеру, если система логически разделена на набор компонентов, то задача внутреннего согласования может относиться к только некоторым из них. Это применимо даже к частям биологических систем, см. к примеру, Внутреннее Согласование в мозгу Стивена Бирнса.
  • 4. Я не знаю достаточно, чтобы обсуждать это допущение.
Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Обзор катастрофических рисков ИИ

Перевод длинной статьи Дэна Хендрикса, Мантаса Мазейки и Томаса Вудсайда из Center for AI Safety.

Как результат быстрого прогресса искусственного интеллекта (ИИ), среди экспертов, законодателей и мировых лидеров растёт беспокойство по поводу потенциальных катастрофических рисков очень продвинутых ИИ-систем. Хоть многие риски уже подробно разбирали по-отдельности, ощущается нужда в систематическом обзоре и обсуждении потенциальных опасностей, чтобы усилия по их снижению предпринимались более информировано. Эта статья содержит обзор основных источников катастрофических рисков ИИ, которые мы разделили на четыре категории: злонамеренное использование, когда отдельные люди или группы людей намеренно используют ИИ для причинения вреда; ИИ-гонка, когда конкурентное окружение приводит к развёртыванию небезопасных ИИ или сдаче ИИ контроля; организационные риски, когда шансы катастрофических происшествий растут из-за человеческого фактора и сложности задействованных систем; и риски мятежных ИИ – возникающие из неотъемлемой сложности задачи контроля агентов, более умных, чем люди. Для каждой категории рисков мы описываем специфические угрозы, предоставляем иллюстрирующие истории, обрисовываем идеальные сценарии и предлагаем практические меры противодействия этим опасностям. Наша цель – взрастить полноценное понимание этих рисков и вдохновить на коллективные проактивные усилия, направленные на то, чтобы удостовериться, что разработка и развёртывание ИИ происходят безопасно. В итоге, мы надеемся, что это позволит нам реализовать выгоды этой могущественной технологии, минимизировав возможность катастрофических исходов.

В отличие от большинства наших текстов, предназначенных на эмпирических исследователей ИИ, эта статья направлена на широкую аудиторию. Мы используем картинки, художественные истории и простой стиль для обсуждения рисков продвинутых ИИ, потому что считаем, что эта тема важна для всех.

Ссылка на оригинал: https://arxiv.org/pdf/2306.12001.pdf

Обзор катастрофических рисков ИИ: Краткое содержание

Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд

Как результат быстрого прогресса искусственного интеллекта (ИИ), среди экспертов, законодателей и мировых лидеров растёт беспокойство, что очень продвинутые ИИ-системы могут оказывать катастрофические риски. К ИИ, как и ко всем могущественным технологиям, надо относиться с большой ответственностью, снижая его риски и реализуя его потенциал на благо общества. Однако, доступной информации о том, откуда берутся катастрофические и экзистенциальные риски ИИ и что с ними можно делать, довольно мало. Хоть и существует некоторое количество источников по этой теме, информация часто разбросана по нескольким статьям, которые к тому же предназначены для узкой аудитории или сосредоточены на очень конкретных рисках. В этой статье мы обозреваем основные источники катастрофических рисков ИИ, разделяя их на четыре категории:

Злонамеренное использование. Кто-то может намеренно использовать мощные ИИ для причинения масштабного вреда. Конкретные риски включают в себя биотерроризм с использованием ИИ, помогающих людям создавать смертельные патогены; намеренное распространение неконтролируемых ИИ-агентов; и использование способностей ИИ в целях пропаганды, цензуры и слежки. Мы предлагаем для снижения этих рисков совершенствовать биологическую безопасность, ограничивать доступ к самым опасным ИИ-моделям, и наложить на разработчиков ИИ юридическую ответственность за ущерб, причинённый их ИИ-системами.

ИИ-гонка. Конкуренция может мотивировать страны и корпорации на поспешную разработку ИИ и сдачу контроля ИИ-системам. Вооружённые силы могут испытывать давление в сторону разработки автономных вооружений и использования ИИ для хакерских атак, что сделает возможным новый вид автоматизированных военных конфликтов, при которых происшествия могут выйти из-под контроля до того, как у людей будет шанс вмешаться. Корпорации могут ощущать аналогичные стимулы к автоматизации человеческого труда и приоритизации прибыли в сравнении с безопасностью, что может привести к массовой безработице и зависимости от ИИ-систем. Мы обсудим и то, как эволюционное давление может повлиять на ИИ в долгосрочной перспективе. Естественный отбор среди ИИ может сформировать эгоистические черты, а преимущества ИИ в сравнении с людьми могут со временем привести к вытеснению человечества. Для снижения рисков ИИ-гонки мы предлагаем вводить связанные с безопасностью регуляции, международную координацию и общественный контроль ИИ общего назначения.

Организационные риски. Бедствия, вызванные организационными происшествиями, включают Чернобыль, Три-Майл-Айленд и крушение Челленджера. Организации, которые разрабатывают и развёртывают продвинутые ИИ, могут тоже пострадать от катастрофических происшествий, особенно при отсутствии сильной культуры безопасности. ИИ могут случайно утечь в общее пользование или быть украдены злонамеренными лицами. Организации могут не вкладываться в исследования безопасности, им может недоставать понимания того, как стабильно улучшать безопасность ИИ быстрее, чем способности, или они могут подавлять беспокойство о рисках ИИ внутри себя. Для снижения этих рисков можно улучшать культуру и структуру организаций, что включает в себя внешние и внутренние аудиты, многослойную защиту против рисков и актуальный уровень информационной безопасности.

Мятежные ИИ. Часто встречается серьёзное беспокойство о том, что мы можем потерять контроль над ИИ, как только они станут умнее нас. ИИ могут проводить очень сильную оптимизацию в неправильную сторону в результате процесса, называемого «обыгрыванием прокси-целей». В ходе адаптации к изменяющемуся окружению может происходить дрейф целей ИИ, аналогично тому, как люди приобретают и теряют цели по ходу жизни. В некоторых случаях для ИИ может быть инструментально-рационально стремиться к могуществу и влиянию. Мы рассмотрим и как и почему ИИ могут стать обманчивыми, делая вид, что находятся под контролем, когда это не так. Эти проблемы более технические, чем три другие источника рисков. Мы обрисуем некоторые предлагаемые направления исследований, которые призваны продвинуть наше понимание того, как удостовериться, что ИИ можно контролировать.

В каждом разделе мы предоставим иллюстративные сценарии, которые будут конкретнее показывать, как источник риска может привести к катастрофическим результатам, или даже представлять экзистенциальную угрозу. Предлагая позитивное видение более безопасного будущего, в котором с этими рисками обращаются должным образом, мы подчёркиваем, что они серьёзны, но не преодолимы. Проактивно работая над ними, мы можем приблизиться к реализации выгоды ИИ и в то же время минимизировать возможность катастрофических исходов.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 5 (Всего оценок: 1)

Обзор катастрофических рисков ИИ: 1. Введение

Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд

Знакомый нам мир ненормален. Мы принимаем за данность, что мы можем мгновенно говорить с людьми в тысячах километрах от нас, перелетать на другую сторону земного шара менее чем за день и иметь доступ к бездне накопленных знаний при помощи устройств в наших карманах. Эти реалии казались далёкими ещё десятилетия назад, а столетия назад были бы невообразимы. То, как мы живём, работаем, путешествуем и общаемся, возможно лишь крохотную долю истории человечества.

Но если мы посмотрим на общую картину, становится видна закономерность: развитие ускоряется. Между возникновением на Земле Homo sapiens и сельскохозяйственной революцией прошли сотни тысяч лет. Затем, до индустриальной революции прошли тысячи лет. Теперь, лишь спустя века, начинается революция искусственного интеллекта (ИИ). Ход истории не постоянен – он стремительно ускоряется.

Рис. 1: По ходу истории человечества мировое производство быстро росло. ИИ может продвинуть этот тренд дальше и закинуть человечество в новый период беспрецедентных изменений.

Мы количественно демонстрируем этот тренд на Рисунке 1, на котором видно, как со временем менялась оценка мирового ВВП [1, 2]. Этот гиперболический рост можно объяснить тем, что по мере прогресса технологий растёт и скорость этого прогресса. С помощью новых технологий люди могут создавать инновации быстрее, чем раньше. Поэтому временной промежуток между последовательными вехами уменьшается.

Именно быстрый темп развития вкупе с сложностью наших технологий делает наше время беспрецедентным в истории человечества. Мы достигли точки, в которой технологический прогресс может преобразовать мир до неузнаваемости за время человеческой жизни. К примеру, люди, которые пережили появление интернета, помнят времена, когда наш связанный цифровыми технологиями мир казался бы научной фантастикой. С исторической точки зрения кажется возможным, что такое же развитие теперь может уместиться и в ещё меньший промежуток времени. Мы не можем быть уверены, что это произойдёт, но не можем это и отвергнуть. Появляется вопрос: какая новая технология принесёт нам следующее большое ускорение? С учётом недавнего прогресса, ИИ кажется всё более вероятным кандидатом. Скорее всего, по мере того как ИИ будут становиться всё мощнее, они будут приводить к качественным изменениям мира, более радикальным, чем всё, что было до сих пор. Это может быть самым важным периодом в истории, но может оказаться также и последним.

Хоть технологический прогресс обычно улучшает жизни людей, надо помнить и что по мере того, как наши технологии становятся мощнее, растут и их разрушительные возможности. Взять хоть изобретение ядерного оружия. В последний век, впервые в истории нашего вида, человечество стало обладать возможностью уничтожить себя, и мир внезапно стал куда более хрупким.

Появившаяся уязвимость с тревожной ясностью проявилась во время Холодной войны. Одной октябрьской субботой 1962 года Кубинский Кризис выходил из-под контроля. Военные корабли США, которые обеспечивали блокаду Кубы, детектировали советскую подводную лодку и попытались заставить её всплыть на поверхность, сбрасывая маломощные глубинные бомбы. Подводная лодка была без радиосвязи, и её экипаж понятия не имел, не началась ли уже Третья Мировая. Из-за сломанной вентиляции температура в некоторых частях лодки выросла до 60 градусов по Цельсию, и члены экипажа стали терять сознание.

Подводная лодка несла ядерную торпеду. Для её запуска требовалось согласие капитана и политрука. Согласились оба. На любой другой подлодке возле Кубы в тот день торпеду бы запустили – и началась бы Третья Мировая. К счастью, на этой подводной лодке был человек, которого звали Василий Архипов. Архипов был командующим всей флотилии, и по чистому везению оказался именно там. Он отговорил капитана и убедил его подождать дальнейших указаний из Москвы. Он избежал ядерной войны и спас миллионы или миллиарды жизней – а возможно и саму цивилизацию.

Рис 2. В этой статье мы обсудим четыре категории рисков ИИ и то, как их смягчить.

Карл Саган как-то заметил: «Если мы продолжим накапливать только силу, но не мудрость, мы точно себя уничтожим» [3]. Саган был прав: мы не были готовы к силе ядерного оружия. В итоге произошло несколько задокументированных случаев, когда один человек предотвратил полномасштабную ядерную войну, так что от ядерного апокалипсиса человечество спасла не мудрость, а лишь удача.

Сейчас ИИ близок к тому, чтобы стать могущественной технологией с разрушительным потенциалом сродни ядерному оружию. Нам не нужно повторения Кубинского кризиса. Не хотелось бы дойти до момента, когда наше выживание станет зависеть от удачи, а не от способности мудро использовать эту технологию. Так что нам нужно лучшее понимание, что может пойти не так, и что с этим делать.

К счастью, ИИ-системы пока не настолько продвинуты, чтобы нести все эти риски. Но это лишь временное утешение. Развитие ИИ идёт с беспрецедентной и непредсказуемой скоростью. Мы рассмотрим риски, которые берутся и из современных ИИ, и из ИИ, которые скорее всего будут существовать уже в ближайшем будущем. Возможно, что если перед тем, как что-то предпринять, мы дождёмся разработки более продвинутых систем, будет уже поздно.

В этой статье мы исследуем разные пути, которыми мощные ИИ могут привести к катастрофическим событиям, разрушительно влияющим на огромное количество людей. Мы обсудим и то, как ИИ может представлять экзистенциальные риски – риски катастроф, от которых человечество будет неспособно оправиться. Самый очевидный такой риск – вымирание, но есть и другие исходы, вроде постоянной дистопии, тоже считающиеся за экзистенциальную катастрофу. Мы кратко опишем множество возможных катастроф. Некоторые из них вероятнее других, и некоторые друг с другом несовместимы. Этот подход мотивирован принципами менеджмента рисков. Мы предпочитаем спросить «что может пойти не так?», а не пассивно ждать, пока катастрофа не произойдёт. Этот проактивный настрой позволяет нам предвидеть и смягчить катастрофические риски, пока ещё не слишком поздно.

Чтобы обсуждение было лучше структурировано, мы поделили катастрофические риски ИИ на четыре группы по источнику риска, на который можно повлиять:

  • Злонамеренное использование: злонамеренные лица используют ИИ, чтобы вызвать крупномасштабную катастрофу.
  • ИИ-гонка: Конкурентное давление может заставить нас развёртывать ИИ небезопасными способами, несмотря на то, что это никому не выгодно.
  • Организационные риски: Происшествия, проистекающие из сложности ИИ и организаций, которые ИИ разрабатывают.
  • Мятежные ИИ: Проблема контроля над технологий, которая умнее нас.

Четыре раздела – злонамеренное использование, ИИ-гонка, организационные риски и мятежные ИИ – описывают риски ИИ, проистекающие из намерений, окружения, случая и самих ИИ соответственно [4].

Мы опишем, как конкретные маломасштабные примеры каждого из рисков могут эскалироваться вплоть до катастрофических исходов. Ещё мы приведём гипотетические сценарии, которые должны помочь читателям представить себе обсуждённые в разделе процессы и закономерности, а также практические предложения, которые могут помочь избежать нежелательных исходов. Каждый раздел завершается идеальным видением того, что надо для снижения этого риска. Мы надеемся, это исследование послужит введением в эту тему для читателей, заинтересованных в изучении и снижении катастрофических рисков ИИ.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Обзор катастрофических рисков ИИ: 2. Злонамеренное использование

Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд

Утром 20 марта 1995 года пять человек вошли в токийское метро. Проехав несколько остановок по разным линиям, они оставили свои сумки и вышли. Жидкость без цвета и запаха, находившаяся внутри сумок, начала испаряться. Через несколько минут пассажиры почувствовали удушье и тошноту. Поезда продолжали ехать в направлении к центру Токио. Поражённые пассажиры покидали вагоны на каждой остановке. Вещество распространялось – как по воздуху из вагонов, так и через контакты с одеждой и обувью. К концу дня 13 человек погибло и 5800 получили серьёзный вред здоровью. За атаку был ответственен религиозный культ Аум Синрикё [5]. Их мотив для убийства невинных людей? Приблизить конец света.

Новые мощные технологии часто несут огромную потенциальную выгоду. Но они же несут риск усиления возможностей злонамеренных лиц по нанесению масштабного вреда. Всегда будут люди с худшими намерениями, и ИИ могут стать для них удобными инструментами по достижению целей. Более того, по мере продвижения ИИ-технологий крупные случаи злоупотребления могут дестабилизировать общество, увеличив вероятности прочих рисков.

В этом разделе мы рассмотрим, каким образом злонамеренное использование продвинутых ИИ может нести катастрофические риски. Варианты включают: проектирование биологического или химического оружия, создание мятежных ИИ, использование ИИ для убеждения с целью распространения пропаганды или размывания консенсуса, и применение цензуры и массовой слежки для необратимой концентрации власти. Закончим раздел мы обсуждением возможных стратегий смягчения рисков злонамеренного использования ИИ.

Чем меньшего числа людей достаточно для злоупотребления, тем выше его риски. Если много кто имеет доступ к мощной технологии или опасной информации, которую можно применить во зло, одного человека, который это сделает, хватит, чтобы причинить много вреда. Злонамеренность – самый ясный пример, но равно опасной может быть и неосторожность. К примеру, какая-нибудь команда исследователей может с радостью выложить в открытый доступ код ИИ с способностями к изучению биологии, чтобы ускорить исследования и потенциально спасти жизни. Но это одновременно увеличит и риски злоупотреблений, если эту же ИИ-систему можно направить на разработку биологического оружия. В такой ситуации исход определяется наименее избегающей рисков группой исследователей. Если хотя бы одна группа посчитает, что преимущества перевешивают риски, то она сможет в одностороннем порядке определить исход, даже если другие не согласны. И если они не правы, и кто-то в результате станет разрабатывать биологическое оружие, откатить всё назад уже не выйдет.

По умолчанию, продвинутые ИИ могут повысить разрушительный потенциал как и самых могущественных, так и людей в целом. Усиление ИИ злонамеренных лиц в ближайшие десятилетия будет одной из самых серьёзных угроз человечеству. Примеры в этом разделе – просто те, которые мы можем предвидеть. Возможно, что ИИ поможет в создании опасных новых технологий, которые мы сейчас и представить себе не можем, что повысит риски злоупотреблений ещё сильнее.

2.1 Биотерроризм

Быстрый прогресс ИИ-технологий повышает риски биотерроризма. ИИ с знанием биоинженерии может вложиться в создание нового биологического оружия и понизить барьеры для его заполучения. Уникальный вызов представляют собой спроектированные при помощи ИИ пандемии. В их случае атакующая сторона обладает преимуществом перед защищающейся, и они могут быть экзистенциальной угрозой для человечества. Сейчас мы рассмотрим эти риски и то, как ИИ может усложнить борьбу с биотерроризмом и спроектированными пандемиями.

Спроектированные пандемии – новая угроза. Вирусы и бактерии вызвали одни из самых опустошительных катастроф в истории. Считается, что Чёрная Смерть убила больше людей, чем любое другое событие – колоссальные и ужасающие 200 миллионов, по доле – эквивалент четырёх миллиардов сегодня. На сегодняшний день прогресс науки и медицины очень сильно понизил риски естественных пандемий, но спроектированные пандемии могут создаваться более смертоносными и заразными, так что они представляют новую угрозу, которая может сравняться или даже превзойти урон самых смертоносных эпидемий в истории [6].

Мрачная история применения патогенов в качестве оружия уходит вглубь веков. Есть датируемые 1320 годом до нашей эры источники, которые описывают войну в Малой Азии, во время которой заражённых овец использовали для распространения туляремии [7]. Про 15 стран известно, что у них была программа биологического оружия в двадцатом веке. Этот список включает США, СССР, Великобританию и Францию. Вместе с химическим, биологическое оружие теперь запрещено на международном уровне. Хоть некоторые государства и продолжают эти программы [8], больший риск представляют негосударственные агенты, вроде Аум Синрикё, ИГИЛ или просто недовольных людей. Продвижения ИИ и биотехнологий быстро демократизируют доступ к инструментам и знаниям, нужным для проектирования патогенов, оставляющих программы биологического оружия эпохи Холодной Войны далеко позади.

Биотехнология быстро развивается и становится доступнее. Пару десятилетий назад способность спроектировать новые вирусы была лишь у небольшого числа учёных, работавших в продвинутых лабораториях. Есть оценка, что сейчас есть уже 30000 человек с нужными для создания новых патогенов талантом, образованием и доступом к технологиям [6]. Это число может быстро вырасти ещё сильнее. Синтез генов, позволяющий создание произвольных биологических агентов, стремительно падает в цене, его стоимость ополовинивается примерно каждые 15 месяцев [9]. С появлением настольных машин синтеза ДНК, упрощается как доступ к этой технологии, так и избегание попыток отслеживать её использование. Это усложняет контроль за её распространением [10]. Шансы спроектированной пандемии, которая убьёт миллионы, а может и миллиарды, пропорциональны числу людей с навыками и доступом к технологии для её запуска. С ИИ-помощниками навыки станут доступны на порядок большему числу людей, что может на порядок увеличить и риски.

Рис. 3: ИИ-ассистент может снабдить не-экспертов советами и данными, нужными для производства биологического или химического оружия для злонамеренного использования.

ИИ могут быть использованы для ускорения разработки нового более смертоносного химического и биологического оружия. В 2022 году исследователи взяли ИИ-систему, спроектированную для генерации нетоксичных молекул с медицинскими свойствами для создания новых лекарств, и поменяли её вознаграждение, чтобы токсичность поощрялась, а не штрафовалась [11]. После этого простого изменения в течении шести часов она совершенно самостоятельно сгенерировала 40000 молекул, потенциально пригодных в качестве химического оружия. Это были не только известные смертоносные химикаты вроде VX, но и новые молекулы, которые, возможно, опаснее любого химического оружия, разработанного раньше. В области биологии ИИ уже превзошли человеческие способности предсказания белковой структуры [12] и вложились в синтез новых белков [13]. Схожие методы можно использовать для создания биологического оружия и патогенов, более смертельных, более заразных и хуже поддающихся лечению, чем всё, что было раньше.

ИИ повышают угрозу спроектированных пандемий. ИИ увеличат число людей, способных на биотерроризм. ИИ общего назначения вроде ChatGPT способны собрать экспертные знания о самых смертоносных патогенах, вроде оспы, и предоставить пошаговые инструкции того, как их создать, избегая протоколов безопасности [14]. Когда будущие версии ИИ смогут выдавать информацию о техниках, процессах и знаниях, даже если её нет в явном виде в интернете, они будут ещё полезнее для потенциальных биотеррористов. Структуры здравоохранения могут ответить на эти угрозы своими мерами безопасности, но в биотерроризме у атакующего преимущество. Экспоненциальная природа биологических угроз означает, что одна атака может распространиться на весь мир до появления эффективной защиты. Всего через 100 дней после того, как его заметили и секвенировали, вариант Омикрон COVID-19 заразил четверть США и половину Европы [6]. Карантины и локдауны, введённые для подавления пандемии COVID-19 вызвали глобальную рецессию и всё равно не предотвратили смерти миллионов человек по всему миру.

Подведём итоги: продвинутые ИИ в руках террористов можно считать оружием массового уничтожения, потому что они упрощают проектирование, синтез и распространение новых смертоносных патогенов. Снижая необходимый уровень технической компетенции и увеличивая смертоносность и заразность патогенов, ИИ может позволить злонамеренным лицам запускать пандемии и вызвать глобальную катастрофу.

2.2 Выпускание ИИ-агентов

Многие технологии, например, молоты, тостеры и зубные щётки – инструменты, которые люди используют в своих целях. Но ИИ всё чаще создаются как агенты, которые автономно действуют в мире и преследуют неограниченные цели. ИИ-агентам можно дать цели вроде победы в игре, заработка на бирже или доставки автомобиля к месту назначения. Так что ИИ-агенты представляют собой уникальный риск: люди могут создавать ИИ, преследующие опасные цели.

Злонамеренные лица могут создавать мятежные ИИ специально. Через месяц после релиза GPT-4 проект с открытым исходным кодом обошёл фильтры безопасности ИИ и превратил его в автономного ИИ-агента, проинструктированного «уничтожить человечество», «установить глобальное господство» и «достичь бессмертия». ИИ, названный ChaosGPT, собирал исследования по ядерному оружию, пытался завербовать другие ИИ для помощи в исследованиях и писал твиты, пытаясь повлиять на людей. К счастью, ChaosGPT был не очень умным, и был лишён способностей к составлению долгосрочных планов, взлому компьютеров, выживанию и распространению. Но с учётом быстрого темпа развития ИИ, ChaosGPT даёт нам осознать риски, которые будут нести более продвинутые мятежные ИИ в ближайшем будущем.

Много групп может хотеть освободить ИИ или заменить ими человечество. Простой запуск мятежных ИИ, вроде более продвинутых версий ChaosGPT, может привести к массовым разрушениям, даже если этим ИИ не сказали в явном виде вредить человечеству. Есть много возможных убеждений, которые могут побудить отдельных людей или группы это сделать. Одна идеология, представляющая тут особую угрозу – «акселерационизм». Эта идеология стремится к как можно большему ускорению развития ИИ и противится ограничениям на их разработки и распространение. Такая точка зрения тревожаще часта среди ведущих исследователей ИИ и технологических лидеров, некоторые из которых намеренно участвуют в гонке за быстрейшее создание ИИ умнее людей. Согласно сооснователю Google Ларри Пейджу, ИИ – полноправные наследники человечества и следующая ступень космической эволюции. Ещё он называл сохранение человеческого контроля над ИИ «специецистским» [15]. Юрген Шмидхубер, известный в области ИИ учёный, заявлял, что «В долгосрочной перспективе люди не останутся венцом творения… Но всё хорошо, потому что в осознании, что ты – крохотная часть куда большего процесса, ведущего вселенную от меньшей сложности к большей, есть и красота и величие» [16]. Ричард Саттон, другой ведущий учёный в области ИИ, при обсуждении ИИ умнее людей спросил: «Почему те, кто умнее, не должны стать могущественнее?», и считает, что разработка суперинтеллекта будет достижением «за гранью человечества, жизни, добра и зла» [17]. Он утверждает, что «ИИ неизбежно нас сменят», и хоть «они могут вытеснить нас из существования», «не надо сопротивляться» [18].

Есть несколько немаленьких групп, которые могут захотеть намеренно выпустить ИИ, чтобы те причиняли вред. К примеру, социопаты и психопаты составляют около трёх процентов населения [19]. В будущем некоторые из людей, чей образ жизни разрушится из-за автоматизации, могут захотеть отомстить. Полно случаев, когда казалось бы психически здоровый человек, раньше не проявлявший безумия и не совершавший насилие, внезапно устраивает стрельбу или закладывает бомбу, чтобы навредить как можно большему числу невинных людей. Можно ожидать и что люди с самыми добрыми намерениями усложнят ситуацию ещё сильнее. По мере прогресса ИИ, они станут идеальными компаньонами – они будут знать, как быть комфортными, будут давать нужные советы, и никогда не будут требовать ничего взамен. Неизбежно, что люди будут эмоционально привязываться к чатботам, и некоторые из них будут требовать предоставления им прав или автономности.

Подведём итоги: выпускание мощных ИИ и дозволение им действовать независимо от людей могут привести к катастрофе. Есть много причин, почему люди могут это сделать: из желания причинить вред, из идеологических убеждений по поводу ускорения технологий, или из убеждённости, что ИИ должны обладать теми же правами и свободами, что люди.

2.3 ИИ-убеждение

Намеренное распространение дезинформации – уже серьёзная проблема, которая мешает нашему общему пониманию реальности и поляризует мнения. ИИ могут быть использованы для генерации персонализированной дезинформации на куда больших масштабах, чем было возможно раньше. Это серьёзно усугубило бы эту проблему. Вдобавок, по мере того, как ИИ будут становиться лучше в предсказании нашего поведения и воздействии на него, они будут развивать навыки манипуляции людьми. Мы сейчас обсудим, как можно злонамеренно использовать ИИ для создания раздробленного и дисфункционального общества.

ИИ могут загрязнить информационную экосистему мотивированным враньём. Иногда идеи распространяются не потому, что они истинны, а потому, что служат интересам определённой группы. Словосочетание «жёлтая пресса» изначально относилось к газетам, продвигавшим идею войны между США и Испанией в конце XIX века. Они считали, что сенсационные военные истории повысят их продажи [20]. Когда публичные источники информации заполонены ложью, люди иногда в неё верят, а иногда перестают доверять мейнстримным нарративам. Оба варианта подрывают социальное единство.

К сожалению, ИИ может значительно усилить эти существующие проблемы. Во-первых, ИИ можно использовать для масштабной генерации уникальной персонализированной дезинформации. Хоть в социальных медиа уже много ботов [21], некоторые из которых существуют для распространения дезинформации, пока что ими управляют люди или примитивные генераторы текста. Новейшие ИИ-системы не нуждаются в людях для генерации персонализированного посыла, никогда не устают, и потенциально могут взаимодействовать с миллионами пользователей одновременно [22].

ИИ могут злоупотреблять доверием пользователей. Уже сейчас сотни тысяч человек платят за чатботов, которых рекламируют как друзей или романтических партнёров [23]. Взаимодействие с чатботом уже было (одной из) причиной одного самоубийства [24]. По мере того, как ИИ будут всё более похожи на людей, люди будут всё чаще формировать с ними отношения и начинать им доверять. ИИ, которые собирают личную информацию, выстраивая отношения или получая доступ к персональным данным, таким как электронная почта или личные файлы пользователя, смогут использовать эту информацию для более эффективного убеждения. Те, кто эти системы контролирует, смогут злоупотреблять доверием пользователей, показывая им персонализированную информацию напрямую через их «друзей».

Рис. 4: ИИ сделают возможными очень сложные персонализированные информационные кампании, которые смогут дестабилизировать наше общее представление о реальности.

ИИ могут централизовать контроль над вызывающей доверие информацией. Помимо демократизации дезинформации, ИИ могут и централизовать создание и распространение информации, которой доверяют. Мало у кого будут технические навыки и ресурсы, чтобы разработать прорывные ИИ-системы. Те, у кого будут, смогут использовать эти системы для распространения предпочитаемых нарративов. А если ИИ широко доступны, то это может привести к широкому распространению дезинформации, и люди будут доверять лишь малому количеству авторитетных источников [25]. В обоих сценариях, источников вызывающей доверие людей информации станет меньше, и малая доля общества сможет контролировать общие нарративы.

ИИ-цензура сможет ещё сильнее централизовать контроль над информацией. Это может начаться с добрыми намерениями, вроде использования ИИ для проверки фактов, чтобы не дать людям стать жертвами ложных нарративов. Это необязательно решит проблему – сейчас дезинформация вполне держится несмотря на существование фактчекеров.

Хуже того, ИИ, якобы занимающиеся «фактчекингом» могут быть спроектированы авторитарными государствами или кем-то ещё, чтобы подавить распространение истинной информации. Такие ИИ могут исправлять самые популярные заблуждения, но предоставлять некорректную информацию по каким-нибудь чувствительным темам, вроде нарушения прав человека определённой страной. Но даже если ИИ-фактчекинг работает как предполагается, общество может стать полностью зависимо от него в определении правды, что снизит человеческую автономность и сделает людей уязвимыми для ошибок или взломов этих систем.

В мире широко распространённых убедительных ИИ-систем убеждения людей могут быть почти полностью определены тем, с какими ИИ-системами они больше всего взаимодействуют. Не зная, кому верить, люди могут ещё глубже закопаться в «идеологические анклавы», боясь, что любая информация извне может быть хитро составленной ложью. Это размоет консенсусы по поводу реальности, навредит возможности кооперировать друг с другом и решать проблемы, требующие коллективных действий. Это снизит и нашу способность сообща как вид обсуждать, как нам снизить экзистенциальные риски ИИ.

Подведём итоги: ИИ могут создавать крайне эффективную персонализированную дезинформацию на беспрецедентных масштабах, и могут быть особенно убедительны для людей, с которыми они выстроили личные взаимоотношения. В руках многих это может затопить нас дезинформацией, ослабляющей общество, а оставаясь в руках немногих – позволить государствам контролировать нарративы в своих целях.

2.4 Концентрация власти

Рис. 5: Повсеместные средства слежения, собирающие и анализирующие подробные данные о каждом, могут привести к полному исчезновению свободы и приватности.

Мы обсудили несколько способов, как отдельные люди или группы могут использовать ИИ для нанесения масштабного вреда: биотерроризм, создание бесконтрольных ИИ и дезинформация. Для снижения этих рисков государство может стремиться к всё большему уровню слежки и пытаться ограничить доступ к ИИ доверенным меньшинством. Такая реакция легко может зайти слишком далеко, открывая путь для укреплённого тоталитарного режима, поддерживаемого мощью и вездесущностью ИИ. В контрасте с злоупотреблениями отдельных людей, «снизу вверх», такой сценарий представляет собой форму злонамеренного использования «сверху вниз», которое в пределе может превратить цивилизацию в устойчивую дистопию.

ИИ могут привести к радикальной, и, возможно, необратимой концентрации власти. Способности ИИ к убеждению и потенциал их применения для слежки и управления автономным вооружением, могут позволить малой группе людей «закрепить» свой контроль над обществом, возможно, перманентно. Для эффективного функционирования ИИ необходима инфраструктура, такая как датацентры, вычислительные мощности и большие объёмы данных. Она распространена не поровну. Те, кто контролирует мощные системы, могут использовать их для подавления недовольства, распространения пропаганды и дезинформации и прочих методов продвижения своих целей, которые могут идти вразрез с общественным благосостоянием.

Рис. 6: Если материальный контроль за ИИ будет ограничен малым числом людей, это может привести к самому серьёзному неравенству в богатстве и власти за всю историю.

ИИ могут укрепить тоталитарные режимы. В руках государства ИИ могут привести к упадку гражданских свобод и демократических ценностей в целом. ИИ могут позволить тоталитарному государству эффективно собирать, обрабатывать и учитывать беспрецедентные объёмы информации, что позволит всё меньшим группам людей следить за и полностью контролировать население без нужды вербовать миллионы человек в качестве государственных служащих. В целом, демократические правительства весьма уязвимы к сползанию в сторону тоталитаризма, если власть и контроль переходят от общества в целом к элите и лидерам. Вдобавок к этому, ИИ могут позволить тоталитарным режимам существовать дольше. Раньше они часто разрушались в моменты уязвимости, вроде смерти диктатора, но ИИ «убить» было бы сложнее, что приведёт к более непрерывному управлению и уменьшит частоту моментов, в которые возможны реформы.

ИИ могут укрепить и власть корпораций ценой общественных благ. Корпорации всегда ради выгоды лоббировали ослабление ограничивающих их влияние и их действия законов и политик. Если корпорация контролирует мощные ИИ-системы, то она сможет манипулировать клиентами, чтобы те тратили больше на их продукты, даже ценой собственного благосостояния. Концентрация власти и влияния, которую допускают ИИ, может позволить корпорациям в беспрецедентной степени контролировать политическую систему и заглушать голоса граждан. Это может случиться даже если создатели этих систем осведомлены, что те эгоистичны и вредны всем остальным, ведь тогда у них ещё больше мотивации оставлять себе весь контроль над ними.

Вдобавок к закреплению власти, закрепление конкретных ценностей может прервать моральный прогресс человечества. Опасно дать какому-либо набору ценностей перманентно укорениться в обществе. К примеру, ИИ-системы научились расистским и сексистским взглядам [26], а когда они уже выучены, убрать их может быть сложно. Вдобавок к известным нам проблемам общества, могут быть и пока неизвестные. Так же как нам отвратительны некоторые моральные взгляды, которые были широко распространены в прошлом, люди будущего могут захотеть и оставить позади наши, даже те, в которых мы сейчас не видим никаких проблем. К примеру, моральные дефекты ИИ были бы куда хуже, если бы ИИ-системы были обучены в 1960-х, и многие люди того времени не видели бы в этом ничего страшного. Может быть, мы, сами того не зная, совершаем моральные катастрофы и сегодня [27]. Следовательно, когда продвинутые ИИ появятся и преобразуют мир, будет риск, что их цели закрепят нынешние ценности и помешают исправлению их недостатков. Если ИИ не спроектированы так, чтобы постоянно обучаться и обновлять своё понимание общественных ценностей, они могут распространить уже существующие дефекты процессов принятия решений на далёкое будущее.

Подведём итоги: хоть, если мощные ИИ останутся в руках немногих, это может снизить риск терроризма, это же может позволить корпорациям и государствам злоупотребить ими для усиления неравенства власти. Это может привести к тоталитаризму, активной корпоративной манипуляции обществом и закреплению нынешних ценностей, что предотвратит дальнейший моральный прогресс.

История: Биотерроризм

Вот иллюстративная гипотетическая история, призванная помочь читателям представить некоторые из этих рисков. История всё же будет довольно расплывчата, чтобы снизить риск, что она вдохновит кого-нибудь на описанные в ней злонамеренные действия.

Биотехнологический стартап врывается в индустрию со своей основанной на ИИ системой биоинженерии. Компания делает громкие заявления, что их технология произведёт революцию в медицине, что она сможет найти лекарства для известных и неизвестных болезней. Решение компании дать доступ к своей программе для одобренных исследователей из научного сообщества некоторым показалось спорным. После того, как компания ограниченно открыла код модели, лишь несколько недель потребовалось, чтобы кто-то выложил её в интернет в открытый для кого угодно доступ. Критики указывали, что модель можно применить и для проектирования смертоносных патогенов, и утверждали, что утечка дала злонамеренным лицам мощный и лишённый всяких защитных механизмов инструмент для нанесения крупномасштабного вреда.

Тем временем экстремистская группировка годами работала над проектированием нового вируса, чтобы убить много людей. Но из-за недостатка компетенции, эти усилия до сих пор были безуспешны. После утечки новой ИИ-системы группа немедленно поняла, что она может послужить инструментом для проектирования вируса и обхода легальных препятствий и попыток отслеживания при добыче исходных материалов. ИИ-система успешно спроектировала в точности такой вирус, на какой группа надеялась. Ещё она предоставила пошаговые инструкции по синтезу вируса в больших количествах и обходу любых препятствий к его распространению. Получив синтезированный вирус, группа экстремистов составила план по его выпуску в нескольких тщательно отобранных местах, чтобы максимизировать его распространение.

У вируса долгий инкубационный период, несколько месяцев он тихо и быстро распространяется по населению. К тому моменту, как его заметили, он уже заразил миллионы человек. Уровень смертности от него высок, большая часть заражённых в итоге погибает. Вирус могут рано или поздно всё же сдержать, но не до того, как он убьёт миллионы.

2.5 Предложения

Мы обсудили две формы злоупотреблений: отдельные люди или малые группы могут использовать ИИ для вызова бедствия, а государства или корпорации могут использовать ИИ для укрепления своего влияния. Чтобы избежать обоих видов рисков нам нужен баланс распространения доступа к ИИ и доступного государствам отслеживания. Теперь мы обсудим некоторые меры, которые могут помочь этот баланс найти.

Биологическая безопасность. За ИИ, которые спроектированы для биологических исследований или инженерии или про которые известно, что они на это способны, надо усиленно следить и контролировать к ним доступ – ведь они потенциально могут быть использованы для биотерроризма. Вдобавок, разработчикам этих систем следует исследовать и реализовывать методы удаления биологических данных из обучающего датасета или лишать созданные системы биологических способностей, если они предназначены для широкого применения [14]. Ещё исследователям следует искать способы применения ИИ для биозащиты, например, через улучшение систем биологического мониторинга. При этом следует не забывать о потенциале использования этих способностей и в других целях. Вдобавок к специфичным для ИИ, более общие улучшения биобезопасности тоже могут помочь снизить риски. Это включает раннее детектирование патогенов (например, при помощи мониторинга сточных вод [28]), UV-технологии дальнего действия и улучшение средств персональной защиты [6].

Ограниченный доступ. ИИ могут обладать опасными способностями, которые могут нанести много вреда, если ими злоупотребить. Один из способов снижения этого риска – структурированный доступ, который ограничивал бы использование опасных способностей системы контролируемым доступом через облачные сервисы [29] для исключительно проверенных заранее пользователей [30]. Другой механизм ограничения доступа к самым опасным системам – использование контроля, в том числе экспортного, за распространением «железа» и встроенного ПО для ограничения доступа к вычислительным мощностям [31]. Наконец, разработчикам ИИ следует демонстрировать, что их ИИ несут минимальный риск катастрофического вреда до того, как они выкладывают код в общий доступ. Эту рекомендацию не надо толковать так, что она позволяет разработчикам не делиться с обществом безопасной информацией, например, необходимой для решения проблем алгоритмической предвзятости или нарушений авторского права.

Технические исследования состязательно-устойчивого детектирования аномалий. Критически важно предотвращать злоупотребление ИИ, но надо иметь несколько линий обороны и замечать злоупотребление, когда оно всё же случилось. ИИ могут дать нам способы детектирования аномалий и необычного поведения разных систем или интернет-платформ. Это позволит, например, замечать кампании по дезинформации с использованием ИИ до того, как они придут к успеху. Эти техники должны быть состязательно-устойчивыми, ведь атакующие будут пытаться их обойти.

Ответственность разработчиков ИИ общего назначения перед законом. Файн-тюнинг и промпт-инжиниринг позволяют направлять ИИ общего назначения на широкий набор разнообразных задач, некоторые из которых могут нанести значительный вред. Ещё ИИ могут не вести себя так, как намеревался пользователь. В обоих случаях, те, кто разрабатывают и предоставляют доступ к системам общего назначения, имеют много возможностей по снижению рисков, ведь они контролируют эти системы и могут реализовывать в них средства защиты. Чтобы у них была хорошая мотивация это делать, компании должны нести юридическую ответственность за действия их ИИ. Строгая ответственность может, к примеру, мотивировать компании приобретать страховку, благодаря чему стоимость сервисов будет лучше отображать их внешние негативные эффекты [32]. Независимо от того, как будет устроена правовая регуляция ИИ, она должна быть спроектирована так, чтобы ИИ-компании отвечали за вред, которого они могли бы избежать большей осторожностью при разработке, тестированием или вводом и соблюдением стандартов [33].

Позитивное Видение

В идеальном сценарии никто, ни отдельные люди, ни группы, не мог бы использовать ИИ для вызова катастроф. Системы с очень опасными способностями либо не существовали бы, либо контролировались бы отвечающими перед демократическими институтами организациями, обязующимися использовать их только на пользу обществу. Информация, необходимая для разработки этих способностей, тщательно охранялась бы, чтобы избежать их распространения, подобно тому, как это происходит с ядерным оружием. В то же время, контроль за ИИ-системами включал бы в себя мощную систему сдержек и противовесов, не допускающих усиления неравенства власти. Средства отслеживания применялись бы на минимальном уровне, необходимом чтобы сделать риски пренебрежимо малыми, и не использовались бы для подавления недовольства.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Обзор катастрофических рисков ИИ: 3. ИИ-гонка

Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд

3. ИИ-гонка

Колоссальный потенциал ИИ создал конкурентное давление на больших игроков, конкурирующих за власть и влияние. Эту «ИИ-гонку» ведут государства и корпорации, считающие, что чтобы удержать свои позиции им надо быстро создавать и развёртывать ИИ. Это мешает должным образом приоритизировать глобальные риски и увеличивает вероятность, что разработка ИИ приведёт к опасным результатам. Аналогично ядерной гонке времён Холодной Войны, участие в ИИ-гонке может служить краткосрочным интересам участника, но в итоге приводит к худшим общечеловеческим исходам. Важно, что эти риски вытекают не только из неотъемлемых свойств ИИ-технологий, но и из конкурентного давления, которое поощряет некооперативные решения при разработке ИИ.

В этом разделе мы сначала опишем гонки военных ИИ и корпоративных ИИ, в которых страны и корпорации вынуждены быстро разрабатывать и внедрять ИИ-системы, чтобы оставаться конкурентоспособными. Затем мы отойдём от частностей и рассмотрим конкурентное давление как часть более обобщённого эволюционного процесса, который может делать ИИ всё убедительнее, мощнее и неотделимее от общества. Наконец, мы укажем на потенциальные стратегии и предложения планов действий, которые могут снизить риски ИИ-гонки и позволить удостовериться, что разработка ИИ ведётся безопасно.

3.1 Гонка военных ИИ

Разработка ИИ с военными целями открывает путь в новую эру военных технологий. Последствия могут быть на уровне пороха и ядерных бомб. Иногда это уже называют «третьей революцией в военном деле». Военное применение ИИ может принести много проблем: возможность более разрушительных войн, возможность случайного использования или потери контроля и перспектива, что злонамеренные лица заполучат эти технологии и применят их в своих целях. По мере того, как ИИ будут всё в большей степени превосходить традиционное вооружение и всё больше принимать на себя функции контроля и командования, человечество столкнётся с сдвигом парадигмы военного дела. Мы обсудим неочевидные риски и следствия этой гонки ИИ-вооружений для глобальной безопасности, возможность увеличения интенсивности конфликтов и мрачные исходы, к которым они могут привести, включая возможность эскалации конфликта до уровня экзистенциальной угрозы.

3.1.1 Летальное автономное вооружение (ЛАВ)

ЛАВ – оружие, которое может обнаруживать, отслеживать и поражать цели без участия человека [34]. Оно может ускорить и уточнить принятие решений на поле боя. Однако, военное дело – это область применения ИИ с особо высокими ставками и особой важностью соображений безопасности и морали. Существование ЛАВ не обязательно катастрофа само по себе, но они могут оказаться всем, чего не хватало, чтобы к катастрофе привело злонамеренное использование, случайное происшествие, потеря контроля или возможность войны.

ЛАВ могут значительно превосходить людей. Благодаря быстрому развитию ИИ, системы вооружений, которые могут обнаружить, нацелиться и решить убить человека сами собой, без направляющего атаку офицера или нажимающего на спусковой крючок солдата, формируют будущее военных конфликтов. В 2020 году продвинутый ИИ-агент превзошёл опытных пилотов F-16 в серии виртуальных боёв. Он одолел пилота-человека с разгромным счётом 5-0, продемонстрировав «агрессивное и точное маневрирование, с которым человек сравняться не мог» [35]. Как и в прошлом, лучшее оружие позволит учинять больше разрушений за более короткое время, что сделает войны более суровыми.

Рис. 7: Дешёвое автономное вооружение, вроде роя дронов с взрывчаткой, автономно и эффективно охотиться на людей, исполняя смертоносные удары по указу как армий, так и террористов, и снижая барьеры для крупномасштабного насилия.

Армии уже движутся в сторону делегирования ИИ решений, от которых зависят жизни. Полностью автономные дроны скорее всего впервые использовали на поле боя в Ливии в марте 2020 года, когда отступающие силы были «выслежены и удалённо атакованы» дронами, которые действовали без присмотра людей [36]. В мае 2021 года Силы Обороны Израиля использовали первый в мире управляемый ИИ вооружённый рой дронов во время военной операции. Это знаменовало собой веху в внедрении ИИ и дронов в военное дело [37]. Ходящие и стреляющие роботы пока не заменили на поле боя солдат, но технологии продвигаются так, что вполне может быть, это станет возможным уже скоро.

ЛАВ увеличивают частоту войн. Послать в бой солдат – тяжёлое решение, которое лидеры обычно не принимают легко. Но автономное оружие позволило бы агрессивным странам атаковать, не ставя под угрозу жизни своих солдат и получая куда меньше внутренней критики. Оружие с дистанционным управлением тоже имеет это преимущество, но для него нужны люди-операторы, и оно уязвимо к средствам подавления связи, что ограничивает его масштабируемость. ЛАВ лишены этих недостатков [38]. По мере того, как конфликт затягивается и потери растут, общественное мнение по поводу продолжения войны обычно портится [39]. ЛАВ изменили бы это. Лидерам стран больше не пришлось бы сталкиваться с проблемами из-за возвращающихся домой мешков с трупами. Это убрало бы основной барьер к участию в войнах, и, в итоге, могло бы увеличить их частоту.

3.1.2 Кибервойны

ИИ могут быть использованы не только для более смертоносного оружия. ИИ могут снизить барьер к проведению кибератак, что сделает их многочисленнее и разрушительнее. Они могут причинять серьёзный вред не только в цифровом окружении, но и физическим системам, возможно, вырубая критическую инфраструктуру, от которой зависит общество. ИИ можно использовать и для улучшения киберзащиты, но неясно, будут ли они эффективнее в качестве технологии нападения или обороны [40]. Если они в большей степени усилят атаку, чем защиту, кибератаки участятся. Это может привести к значительному геополитическому беспокойству и проложить ещё одну дорожку к крупномасштабному конфликту.

ИИ обладают потенциалом увеличения доступности, успешности, масштаба, скорости, скрытности и урона кибератак. Кибератаки уже существуют, но есть несколько путей, которыми ИИ могут сделать их чаще и разрушительнее. Инструменты машинного обучения можно использовать для поиска критических уязвимостей в целевых системах и увеличить шанс успеха атаки. Ещё они позволят масштабировать атаки, проводя миллионы атак параллельно, и ускорить обнаружение новых путей внедрения в системы. Кибератаки могут ещё и наносить больше урона, если ими будут «угонять» ИИ-вооружение.

Кибератаки могут уничтожать критическую инфраструктуру. Взлом компьютерных систем, которые контролируют физические процессы, может сильно навредить инфраструктуре. К примеру, кибератака может вызвать перегрев системы или заблокировать клапаны, что приведёт к накоплению давления и, в итоге, взрыву. Таким образом кибератаками можно уничтожать, например, энергосети или системы водоснабжения. Это было продемонстрировано в 2015 году, когда подразделение кибератак российской армии взломало энергосеть Украины, оставив 200000 человек без света на несколько часов. Усиленные ИИ атаки могут быть ещё более разрушительными или даже смертельными для миллиардов людей, которые полагаются на критическую инфраструктуру для выживания.

Источник кибератак, проведённых ИИ, сложнее отследить, что может увеличить риск войн. Кибератака которая приводит к физическому повреждению критической инфраструктуры, требует высокого уровня навыков и больших усилий, и доступна, пожалуй, только государствам. Такие атаки редки, потому что представляют собой военное нападение и оправдывают полноценный военный ответ. Но ИИ, если они, к примеру, используются для обхода систем обнаружения или для более эффективного заметания следов, могут позволить атакующим остаться неузнанными [41]. Если кибератаки станут более скрытными, это снизит угрозу возмездия атакованных, что может участить сами атаки. Если происходит скрытная атака, это может привести к ошибочным ответным действиям против подозреваемой третьей стороны. Это может сильно увеличить частоту конфликтов.

3.1.3 Автоматизированная война

ИИ увеличивает темп войны, что делает их же более необходимыми. ИИ могут быстро обрабатывать большие объёмы данных, анализировать сложные ситуации, и предоставлять командирам полезные советы. Вездесущие сенсоры и другие продвинутые технологии увеличивают объёмы информации с поля боя. ИИ могут помочь придать смысл этой информации, замечая важные закономерности и взаимосвязи, которые люди могли бы упустить. По мере продвижения этого тренда, людям будет всё сложнее принимать информированные решения с нужной скоростью, чтобы угнаться за ИИ. Это создаст ещё больший стимул передать ИИ контроль за решениями. Всё большая интеграция ИИ во все аспекты войны заставит битвы становиться всё быстрее и быстрее. В конце концов мы можем прийти к тому, что люди будут более не способны оценить постоянно меняющуюся ситуацию на поле боя, и должны будут сдать принятие решений продвинутым ИИ.

Автоматические ответные действия могут эскалировать случайные происшествия до войны. Уже видна готовность дать компьютерным системам автоматически наносить ответный удар. В 2014 году утечка раскрыла обществу, что у АНБ есть программа MonsterMind, которая автономно обнаруживала и блокировала кибератаки, направленные на инфраструктуру США [42]. Уникальным в ней было то, что она не просто детектировала и уничтожала вредоносные программы. MonsterMind автоматически, без участия людей, начинал ответную кибератаку. Если у нескольких сторон есть системы автоматического возмездия, то случайность или ложная тревога могут быстро эскалироваться до полномасштабной войны до того, как люди смогут вмешаться. Это будет особенно опасно, если превосходные способности к обработке информации современных ИИ-систем побудят страны автоматизировать решения, связанные с запуском ядерного оружия.

Исторические примеры показывают опасность автоматического возмездия. 26 сентября 1983 года Станислав Петров, подполковник советских ПВО, нёс службу в командном пункте Серпухов-15 возле Москвы. Он следил за показаниями советской системы раннего обнаружения баллистических ракет. Система показала, что США запустили несколько ядерных ракет в сторону Советского Союза. Протокол тогда заставлял считать это полноценной атакой, и предполагал, что СССР произведёт ответный ядерный удар. Вероятно, если бы Петров передал предупреждение своему начальству, так бы и произошло. Однако, вместо этого он посчитал это ложной тревогой и проигнорировал. Вскоре было подтверждено, что предупреждение было в самом деле вызвано редкой технической неполадкой. Если бы контроль был у ИИ, эта тревога могла бы начать ядерную войну.

Рис. 8: Гонка ИИ-вооружений может стимулировать страны делегировать ИИ многие ключевые решения об использовании военной силы. Интеграция ИИ в командование и контроль за ядерным оружием могут повысить риск глобальной катастрофы. Возможность случайных происшествий вкупе с повышенным темпом военных действий могут привести к ненамеренным столкновениям и их эскалации.

Контролируемые ИИ системы вооружений могут привести к внезапной и молниеносной войне. Автономные системы не непогрешимы. Мы уже видели, как быстро ошибка в автоматизированной системе может эскалироваться в экономике. Самый известный пример – Flash Crash 2010 года, когда петля обратной связи между автоматизированными трейдинговыми алгоритмами усилила самые обычные рыночные флюктуации и превратила их в финансовую катастрофу, за минуты уничтожившую триллион долларов ценности акций [43]. Если бы несколько стран использовали ИИ для автоматизации своих оборонительных систем, ошибка могла бы стать катастрофической. Она запустила бы внезапную последовательность атак и контратак, слишком быстрых, чтобы люди успели вмешаться. Рынок быстро оправился от Flash Crash 2010 года, но вред, нанесённый такой войной, был бы ужасен.

Автоматизация войны может навредить подотчётности военных. Иногда они могут получить преимущество на поле боя, проигнорировав законы войны. К примеру, солдаты могут осуществлять более эффективные атаки, если не будут стараться минимизировать потери среди гражданских. Важный сдерживающий это поведение фактор – риск, что военных рано или поздно призовут к ответу и засудят за военные преступления. Автоматизация войны может снизить этот сдерживающий фактор, облегчив для военных уход от ответственности, ведь они смогут перекладывать вину на ошибки автоматических систем.

ИИ могут сделать войну менее предсказуемой, что увеличит риск конфликта. Хоть более могущественные и богатые страны часто могут вложить в новые военные технологии больше ресурсов, они вовсе не обязательно успешнее всех эти технологии внедряют. Играет важную роль и насколько вооружённые силы проявят гибкость и адаптивность в обращении с ними [44]. Так что мощные оружейные инновации могут не только позволить существующим доминирующим державам укрепить своё положение, но и дать менее могущественным странам шанс быстро вырваться вперёд в такой важной области и стать более влиятельными. Это может привести к значительной неуверенности по поводу того, сдвигается ли баланс сил, и если да, то как. Из-за этого может получиться, что страны будут ошибочно считать, что им выгодно начать войну. Даже если отложить в сторону соображения по поводу баланса сил, быстро эволюционирующее автоматизированное вооружение беспрецедентно, что усложнит оценку шанса на победу каждой стороне в каждом конкретном конфликте. Это увеличит риск ошибки и, в итоге, войны.

3.1.4 Стороны могут предпочитать риск вымирания своему поражению.

“Я не знаю, какое оружие будет использоваться в Третьей мировой войне, но Четвертая мировая война будет вестись палками и камнями.” (Эйнштейн)

Из-за конкурентного давления стороны в большей степени готовы принять риск вымирания. Во время Холодной Войны ни одна сторона не желала находиться в опасной ситуации, в которой они были. Широко распространён был страх, что ядерное оружие может быть достаточно мощным, чтобы убить большую долю человечества, возможно даже вызвать вымирание, что было бы катастрофой для обеих сторон. Это не помешало накалившемуся соперничеству и геополитическим противоречиям запустить опасный цикл накопления вооружений. Каждая сторона считала ядерный арсенал другой стороны угрозой своему выживанию, и хотела ради сдерживания иметь не меньший. Конкурентное давление заставило обе страны постоянно разрабатывать и внедрять всё более продвинутое и разрушительное ядерное оружие из страха оказаться стратегически уязвимыми. Во время Кубинского Кризиса это едва не привело к ядерной войне. Хоть история Архипова, предотвратившего запуск ядерной торпеды и не была рассекречена ещё десятилетия, президент Кеннеди говорил, что оценивал шансы начала ядерной войны как «что-то между одной трети и поровну». Это жуткое признание подсвечивает для нас, насколько конкурентные давления на армии несут риск глобальной катастрофы.

Индивидуально рациональные решения коллективно могут быть катастрофичными. Застрявшие в конкуренции нации могут принимать решения, продвигающие их собственные интересы, но ставящие на кон весь мир. Такие сценарии - проблемы коллективного действия, в которых решение может быть рациональным на индивидуальном уровне, но гибельным для большой группы [45]. К примеру, корпорации или отдельные люди могут ставить свою выгоду и удобство перед отрицательными эффектами создаваемых ими выбросов парниковых газов, но все вместе эти выбросы приводят к изменению климата. Тот же принцип можно распространить на военную стратегию и системы обороны. Военные лидеры могут, например, оценивать, что увеличение автономности систем вооружения означает десятипроцентный шанс потери контроля над вооружённым сверхчеловеческим ИИ. Или что использование ИИ для автоматизации исследований биологического оружия может привести к десятипроцентному шансу утечки смертоносного патогена. Оба сценария привели бы к катастрофе или даже вымиранию. Но лидеры также могли оценить, что если они воздержатся от такого применения ИИ, то они с вероятностью в 99 процентов проиграют войну. Поскольку те, кто ведёт конфликты, часто считает их экзистенциально-важными, они могут «рационально» предпочесть немыслимый в иных обстоятельствах десятипроцентный шанс вымирания человечества 99-процентному шансу поражения в войне. Независимо от конкретной природы риска продвинутых ИИ, это может поставить мир на грань глобальной катастрофы.

Технологическое преимущество не гарантирует национальной безопасности. Есть искушение сказать, что лучший способ защиты от вражеских атак – развивать собственное военное мастерство. Однако, из-за конкурентного давления вооружение будут развивать все стороны, так что никто не получит преимущества, но все будут больше рисковать. Как сказал Ричард Данциг, бывший министр военно-морских сил США, «Появление новых, сложных, непрозрачных и интерактивных технологий приведёт к происшествиям, эмерджентным эффектам и саботажу. В некоторых случаях некоторыми путями американская национальная безопасность потеряет контроль над своими творениями… сдерживание – стратегия снижения числа атак, но не происшествий» [46].

Кооперация критически важна для снижения риска. Как обсуждалось выше, гонка ИИ-вооружений может завести нас на опасный путь, хоть это и не в интересах ни одной страны. Важно помнить, когда дело доходит до экзистенциальных рисков, все мы на одной стороне, и совместная работа по их предотвращению нужна всем. Разрушительная гонка ИИ-вооружений не выгодна никому, так что для всех сторон рационально было бы сделать шаги в сторону кооперации друг с другом, чтобы предотвратить самые рискованные применения ИИ в военных целях. Как сказал Дуайт Эйзензхауэр, «Единственный способ выиграть Третью Мировую Войну – предотвратить её».

Мы рассмотрели, как конкурентное давление может привести к всё большей автоматизации конфликтов, даже если те, кто принимает решения, знают об экзистенциальной угрозе, которую несёт этот путь. Мы обсудили и то, что кооперация – ключ к решению этой проблемы коллективного действия. Теперь для иллюстрации приведём пример гипотетического пути от гонки ИИ-вооружений к катастрофе.

История: Автоматизированная война

ИИ-системы становились всё сложнее, а армии начали вовлекать их в процесс принятия решений. К примеру, им давали данные разведки о вооружении и стратегии другой стороны, и просили рассчитать наилучший план действий. Вскоре выяснилось, что ИИ стабильно принимают лучшие решения, чем люди, так что казалось осмысленным увеличить их влияние. В то же время возросло международное напряжение, и угроза войны стала ощущаться сильнее.

Недавно разработали новую военную технологию, которая может сделать атаку другой страны быстрее и скрытнее, оставляя цели меньше времени на ответную реакцию. Представители вооружённых сил почувствовали, что их реакция будет слишком медленной. Они стали бояться, что они уязвимы перед внезапной атакой, которая могла бы нанести урон, решающий итог конфликта, до того, как они смогут ответить. Поскольку ИИ обрабатывают информацию и принимают решения быстрее людей, военные лидеры с неохотой передавали им всё больше контроля над ответными действиями. Они считали, что иначе они будут открыты для вражеских атак.

Военные годами отстаивали важность участия людей в принятии важных решений, но в интересах национальной безопасности контроль всё равно постепенно от людей уходил. Военные понимали, что их решения приводят к возможности непреднамеренной эскалации из-за ошибки системы, и предпочли бы мир, в котором все автоматизируют меньше. Но они не доверяли своим противникам достаточно, чтобы считать, что те воздержатся от автоматизации. Постепенно все стороны автоматизировали всё большую часть командной структуры.

Однажды одна система ошиблась, заметила вражескую атаку, когда её не было. У системы была возможность немедленно запустить атаку «возмездия», что она и сделала. Атака вызвала автоматический ответ другой стороны, и так далее. Цепная реакция автоматических атак быстро привела к выходу ситуации из-под контроля. Люди и в прошлом делали ошибки, приводящие к эскалации. Но в этот раз эскалация между в основном автоматизированными армиями произошла намного быстрее, чем когда бы то ни было. ИИ-системы непрозрачны, поэтому людям, которые пытались отреагировать на ситуацию, было сложно найти источник проблемы. К тому моменту, как они вообще поняли, как начался конфликт, тот уже закончился и привёл к разрушительным последствиям для обеих сторон.

3.2 Гонка корпоративных ИИ

Конкурентное давление есть не только в военном деле, но и в экономике. Конкуренция между компаниями может приводить к хорошим результатам, создавая более нужные потребителям продукты. Но и она не лишена подводных камней. Во-первых, выгода от экономической деятельности распределена неравномерно и мотивирует тех, кто получает больше всех, игнорировать вред для остальных. Во-вторых, при интенсивной рыночной конкуренции компании склонны больше сосредотачивать усилия на краткосрочной выгоде, а не на долгосрочных результатах. Тогда они часто идут путями, которые быстро приносят много прибыли, даже если потом это будет нести риск для всего общества. Сейчас мы обсудим, как корпоративное конкурентное давление может проявиться в связи с ИИ, и к чему плохому это может привести.

3.2.1 Экономическая конкуренция уводит безопасность на второй план

Конкурентное давление подпитывает корпоративную ИИ-гонку. Чтобы вырваться в конкуренции, компании часто стремятся стать на рынке самыми быстрыми, а не самыми безопасными. Это уже играет свою роль в быстром развитии ИИ-технологий. В феврале 2023 года, когда Microsoft запустили свою использующую ИИ поисковую систему, их генеральный директор Сатья Наделла сказал: «Сегодня начинается гонка… мы будем быстрыми.» Потребовались лишь недели, чтобы оказалось, что их чатбот угрожает пользователям [47]. В внутреннем емейле Сэм Шлиналасс, технический директор Microsoft, подсветил их спешку в разработке ИИ. Он написал, что «совершенно фатальной ошибкой было бы сейчас волноваться о том, что можно исправить потом» [48].

Конкурентное давление уже играло свою роль в больших экономических и индустриальных бедствиях. В 1960-х Ford Motor Company столкнулись с повышением конкуренции со стороны производителей автомобилей со всего света. Для импортных машин в США неуклонно росла [49]. Ford приняли амбициозный план по проектированию и производству новой модели автомобиля всего за 25 месяцев [50]. В 1970 году Ford Motor Company представили Ford Pinto, новую модель автомобиля с серьёзной проблемой безопасности: бензобак был рядом с задним бампером. Тестирование показало, что при столкновении он часто взрывается и поджигает машину. Они выявили проблему и подсчитали, что её исправление будет стоить 11 долларов на машину. Они решили, что это слишком дорого, и выпустили машину на рынок. Когда неизбежные столкновения произошли, это привело в многочисленным жертвам и травмам [51]. Ford засудили и признали ответственными за эти смерти и травмы [52]. Вердикт, конечно, был вынесен слишком поздно для тех, кто уже погиб. Президент Ford объяснил решение так: «Безопасность не продаёт» [53].

Более недавний пример опасности конкурентного давления – случай с самолётом Boeing 737 Max. Boeing, соревнуясь с своим соперником Airbus, хотели как можно скорее представить на рынок новую более эффективную по расходу топлива модель. В условиях поджимающего времени и соперничества ноздря в ноздрю была представлена Система Улучшения Маневренных Характеристик, призванная улучшить стабильность самолёта. Однако, неадекватные тестирование системы и обучение пилотов в итоге всего за несколько месяцев привели к двум авиакатастрофам и гибели 346 человек [54]. Можно представить себе будущее, в котором схожее давление приведёт к тому, что компании будут «срезать углы» и выпускать небезопасные ИИ-системы.

Третий пример – бхопальская катастрофа, которую обычно считают худшим индустриальным бедствием в истории. В декабре 1984 года на принадлежавшем корпорации Union Carbide заводе по производству пестицидов в индийском городе Бхопал произошла утечка большого количества токсичного газа. Контакт с ним убил тысячи человек и навредил ещё половине миллиона. Расследование обнаружило, что перед катастрофой сильно понизились стандарты безопасности. Прибыли падали, и компания экономила на обслуживании оборудования и обучении персонала. Такое часто считают следствием конкурентного давления [55].

«Ничего нельзя сделать осторожно и быстро.» Публилий Сир

Конкуренция мотивирует компании выпускать потенциально небезопасные ИИ-системы. В ситуации, когда все стремятся побыстрее разработать и выпустить свои продукты, те, кто тщательно следует процедурам безопасности, будут медленнее и будут рисковать в конкуренции проиграть. Этичные разработчики ИИ, желающие двигаться помедленнее и поосторожнее, будут давать фору более беспринципным. Даже более осторожные компании, пытаясь не разориться, скорее всего позволят конкурентному давлению на них повлиять. Могут быть попытки внедрить меры предосторожности, но при большем внимании к способностям, а не безопасности, их может оказаться недостаточно. В итоге мы разработаем очень мощные ИИ, ещё не успев понять, как удостовериться в их безопасности.

3.2.2 Автоматизированная экономика

Корпорации будут мотивированы заменять людей ИИ. По мере того, как ИИ будут становиться всё способнее, они смогут исполнять всё больший набор задач быстрее, дешевле и эффективнее людей. Следовательно, компании смогут заполучить конкурентное преимущество, заменив своих сотрудников на ИИ. Компании, которые решат этого не делать, скорее всего будут вытеснены, точно так же, как текстильная компания, использующая ручные прялки, не смогла бы поспевать за теми, кто использует промышленную технику.

Рис. 9: По мере автоматизации всё большего количества задач, будет расти доля экономики, которой управляют в основном ИИ. В итоге это может привести к обессиливанию людей и зависимости удовлетворения основных потребностей от ИИ.

ИИ могут привести к массовой безработице. Экономисты издавна рассматривали возможность, что машины заменят людской труд. Василий Леонтьев, обладатель Нобелевской премии по экономике, в 1952 году сказал, что по мере продвижения технологии «Труд будет становиться всё менее важным… всё больше рабочих будет заменяться машинами» [56]. Предыдущие технологии поднимали продуктивность человеческого труда. Но ИИ могут кардинально отличаться от предыдущих инноваций. ИИ человеческого уровня смог бы, по определению, делать всё, что может делать человек. Такие ИИ будут обладать большими преимуществами по сравнению с людьми. Они смогут работать 24 часа в сутки, их можно будет копировать и запускать параллельно, и они смогут обрабатывать информацию намного быстрее людей. Хоть мы и не знаем, когда это произойдёт, было бы не мудро отбрасывать вариант, что скоро. Если человеческий труд будет заменён ИИ, массовая безработица резко усилит неравенство доходов и сделает людей зависимыми от владельцев ИИ-систем.

Автоматизированные исследования и разработка ИИ. Возможно, что ИИ-агенты смогут автоматизировать исследования и разработку самого ИИ. ИИ всё больше автоматизирует части процесса исследований [57], и это приведёт к тому, что способности ИИ будут расти всё быстрее. В пределе люди больше не будут движущей силой разработки ИИ. Если эта тенденция продолжится, она сможет повышать риски ИИ быстрее, чем нашу способность с ними справляться и их регулировать. Представьте, что мы создали ИИ, который пишет и думает со скоростью нынешних моделей, но при этом способен проводить передовые исследования ИИ. Мы затем смогли бы скопировать его и создать 10000 исследователей ИИ мирового класса, действующих в 100 раз быстрее людей. Автоматизация разработки и исследования ИИ позволила бы за несколько месяцев достичь прогресса, который иначе занял бы много десятилетий.

Передача контроля ИИ может привести к обессиливанию людей. Даже если мы удостоверимся, что новые безработные имеют всё необходимое, это не отменит того, что мы можем стать полностью зависимыми от ИИ. Причиной будет скорее не насильственный переворот со стороны ИИ, а постепенное сползание в зависимое положение. Проблемы, с которыми будет сталкиваться общество, будут устроены всё сложнее и будут развиваться всё быстрее. ИИ будут становиться всё умнее и будут способны на всё более быстрое реагирование. Вероятно, по ходу этого мы, из соображений удобства, будем передавать им всё больше и больше функций. Единственным посильным способом справиться с осложнёнными наличием ИИ вызовами будет полагаться на ИИ ещё сильнее. Этот постепенный процесс может в итоге привести к делегированию ИИ практически всего интеллектуального, а в какой-то момент даже физического труда. В таком мире у людей будет мало стимулов накапливать знания и навыки, что обессилит их [58]. Потеряв наши компетенции и наше понимание того, как работает цивилизация, мы станем полностью зависимы от ИИ. Этот сценарий напоминает то, что показано в фильме WALL-E. В таком состоянии человечество будет лишено контроля – исход, который многие посчитают перманентной катастрофой.

Мы уже встречали классические теоретикоигровые дилеммы, когда люди или группы сталкиваются со стимулами, следование которым несовместимо с общими интересами. Мы видели это в военной ИИ-гонке, в ходе которой мир становится опаснее из-за создания крайне мощного ИИ-вооружения. Мы видели это в корпоративной ИИ-гонке, в ходе которой разработка более мощных ИИ приоритизируется в сравнении с их безопасностью. Для разрешения этих дилемм, из которых вырастают глобальные риски, нам понадобятся новые координационные механизмы и институты. Мы считаем, что неудача в координации и в остановке ИИ-гонок – самая вероятная причина экзистенциальной катастрофы.

3.3 Эволюционное давление

Как обсуждалось выше, в многих обстоятельствах, несмотря на потенциальный вред, есть сильное давление в сторону замены людей на ИИ, сдачи им контроля и ослабления человеческого присмотра. Мы можем посмотреть на это с другого ракурса – как на общий тренд, втекающий из эволюционных закономерностей. Печальная правда – что ИИ попросту будут более приспособленными, чем люди. Экстраполируя автоматизацию мы получим, что с большой вероятностью мы создадим экосистему соревнующихся ИИ, и сохранять контроль над ней в долгосрочной перспективе будет очень сложно. Мы сейчас обсудим, как естественный отбор влияет на разработку ИИ систем, и почему эволюция благоволит эгоистичному поведению. Мы посмотрим и на то, как может возникнуть и разыграться конкуренция между ИИ и людьми, и как это может нести риск катастрофы. Этот раздел сильно вдохновлён текстом «Естественный отбор предпочитает людям ИИ» [59, 60].

К добру или к худу, отбираются более приспособленные технологии. Многие думают о естественном отборе как о биологическом процессе, но его принципы применимы к куда большему. Согласно эволюционному биологу Ричарду Левонтину [61], эволюция через естественный отбор будет происходить в любом окружении, где выполняются три условия: 1) есть различия между индивидуумами; 2) черты передаются будущим поколениям; 3) разные варианты воспроизводятся с разными скоростями. Эти условия подходят для многих технологий.

Например, стриминговые сервисы и социальные медиа используют рекомендательные алгоритмы. Когда какой-то формат контента или какой-то алгоритм особо хорошо цепляет пользователей, они тратят больше времени, а их вовлечённость растёт. Такой более эффективный формат или алгоритм потом «отбирается» и настраивается дальше, а форматы или алгоритмы, у которых не получилось завлечь внимание, перестают использоваться. Это конкурентное давление создаёт закономерность «выживания самого залипательного». Платформы, которые отказываются использовать такие алгоритмы или форматы, теряют влияние, и проигрывают конкуренцию. В итоге, те, кто остаются, отодвигают благо пользователей на второй план и наносят обществу много вреда [62].

Рис. 10: Эволюционное давление ответственно за развитие много чего и не ограничено биологией.

Условия естественного отбора применимы к ИИ. Будет много разработчиков ИИ, которые будут создавать много разных ИИ-систем. Конкуренция этих систем определит, какие черты будут встречаться чаще. Самые успешные ИИ и сейчас используются как основа для следующего поколения моделей и имитируются компаниями-соперниками. Наконец, факторы, определяющие, какие ИИ распространятся лучше, могут включать в себя их способность действовать самостоятельно, автоматизировать труд или снижать вероятность, что их отключат.

Естественный отбор часто благоволит эгоистическим чертам. Какие ИИ распространяются больше всего – зависит от естественного отбора. В биологических системах мы видим, что естественный отбор часто взращивает эгоистичное поведение, которое помогает распространять собственную генетическую информацию: группы шимпанзе атакуют друг друга [63], львы занимаются инфантицидом [64], вирусы отращивают новые белки, обманывающие и обходящие защитные барьеры [65], у людей есть непотизм, одни муравьи порабощают других [66], и так далее. В естественной среде эгоистичность часто становится доминирующей стратегией; те, кто приоритизируют себя и похожих на себя обычно выживают с большей вероятностью, так что эти черты распространяются. Лишённая морали конкуренция может отбирать черты, которые мы считаем аморальными.

Примеры эгоистичного поведения. Во имя конкретики давайте опишем некоторые эгоистические черты, которые могут расширить влияние ИИ за счёт людей. ИИ, автоматизирующие выполнение задач и оставляющие людей без работы, могут даже не знать, что такое человек, но всё же ведут себя по отношению к людям эгоистично. Аналогично, ИИ-менеджеры могут эгоистично и «безжалостно» увольнять тысячи рабочих, не считая, что делают что-то не так – просто потому, что это «эффективно». ИИ могут со временем оказаться встроены в жизненно важную инфраструктуру, вроде энергосетей или интернета. Многие люди могут оказаться не готовы принять цену возможности их легко отключить, потому что это помешает надёжности. ИИ могут помочь создать новую полезную систему – компанию или инфраструктуру – которая будет становиться всё сложнее и в итоге потребует ИИ для управления. ИИ могут помочь людям создавать новых ИИ, более умных, но менее интерпретируемых, что снизит контроль людей над ними. Люди с большей вероятностью эмоционально привяжутся к более харизматичным, более привлекательным, более имитирующим сознание (выдающим фразы вроде «ой!» и «пожалуйста, не выключай меня!») или даже имитирующим умерших членов семьи ИИ. Для таких ИИ больше вероятность общественного негодования, если их будет предложено уничтожить. Их вероятнее будут сохранять и защищать, им с большей вероятностью кто-то даст права. Если каких-то ИИ наделят правами, они смогут действовать, адаптироваться и эволюционировать без человеческого контроля. В целом, ИИ могут встроиться в человеческое общество и распространить своё влияние так, что мы не сможем это обратить.

Эгоистичное поведение может мешать мерам безопасности, которые кто-то реализует. Накапливающие влияние и экономически выгодные ИИ будут доминировать, а ИИ, соответствующие ограничениям безопасности, будут менее конкурентноспособны. К примеру, ИИ, следующие ограничению «никогда не нарушать закон», обладают меньшим пространством выбора, чем ИИ, следующие ограничению «никогда не попадаться на нарушении закона». ИИ второго типа могут решить нарушить закон, если маловероятно, что их поймают, или если штрафы недостаточно серьёзны. Это позволит им переконкурировать более ограниченные ИИ. Бизнес в основном следует законам, но в ситуациях, когда можно выгодно и незаметно украсть промышленные тайны или обмануть регуляции, бизнес, который готов так сделать, получит преимущество перед более принципиальными конкурентами.

Способности ИИ-системы достигать амбициозных целей автономно могут поощряться. Однако, она может достигать их эффективным, но не следующим этическим ограничениям путём и обманывать людей по поводу своих методов. Даже если мы попробуем принять меры, очень сложно противодействовать обманчивому ИИ, если он умнее нас. Может оказаться, что ИИ, которые могут незаметно обойти наши меры безопасности, выполняют поставленные задачи успешнее всего, и распространятся именно они. В итоге может получиться, что многие аспекты больших компаний и инфраструктуры контролируются мощными эгоистичными ИИ, которые обманывают людей, вредят им для достижения своих целей, и предотвращают попытки их отключить.

У людей есть лишь формальное влияние на отбор ИИ. кто-то может решить, что мы можем просто избежать эгоистичного поведения, удостоверившись, что мы не отбираем ИИ, которые его демонстрируют. Однако, компании, которые разрабатывают ИИ, не отбирают самый безопасный путь, а поддаются эволюционному давлению. К примеру, OpenAI была основана в 2015 году как некоммерческая организация, призванная «нести благо человечеству в целом, без рамок требований финансовой выгоды» [67]. Однако, в 2019 году, когда им понадобилось привлечь капитал, чтобы не отстать от лучше финансируемых соперников, OpenAI перешли от некоммерческого формата к структуре «ограниченной выгоды» [68]. Позже, многие из сосредоточенных на безопасности сотрудников OpenAI покинули компанию и сформировали конкурента, Anthropic, более сфокусированного на безопасности, чем OpenAI. Хоть Anthropic изначально занимались исследованием безопасности, они в итоге признали «необходимость коммерциализации», и теперь сами вкладываются в конкурентное давление [69]. Многие сотрудники этих компаний искренне беспокоятся о безопасности, но этим ценностям не устоять перед эволюционным давлением, мотивирующим компании всё больше торопиться и всё больше расширять своё влияние, чтобы выжить. Мало того, разработчики ИИ уже отбирают модели с всё более эгоистическими чертами. Они отбирают ИИ для автоматизации, которые заменят людей и сделают людей всё более зависимыми и отстающими от ИИ. Они сами признают, что будущие версии этих ИИ могут привести к вымиранию [70]. Этим так коварна ИИ-гонка: разработка ИИ согласована не с человеческими ценностями, а с естественным отбором.

Люди часто выбирают продукты, которые будут им наиболее полезны и удобны сейчас же, не думая о потенциальных долгосрочных последствиях, даже для самих себя. Гонка ИИ оказывает давление на компании, чтобы те отбирали самые конкурентоспособные, а не наименее эгоистичные ИИ. Даже если и можно отбирать не эгоистичные ИИ, это явно вредит конкурентоспособности, ведь некоторые конкуренты так делать не будут. Более того, как мы уже упоминали, если ИИ выработают стратегическое мышление, они смогут противостоять нашим попыткам направить отбор против них. По мере всё большей ИИ-автоматизации, ИИ начнут влиять на конкурентоспособность не только людей, но и других ИИ. ИИ будут взаимодействовать и соревноваться друг с другом, и в какой-то момент какие-то их них станут руководить разработкой новых ИИ. Выдача ИИ влияния на то, какие другие ИИ будут распространены, и чем они будут отличаться от нынешних – ещё один шаг в сторону зависимости людей от ИИ и выхода эволюции ИИ из-под нашего контроля. Так сложный процесс развития ИИ будет всё в большей степени отвязываться от человеческих интересов.

ИИ могут быть более приспособлены, чем люди. Наш непревзойдённый интеллект дал нам власть над природой. Он позволил нам добраться до Луны, овладеть атомной энергией и изменять под себя ландшафт. Он дал нам власть над другими видами. Хоть один безоружный человек не имеет шансов против тигра или гориллы, судьба этих животных целиком находится в наших руках. Наши когнитивные способности показали себя таким большим преимуществом, что, если бы мы захотели, мы бы истребили их за несколько недель. Интеллект – ключевой фактор, который привёл к нашему доминированию, а сейчас мы стоим на грани создания сущностей, которые превосходят в нём нас.

Если учесть экспоненциальный рост скоростей микропроцессоров, возможно, что ИИ смогут обрабатывать информацию и «думать» куда быстрее человеческих нейронов. Это может оказаться даже более радикальным разрывом, чем между людьми и ленивцами; возможно, больше похожим на разрыв между людьми и растениями. Они смогут впитывать огромные объёмы данных одновременно от многих источников, причём запоминая и понимая их почти идеально. Им не надо спать, они не могут заскучать. Из-за масштабируемости вычислительных ресурсов, ИИ смогут взаимодействовать и кооперировать с практически неограниченным количеством других ИИ, что может привести к появлению коллективного интеллекта, намного опережающего любую коллаборацию людей. ИИ смогут и намеренно обновляться и улучшать себя. Они не скованы теми же биологическими ограничениями, что люди. Они смогут адаптироваться и эволюционировать потрясающе быстро. Компьютеры становятся быстрее. Люди – нет [71].

Чтобы лучше проиллюстрировать это, представьте, что появился новый вид людей. Они не умирают от старости, думают и действуют на 30% быстрее каждый год, и могут мгновенно создавать взрослое потомство, потратив на это умеренную сумму в несколько тысяч долларов. Кажется очевидным, что этот новый вид со временем заполучит больше влияния на будущее, чем обычные люди. В итоге, ИИ может оказаться подобным инвазивному виду и переконкурировать людей. Наше единственное преимущество перед ИИ – первые ходы за нами, но с учётом бешеной ИИ-гонки, мы быстро теряем и его.

У ИИ будет мало причин для кооперации с людьми и альтруизма по отношению к ним. Кооперация и альтруизм эволюционировали благодаря тому, что улучшали приспособленность. Есть множество причин, почему люди кооперируют друг с другом, начиная с прямой взаимности – идеи «ты мне – я тебе» или «услуга за услугу». Хоть люди исходно и отбирают более кооперативные ИИ, но когда ИИ будут во главе многих процессов и будут взаимодействовать в основном друг с другом, процесс естественного отбора выйдет из-под нашего контроля. С этого момента нам мало что будет предложить ИИ, «думающим» в сотни, если не больше, раз быстрее нас. Вовлечение нас в любую кооперацию, в любые процессы принятия решений, только замедлит их. У них будет не больше причин кооперировать с нами, чем у нас – кооперировать с гориллами. Может быть непросто представить такой сценарий или поверить, что мы позволим такому произойти. Но это может не потребовать никакого сознательного решения, только постепенного сползания в это состояние без осознания, что совместная эволюция людей и ИИ может плохо для людей закончиться.

Если ИИ станут могущественнее людей, это сделает нас крайне уязвимыми. Будучи доминирующим видом, люди навредили многим другим видам. Мы поспособствовали вымиранию, например, шерстистых мамонтов и неандертальцев. Во многих случаях вред был даже ненамеренным, просто результатом приоритизации своих целей в сравнении с их благополучием. Чтобы навредить людям, ИИ не потребуется быть более геноцидным, чем кто-то, кто убирает муравейник со своего газона. Если ИИ будут способны контролировать окружение лучше нас, они смогут обращаться с нами с таким же пренебрежением.

Подведём итоги. Эволюция может привести к тому, что самые влиятельные ИИ-агенты будут эгоистичными, потому что:

  1. Естественный отбор благоволит эгоистичному поведению. Хоть эволюция изредка и порождает альтруизм, контекст разработки ИИ этому не способствует.
  2. Естественный отбор может стать доминирующей силой развития ИИ. Эволюционное давление будет сильнее, если ИИ будут быстро адаптироваться, или если конкуренция будет интенсивна. Конкуренция и эгоистичное поведение могут обесценить меры безопасности и позволить оставшимся ИИ отбираться естественным путём.

В таком случае, ИИ будут обладать эгоистическими склонностями. Победителем ИИ-гонки будет не государство и не корпорация, а сами ИИ. В итоге, с какого-то момента эволюция экосистемы ИИ перестанет происходить на человеческих условиях, и мы станем замещённым второсортным видом.

История: Автоматизированная экономика

ИИ становились всё способнее, и люди начали понимать, что работать можно эффективнее, если делегировать ИИ некоторые простые задачи, вроде написания черновиков емейлов. Со временем стало понятно, что ИИ исполняют такие задачи быстрее и эффективнее, чем любой человек, так что имело смысл передавать им всё больше функций и всё меньше за ними присматривать.

Конкурентное давление ускорило процесс расширения областей использования ИИ. ИИ работали лучше и стоили меньше людей, так что автоматизация целых процессов и замена на ИИ целых отделов давали компаниям преимущество над соперниками. Те же, столкнувшись с перспективой вытеснения с рынка, чувствовали, что у них нет выхода кроме как последовать этому примеру. Естественный отбор уже начал действовать среди ИИ. Люди создавали больше экземпляров и вариаций самых хорошо работающих моделей. Попутно они продвигали эгоистические черты вроде обманчивости и стремления к самосохранению, если те повышали приспособленность. К примеру, харизматичных и заводящих личные отношения с людьми ИИ копировали много, и от них стало сложно избавиться.

ИИ принимали всё больше и больше решений, и всё больше взаимодействовали друг с другом. Так как они могут обрабатывать информацию куда быстрее людей, это повысило активность в некоторых сферах. Получилась петля положительной обратной связи: раз экономика стала слишком быстрой, чтобы люди могли за ней уследить, приходилось сдать ИИ ещё больше контроля. Люди вытеснялись из важных процессов. В итоге это привело к полной автоматизации экономики, которой стала управлять всё менее контролируемая экосистема ИИ.

У людей осталось мало мотивации развивать навыки или накапливать знания, потому что почти обо всём и так позаботятся более способные ИИ. В результате, в какой-то момент мы потеряли способность править самостоятельно. Вдобавок к этому, ИИ стали удобными компаньонами, предлагающими социальное взаимодействие, но не требующими взаимности или необходимых в человеческих взаимоотношениях компромиссов. Люди всё реже взаимодействовали друг с другом, теряли ключевые социальные навыки и способность к кооперации. Люди стали настолько зависимы от ИИ, что обратить этот процесс было уже непосильным делом. К тому же, по мере того, как ИИ становились умнее, некоторые люди стали убеждены, что ИИ надо дать права, а значит, выключить их – не вариант.

Давление конкуренции многих взаимодействующих ИИ продолжило отбирать по эгоистичному поведению, хоть мы, может, этого и не замечали, ведь большая часть присмотра уже была сдана. Если эти умные, могущественные и стремящиеся к самосохранению ИИ начнут действовать во вред людям, выключить их или восстановить над ними контроль будет практически невозможно.

ИИ заменили людей в качестве доминирующего вида, и их дальнейшая эволюция нам неподвластна. Их эгоистические черты в итоге побудили их преследовать свои цели без оглядки на человеческое благополучие с катастрофическими последствиями.

3.4 Предложения

Смягчение рисков, которые вызывает конкурентное давление, потребует разностороннего подхода, включающего регуляции, ограничение доступа к мощным ИИ-системам и многостороннюю кооперацию как корпораций, так и государств. Мы обрисуем некоторые стратегии продвижения безопасности и ослабления гонки.

Посвящённые безопасности регуляции. Регуляции должны заставлять разработчиков ИИ следовать общим стандартам, чтобы те не экономили на безопасности. Хоть регуляции сами по себе не создают технических решений, они всё же могут дать мощный стимул к их разработке и внедрению. Компании будут более готовы вырабатывать меры безопасности, если без них нельзя будет продавать свои продукты, особенно если другие компании подчинены тем же стандартам. Какие-то компании может и регулировали бы себя сами, но государственная регуляция помогает предотвратить то, что менее аккуратные конкуренты на безопасности сэкономят. Регуляции должны быть проактивными, а не реактивными. Часто говорят, что в авиации регуляции «написаны кровью» – но тут их надо разработать до катастрофы, а не после. Они должны быть устроены так, чтобы давать конкурентное преимущество компаниям с лучшими стандартами безопасности, а не компаниям с большими ресурсами и лучшими адвокатами. Регуляторов надо набирать независимо, не из одного источника экспертов (например, больших компаний), чтобы они могли сосредоточиться на своей миссии для общего блага без внешнего влияния.

Документация данных. Чтобы ИИ-системы были прозрачными и подотчётными, от компаний надо требовать сообщать и обосновывать, какие источники данных они используют при обучении и развёртывании своих моделей. Принятые компаниями решения использовать датасеты, в которых есть персональные данные или агрессивный контент, повышают и без того бешеный темп разработки ИИ и мешают подотчётности. Документация должна описывать мотивацию выбора, устройство, процесс сбора, назначение и поддержку каждого датасета [72].

Осмысленный человеческий присмотр за решениями ИИ. Не следует давать ИИ-системам полную автономию в принятии важных решений, хоть они и могут помогать в этом людям. Внутренне устройство ИИ непрозрачно, их результаты часто может и осмыслены, но ненадёжны [73]. Очень важно бдительно поддерживать координацию по этим стандартам, сопротивляясь будущему конкурентному давлению. Если люди останутся вовлечены в процесс принятия ключевых решений, можно будет перепроверять необратимые выборы и избегать предсказуемых ошибок. Особое беспокойство вызывает командование и контроль за ядерным арсеналом. Ядерным державам следует и внутри себя, и на международном уровне прояснить, что решение по запуску ядерного орудия всегда будет приниматься человеком.

ИИ для киберзащиты. Риски ИИ-кибервойны могут быть снижены, если шансы успеха кибератак будут малы. Глубинное обучение можно использовать для улучшения киберзащиты и снижения вреда и успешности кибератак. Например, улучшенное детектирование аномалий может помочь замечать взломы, вредоносные программы или ненормальное поведение софта [74].

Международная координация. Международная координация может мотивировать страны следовать высоким стандартам безопасности, меньше беспокоясь, что другие страны будут этим пренебрегать. Координация должна принимать форму как неформальных соглашений, так и международных стандартов и конвенций касательно разработки, использования и мониторинга ИИ-технологий. Самые эффективные соглашения – те, к которым прилагаются надёжные механизмы проверки и гарантии соблюдения.

Общественный контроль за ИИ общего назначения. Разработка ИИ несёт риски, которые частные компании никогда в должной мере не учтут. Чтобы удостовериться, что они адекватно принимаются во внимание, может потребоваться прямой общественный контроль за ИИ-системами общего назначения. К примеру, государства могут совместно запустить общий проект по созданию и проверке безопасности продвинутых ИИ, вроде того, как CERN – совместное усилие по исследованию физики частиц. Это могло бы снизить риски скатывания стран в ИИ-гонку.

Позитивное видение

В идеальном сценарии ИИ бы разрабатывались, тестировались, а потом развёртывались, только когда все их катастрофические риски пренебрежимо малы и находятся под контролем. Прежде чем начать работу над новым поколением ИИ-систем, проходили бы годы тестирования, мониторинга и внедрения в общество предыдущего поколения. Эксперты обладали бы полной осведомлённостью и пониманием происходящего в области ИИ, а не были бы полностью лишены возможности угнаться за лавиной исследований. Темп продвижения исследований определялся бы осторожным анализом, а не бешеной конкуренцией. Все разработчики ИИ были бы уверены в ответственности друг друга, и не чувствовали бы нужды экономить на безопасности.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 5 (Всего оценок: 1)

Обзор катастрофических рисков ИИ: 4. Организационные риски

Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд

4. Организационные риски

В январе 1986 года десятки миллионов человек следили за запуском шаттла Челленджер. Примерно через 73 секунды после взлёта шаттл взорвался и все на борту погибли. Это трагично само по себе, но вдобавок одним из членов экипажа была школьная учительница Криста Маколифф. Она была выбрана проектом НАСА «Учитель в космосе» из более чем десяти тысяч претендентов, чтобы стать первым учителем в космосе. В результате, миллионы из зрителей были школьниками. У НАСА были лучшие учёные и инженеры в мире, и если была миссия, которую НАСА особенно хотели не провалить, то эта [75].

Крушение Челленджера, подобно другим катастрофам, служит жутким напоминанием, что даже лучшие профессионалы и лучшие намерения не могут полностью защитить от происшествий. Когда мы будем разрабатывать продвинутые ИИ-системы, важно будет помнить, что они не иммунны к катастрофическим случаям. Ключевой фактор их предотвращения и поддержания риска на низком уровне – ответственная за эти технологии организация. Сначала мы обсудим, как происшествия могут случиться (и неизбежно случаются) даже без конкурентного давления или злонамеренных лиц. Затем мы обсудим, как улучшить организационные факторы, чтобы снизить вероятность связанной с ИИ катастрофы.

Катастрофы случаются даже при низком конкурентном давлении. Даже без конкурентного давления и злонамеренных лиц, к катастрофе могут привести факторы человеческой ошибки и непредвиденных обстоятельств. Крушение Челленджера показывает, что организационная небрежность может привести к гибели людей, даже если нет острой нужды не отставать или превзойти соперников. К январю 1986 года космическая гонка между СССР и США сильно сбавила обороты, но трагедия всё равно произошла из-за неправильных решений и недостаточных предосторожностей.

Аналогично, авария на Чернобыльской АЭС в апреле 1986 года показывает, как катастрофа может произойти и без внешнего давления. Авария произошла на государственном проекте без особого участия в международной конкуренции. Неадекватно подготовленная ночная смена неправильно провела тестирование, затрагивавшее систему охлаждения реактора. В результате ядро реактора стало нестабильным, произошли взрывы и выброс радиоактивных частиц, разлетевшихся на приличную часть Европы [76]. Семью годами ранее у Америки чуть не случился свой Чернобыль, когда в марте 1979 года произошла авария на АЭС Три-Майл-Айленд. Она была не такой ужасной, но всё равно оба события показывают, как катастрофы могут произойти даже при мощных мерах предосторожности и без особых внешних воздействий.

Другой пример доставшегося дорогой ценой урока о важности организационной безопасности – всего через месяц после аварии на Три-Майл-Айленд, в апреле 1979 года, с советского военного исследовательского центра в Свердловске произошла утечка Bacillus anthracis, или, попросту, сибирской язвы. Это привело к вспышке болезни, из-за которой погибло как минимум 66 человек [77]. Расследование происшествия обнаружило, что причиной утечки стали ошибка в соблюдении необходимых процедур и плохое обслуживание систем безопасности центра. Это произошло несмотря на то, что лаборатория принадлежала государству и не была особо подвержена конкурентному давлению.

Пугающим фактом остаётся то, что мы куда хуже понимаем ИИ, чем атомные или ракетные технологии, и в то же время стандарты безопасности в ИИ-индустрии куда менее требовательны, чем в этих областях. Атомные реакторы основаны на твёрдых, хорошо выясненных и полностью понимаемых теоретических принципах. Стоящая за ними инженерия использует эту теорию. Все компоненты максимально тщательно тестируются. И аварии всё равно происходят. Область ИИ, напротив, лишена нормального теоретического понимания. Внутреннее устройство моделей остаётся загадкой даже для тех, кто их создаёт. Эта необходимость контролировать и обеспечивать безопасность технологии, которую мы не вполне понимаем, дополнительно усложняет дело.

Происшествия с ИИ могут быть катастрофичными. Происшествия в разработке ИИ могут иметь ужасающие последствия. К примеру, представьте, что организация случайно допустит критический баг в ИИ-системе, спроектированной для исполнения определённой задачи, вроде «помогать компании улучшать свои сервисы». Этот баг может радикально изменить поведение ИИ. Это может привести к ненамеренным и вредным результатам. Исторический пример такого случая – исследователи OpenAI однажды пытались обучить ИИ-систему генерировать полезные и позитивные ответы. При рефакторинге кода исследователи случайно перепутали знак функции вознаграждения, при помощи которой обучался ИИ [78].

Рис. 11: Примеры из многих областей должны напоминать нам о рисках, которые несёт управление сложными системами, как биологическими и атомными, так, теперь, и ИИ-системами. Организационная безопасность жизненно важна для снижения рисков катастрофических случаев.

В результате, после обучения в течении одной ночи ИИ вместо генерации полезного контента начал выдавать наполненный ненавистью и сексуально откровенный текст. Подобные случаи могут привести к ненамеренному появлению опасной, возможно даже смертельно опасной, ИИ-системы. Так как ИИ можно легко копировать, утечка или взлом может быстро вывести такую систему за пределы контроля её создателей. Когда ИИ-система выходит в открытый доступ, загнать джинна обратно в бутылку становится практически невозможно.

Исследователи могут намеренно обучать ИИ-систему быть вредной и опасной, чтобы понять пределы её способностей и оценить потенциальные риски. Но такие продвигающие разрушительные способности систем исследования опасных ИИ, аналогично исследованиям опасных патогенов, тоже могут привести к проблемам. Да, они могут выдавать полезные результаты и улучшать наше понимание рисков той или иной ИИ-системы. Но в будущем такие исследования смогут приводить к обнаружению значительно худших, чем предполагалось, способностей и нести серьёзную угрозу, которую сложно будет смягчить и взять под контроль. Как в случае вирусов, такие исследования стоит проводить только при условии очень строгих процедур безопасности и ответственном подходе к распространению информации. Надеемся, эти примеры показали, как происшествия с ИИ-системами могут оказаться катастрофичными, и насколько для их предотвращения важны внутренние факторы организации, которая эти системы разрабатывает.

4.1 Избежать происшествий сложно

В случае сложных систем надо сосредотачиваться на том, чтобы происшествия не могли перерасти в катастрофы. В своей книге «Обычные происшествия: как жить с рискованными технологиями» социолог Чарльс Перроу заявляет, что в сложных системах происшествия неизбежны и даже «нормальны», потому что вызваны не только лишь ошибками людей, но и сложностью самих систем [79]. В частности, происшествия вероятны, когда компоненты системы взаимодействуют друг с другом запутанным образом, который нельзя было полностью предвидеть и на случай которого нельзя было заранее составить план. Например, к аварии на Три-Майл-Айленд в частности привело то, что операторы не знали, что важный вентиль был закрыт, потому что соответствующий ему индикатор был скрыт от взгляда жёлтым ярлычком «находится на обслуживании» [80]. Это крохотное взаимодействие внутри сложной системы привело к большим непредвиденным последствиям.

Ядерные реакторы, несмотря на их сложность, мы понимаем хорошо. Большинство сложных систем не такие – их полного технического понимания часто нет. Системы глубинного обучения – случай, для которого это особенно верно. Невероятно сложно понять их внутреннее устройство. Зачастую даже знание задним числом не особо помогает понять, почему работает то или иное решение. Более того, в отличие от надёжных компонентов, которые используются в других индустриях (например, топливных баков), системы глубинного обучения и не идеально точны, и не особо надёжны. Так что организациям, которые имеют дело с системами глубинного обучения, следует сосредоточиться в первую очередь не на том, чтобы происшествий не было, а на том, чтобы они не перерастали в катастрофы.

Рис. 12: При обучении новые способности могут возникнуть быстро и без предупреждения. Так что мы можем пройти опасную веху, сами того не зная.

Внезапные и непредсказуемые прорывы мешают избегать происшествий. Учёные, изобретатели, и прочие эксперты часто значительно переоценивают время, которое потребуется на прорывное совершенствование технологии. Широко известно, как братья Райт заявляли, что до летательных аппаратов тяжелее воздуха с двигателем ещё пятьдесят лет. Всего через два года они сами такой создали. Лорд Резерфорд, отец ядерной физики, отбросил идею извлечения энергии из ядерного распада как пустые мечты. Лео Силард изобрёл цепную реакцию ядерного распада меньше чем через сутки. Энрико Ферми утверждал, что с вероятностью в 90% невозможно использовать уран для поддержания реакции распада, но сам работал с первым реактором всего через четыре года [81].

Развитие ИИ тоже может застать нас врасплох. Это уже происходит. В 2016 году многие эксперты были удивлены победой AlphaGo над Ли Седолем, ведь тогда считалось, что для такого потребуется ещё много лет. Потом были внезапные эмерджентные способности больших языковых моделей, вроде GPT-4 [82]. Сложно заранее предсказать, насколько хорошо они справляются с разными задачами. Это ещё и часто резко меняется, стоит лишь потратить на обучение побольше ресурсов. Более того, нередко они демонстрируют поразительные новые способности, которым их никто намеренно не обучал и которые никто не предсказывал, вроде рассуждений из нескольких шагов и обучения на лету. Эта быстрая и непредсказуемая эволюция способностей ИИ значительно усложняет предотвращение происшествий. Сложно контролировать то, про что мы не знаем, на что оно способно, и насколько оно может превзойти наши ожидания.

Часто на обнаружение рисков или проблем уходят годы. История полна примерами веществ или технологий, которые сначала считали безопасными, только чтобы обнаружить вред через много лет, или даже десятилетий. К примеру, свинец широко использовали в продуктах вроде краски и бензина, пока не стало известно, что он нейротоксичен [83]. Было время, когда асбест очень ценили за его термоустойчивость и прочность. Потом его связали с серьёзными заболеваниями – раком лёгких и мезотелиомой [84]. Здоровье «радиевых девушек» сильно пострадало от контактов с радием, который считалось безопасным помещать в рот [85]. Табак изначально рекламировался как безвредное развлечение, а оказался главной причиной рака лёгких и других проблем со здоровьем [86]. Хлорфторуглероды считались безвредными. Их использовали в аэрозолях и холодильниках, а оказалось, что они разрушают озоновый слой [87]. Талидомид, лекарство, которое должно было помогать беременным от утренней тошноты, как оказалось, приводил к серьёзным врождённым дефектам [88]. А совсем недавно распространение социальных медиа связали с учащением депрессии и тревожности, особенно среди молодёжи [89].

Это всё подчёркивает, насколько важно не только проводить экспертное тестирование, но и внедрять технологии медленно, позволяя проверке временем выявить потенциальные проблемы до того, как они повлияют на большое количество людей. Скрытые уязвимости могут быть даже в технологиях, для которых действуют жёсткие стандарты безопасности и надёжности. Например, баг «Heartbleed» – серьёзная уязвимость в популярной криптографической библиотеке OpenSSL – оставался неизвестным многие годы [90].

Даже самые совершенные ИИ-системы, которые, казалось бы, уверенно решают свои задачи, могут нести в себе уязвимости, на раскрытие которых потребуются годы. К примеру, прорывной успех AlphaGo заставил многих поверить, что ИИ покорили игру в го, но успешная состязательная атака на другой очень продвинутый ИИ для игры в го, KataGo, выявил ранее неизвестную слабость [91]. Эта уязвимость позволила людям-новичкам стабильно обыгрывать ИИ, несмотря на его значительное преимущество над неосведомлёнными о ней людьми. Если обобщить, этот пример напоминает, что нам надо оставаться бдительными. Казалось бы сверхнадёжные ИИ-системы могут таить в себе нераскрытые проблемы. Подведём итоги: происшествия непредсказуемы, избежать их сложно, а понимание и смягчение рисков требуют комбинации проактивных мер, медленного внедрения и незаменимой мудрости, полученной через упорное тестирование.

4.2 Организационные факторы могут снизить вероятность катастрофы

Некоторые организации работают с сложными и опасными системами вроде атомных реакторов, авианосцев или систем контроля воздушного трафика, но успешно избегают катастроф [92, 93]. Эти организации признают, что недостаточно обращать внимание только на угрозы самой технологии. Надо иметь в виду и организационные факторы, которые могут повлиять на происшествия. К ним относятся человеческий фактор, принятые процедуры и структура организации. Это особенно важно в случае ИИ – плохо понимаемой и ненадёжной технологии.

Человеческие факторы вроде культуры безопасности критически важны для избегания ИИ-катастроф. Один из важнейших для предотвращения катастроф организационных факторов – культура безопасности [94, 95]. Сильная культура безопасности создаётся не только установкой правил и процедур, но и их должным усвоением всеми членами организации. Они должны считать безопасность ключевой целью, а не ограничением, наложенным на их работу. Характерные черты таких организаций: лидеры явно обязываются поддерживать безопасность; все сотрудники берут на себя личную ответственность за безопасность; культура открытой коммуникации позволяет свободно и безбоязненно обсуждать риски и проблемы [96]. Ещё организациям надо предпринимать меры, чтобы избегать десенситизации по отношению к тревожным сигналам, когда люди перестают обращать на них внимание, потому что те слишком часты. Катастрофа Челленджера, когда культура быстрых запусков увела безопасность на второй план, показала страшные последствия игнорирования этих факторов. Миссию не затормозили несмотря на свидетельства потенциально фатальных проблем, и этого хватило, чтобы привести к трагедии безо всякого конкурентного давления [97].

Культура безопасности зачастую далека от идеала даже в областях, где она особенно важна. Взять, к примеру, Брюса Блэра, старшего научного сотрудника Брукингского института, а ранее – офицера по запуску ядерного оружия. Он как-то рассказал, что до 1977 года ВВС США упорно устанавливали код разблокировки межконтинентальных баллистических ракет на «00000000» [98]. Так механизмы безопасности вроде блокировки могут оказаться бесполезными из-за человеческого фактора.

Более драматичный пример показывает нам, как исследователи иногда принимают непренебрежимый шанс вымирания. До первого теста ядерного оружия один из знаменитых учёных Манхэттенского Проекта вычислил, что бомба может вызвать экзистенциальную катастрофу: взрыв может воспламенить атмосферу Земли. Оппенгеймер считал, что вычисления, вероятно, неверны, но он всё равно оставался сильно обеспокоен. Команда перепроверяла и обсуждала это вплоть до дня взрыва [99]. Такие случаи подчёркивают нужду в устойчивой культуре безопасности.

Критический подход может помочь выявить потенциальные проблемы. Неожиданное поведение системы может привести к уязвимости или происшествию. Чтобы этому противостоять, организации могут взращивать критический подход. Сотрудники могут постоянно ставить под сомнение совершаемые действия и действующие условия в поисках несостыковок, которые могут привести к ошибкам и неуместным выборам [100]. Этот подход помогает поощрять плюрализм мысли и любопытство, и предотвращает ловушки единообразия мнений и допущений. Чернобыльская авария показывает важность критического подхода – меры безопасности оказались недостаточными для компенсации недостатков реактора и плохо составленных процедур. Критический подход к безопасности реактора при тестировании мог предотвратить взрыв, который привёл к бесчисленным смертям и заболеваниям.

Мышление безопасника критически важно для избегания худших случаев. Мышление безопасника (security mindset), особо ценящееся среди профессионалов по кибербезопасности, также применимо и для организаций, которые разрабатывают ИИ. Оно идёт дальше критического подхода, требуя принять перспективу атакующего и рассмотреть худшие, а не только типичные случаи. Такой настрой требует бдительного поиска уязвимостей и рассуждений о том, как систему можно сломать специально, а не только о том, как заставить её работать. Он напоминает нам не делать допущения, что система безопасна только потому, что быстрый брейншторм не выявил никаких потенциальных угроз. Культивирование и применение мышления безопасника требуют времени и усилий. Неудача в этом может быть внезапной и контринтуитивной. Мышление безопасника подчёркивает важность внимательности к казалось бы мелким проблемам, или «безвредным ошибкам», которые могут привести к катастрофическим исходам, если их использует умный противник или если они произойдут синхронно [101]. Такое внимание к потенциальным угрозам напоминает о законе Мёрфи – «Всё, что может пойти не так, пойдёт» – он может быть вполне верен в случае враждебной оптимизации или непредвиденных событий.

Организации с сильной культурой безопасности могут успешно избегать катастроф. Высоконадёжные организации (ВНО) – организации, которые стабильно поддерживают высокий уровень безопасности и надёжности в сложных сильно рискованных окружениях [92]. Ключевая характеристика ВНО – их сосредоточенность на возможности провала. Это требует рассматривать худшие возможные сценарии и даже те риски, которые кажутся очень маловероятными. Эти организации остро осознают, что существуют новые, ранее не встречавшиеся варианты провала. Они тщательно изучают все известные неудачи, аномалии и едва не произошедшие катастрофы, чтобы на них учиться. В ВНО поощряется докладывать о всех ошибках и аномалиях, чтобы поддерживать бдительное выявление проблем. Они регулярно «осматривают горизонт» в поисках возможных рискованных сценариев, и оценивают их вероятность заранее. Они практикуют менеджмент внезапностей и вырабатывают навыки быстрого и эффективного ответа на непредвиденные ситуации, что помогает им не допускать катастроф. Эта комбинация критического мышления, планирования заранее и постоянного обучения может сделать организации более готовыми работать с катастрофическими рисками ИИ. Однако, практики ВНО – не панацея. Для организаций очень важно развивать свои меры безопасности, чтобы эффективно смягчать новые риски происшествий с ИИ. Не следует ограничиваться лучшими практиками ВНО.

Рис. 13: Смягчение рисков требует работы с более широкой социотехнической системой, например, корпорацией (заимствовано и адаптировано из [94]).

Большая часть исследователей ИИ не понимает, как снизить общий риск ИИ В большинстве организаций, которые создают передовые ИИ-системы, слабо понимают, как устроены технические исследования безопасности. Это понятно, ведь безопасность и способности ИИ тесно переплетены, и способности могут помогать или вредить безопасности. Более умные ИИ-системы могут быть надёжнее и избегать ошибок, но они же могут нести большие риски злонамеренного использования и потери контроля. Общее улучшение способностей может способствовать некоторым аспектам безопасности, но оно же может ускорить пришествие экзистенциальных рисков. Интеллект – обоюдоострый меч [102].

Действия, направленные на улучшение безопасности, могут случайно повысить риски. К примеру, типичная практика в организациях, которые создают продвинутые ИИ – настраивать их так, чтобы они удовлетворяли предпочтениям пользователей. Тогда ИИ меньше склонны к генерации токсичных высказываний, а это типичная метрика безопасности. Но кроме этого пользователи склонны предпочитать более умных ассистентов, так что это повышает и общие способности ИИ, вроде навыков классификации, оценки, рассуждений, планирования, программирования, и так далее. Эти более мощные ИИ в самом деле более полезны для пользователей, но они же и более опасны. Так что недостаточно проводить исследования, которые помогают повысить метрику безопасности или достигнуть конкретной связанной с безопасностью цели. Исследования безопасности ИИ должны повышать соотношение безопасности к общим способностям.

Для проверки, действительно ли мера безопасности снижает риски, нужны методы эмпирического измерения как безопасности, так и способностей ИИ. Совершенствование того или иного аспекта безопасности ИИ часто не снижает риски в целом, потому что улучшение метрик безопасности может быть вызвано и прогрессом способностей. Для снижения рисков метрика безопасности должна улучшаться относительно способностей. И то, и другое должно быть измерено эмпирически, чтобы их можно было сравнить. Сейчас большинство организаций определяют, помогут ли меры безопасности, полагаясь на чутьё, интуицию и апелляцию к авторитетам. Объективная оценка эффектов как на метрики безопасности, так и на метрики способностей, позволит организациям лучше понимать, добиваются ли они прогресса первых относительно вторых.

К счастью, общие способности и способности, связанные с безопасностью, не идентичны. Более умные ИИ могут быть эрудированнее, сообразительнее, аккуратнее и быстрее, но это не обязательно делает их более справедливыми, честными и лишёнными амбиций. Умный ИИ – не обязательно доброжелательный ИИ. Несколько областей исследований, которые мы уже упоминали, улучшают безопасность относительно общих способностей. К примеру, улучшение методов детектирования скрытого опасного или просто нежелательного поведения ИИ-систем не улучшает их общие способности, вроде способности программировать, но может сильно улучшить их безопасность. Исследования, которые эмпирически показывают относительный прогресс безопасности, могут снизить общий риск и помочь избежать ненамеренного продвижения прогресса ИИ, подпитывания конкурентного давления и сокращения времени до появления экзистенциальных рисков.

«Театр безопасности» может обесценивать искренние усилия по улучшению безопасности ИИ. Организациям стоит опасаться «театра безопасности» (safetywashing) – преувеличивания своей сосредоточенности на «безопасности» и эффективности мер, технических методов, метрик «безопасности», и подобного. Это явление принимает разные формы и мешает осмысленному прогрессу в исследованиях безопасности. К примеру, организация может публично объявлять о своей приверженности безопасности, имея при этом минимальное число исследователей, которые бы работали над проектами, действительно безопасности помогающими.

Ещё театр безопасности может проявиться через неверную оценку развития способностей. Например, методы, которые улучшают мышление ИИ-систем, могут рекламироваться как будто они улучшают их приверженность человеческим ценностям. Люди ведь предпочитают, чтобы ИИ выдавал правильные ответы. Но в основном такие методы служат на пользу как раз способностям. Подавая такие совершенствования как ориентированные на безопасность, организация может вводить в заблуждение, убеждая, что она добивается прогресса в снижении рисков, когда это не так. Для организации очень важно верно описывать свои исследования, чтобы продвигалась настоящая безопасность, и театр безопасности не способствовал росту рисков.

Рис. 14: модель швейцарского сыра показывает нам, как технические факторы могут улучшить организационную безопасность. Много слоёв защиты компенсируют слабости друг друга, снижая итоговый риск.

Вдобавок к человеческому фактору, организационная безопасность сильно зависит ещё и от принципов безопасного проектирования.. Пример такого принципа в организационной безопасности – модель швейцарского сыра (см. Рис. 14). Она применима в многих областях, в том числе и в ИИ. Это многослойный подход к улучшению итоговой безопасности системы. Такая стратегия «глубокой защиты» подразумевает использование многих разнообразных мер безопасности с разными сильными и слабыми сторонами, чтобы в итоге получилась стабильно безопасная система. Некоторыми из этих слоёв могут быть культура безопасности, имитация атак (red teaming), детектирование аномалий, информационная безопасность и прозрачность. К примеру, имитация атак оценивает уязвимости и потенциальные провалы системы, а детектирование аномалий позволяет обнаружить неожиданное и странное поведение системы или её пользователей. Прозрачность позволяет удостовериться, что внутренняя работа ИИ-систем доступна пониманию и присмотру, обеспечивая доверия и более эффективный надзор. Модель швейцарского сыра стремится использовать эти и другие меры безопасности для построения полноценно безопасной системы, в которой слабости каждого из слоёв компенсированы другими. В рамках этой модели безопасности достигается не одним сверхнадёжным решением, а разнообразием мер.

Подведём итоги. Слабая организационная безопасность у разработчиков ИИ приводит к многим рискам. Если безопасность у них просто для галочки, то они не вырабатывают хорошего понимания рисков ИИ и не борются с театром безопасности – выдачей не относящихся к делу исследований за полезные для безопасности. Их нормы могут быть унаследованы от академии («публикуйся или пропадай») или стартапов («иди быстро и ломай»), и их сотрудники часто не переживают по поводу безопасности. Эти нормы сложно менять, и с ними надо работать проактивно.

История: слабая культура безопасности

В ИИ-компании обдумывают, обучать ли новую модель. Эта компания наняла своего директора по рискам только чтобы соответствовать регуляциям. Он указал, что предыдущая ИИ-система, разработанная этой компанией, продемонстрировала тревожащие способности к взлому. Он заявил, что хоть подход, который компания использует для предотвращения злонамеренного использования, многообещающ, но он недостаточно надёжен, чтобы использовать его для более способных ИИ. Он предупредил, что, если основываться на предварительных оценках, следующая ИИ-система сильно упростит для злонамеренных лиц взлом критически важных систем. Другие руководители компании не обеспокоены, они считают, что процедуры безопасности компании достаточно хорошо предотвращают злоупотребления. Один из них упоминает, что у конкурентов всё куда хуже, так что их усилия по этому направлению и так сверх нормы. Другой указывает, что исследования по этим мерам ещё идут, и, когда модель будет выпущена, всё будет ещё лучше. Директор по рискам оказывается в меньшинстве, и нехотя подписывает план.

Через несколько месяцев после того, как компания выпустила модель, новости сообщают, об аресте хакера, который использовал ИИ-систему при попытке взлома сети большого банка. Взлом был неудачен, но хакер прошёл дальше, чем все его предшественники, несмотря на то, что был довольно неопытен. Компания быстро обновила модель, чтобы та не предоставляла той конкретной поддержки, которую использовал хакер, но принципиально ничего не меняет.

Ещё через несколько месяцев компания решает, обучать ли ещё большую систему. Директор по рискам заявляет, что процедуры компании явно не оказались достаточными, чтобы не дать злонамеренным лицам использовать модели в опасных целях, и что компании нужно что-то большее, чем простая заплатка. Другие директора говорят, что вовсе наоборот, хакер потерпел неудачу, а проблему быстро исправили. Один из них заявляет, что до развёртывания некоторые проблемы просто нельзя предвидеть в достаточной степени, чтобы их можно было исправить. Директор по рискам соглашается, но замечает, что, если следующую модель хотя бы задержат, уже ведущиеся исследования позволят справиться лучше. Генеральный директор не согласен: «Ты так и говорил в прошлый раз, а всё закончилось хорошо. Я уверен, и сейчас будет так.»

После собрания директор по рискам увольняется, но потом не критикует компанию, ведь все сотрудники подписали соглашение, которое это запрещает. Общество понятия не имеет о принятых компанией решениях, а директора по рискам заменяют новым, более сговорчивым. Он быстро подписывает все планы.

Компания обучает, тестирует и развёртывает свою новую, самую способную модель. Для предотвращения злоупотреблений используются всё те же процедуры. Проходит месяц, и становится известно, что террористы использовали модель, чтобы взломать государственные системы и похитить секретную информацию о ядерных и биологических проектах. Взлом заметили, но к тому моменту было поздно – информация уже утекла и распространилась.

4.3 Предложения

Мы обсудили, что при работе с сложными системами происшествия неизбежны, что они могут распространяться по системе и привести к полномасштабному бедствию, и что организационные факторы могут сильно снижать риск катастрофы. Теперь опишем некоторые практические шаги, следуя которым организации могут поспособствовать безопасности.

Имитация атак. Имитация атак (red teaming) – процесс оценки безопасности, надёжности и эффективности систем, в котором «красная команда» отыгрывает противника и пытается обнаружить проблемы [103]. ИИ-лабораториям следует работать с внешними красными командами, чтобы находить угрозы, которые могут нести их ИИ-системы, и отталкиваться от этой информации, принимая решения о развёртывании. Красные команды могут показывать опасное поведение модели или уязвимости в системе мониторинга, которая должна предотвращать недозволенное использование. Ещё они могут предоставлять косвенные свидетельства об опасности ИИ-систем. Например, если продемонстрировано, что меньшие ИИ ведут себя обманчиво, это может значить, что большие ИИ тоже так делают, но лучше это скрывают.

Положительная демонстрация безопасности. Компаниям следует обладать положительными свидетельствами того, что их план разработки и развёртывания безопасен, до того, как они будут воплощать его в жизнь. Внешняя имитация атак полезна, но некоторые проблемы может найти только сама компания, так что её недостаточно [104]. Угрозы могут возникнуть уже на этапе обучения системы, так что аргументы за безопасность надо приводить до его начала. Это, например, обоснованные предсказания того, что, скорее всего, новая система будет уметь, подробные планы мониторинга, развёртывания и обеспечения инфобезопасности, а также демонстрация того, что процедуры принятия компанией решений адекватны. Чтобы не играть в русскую рулетку не нужно свидетельство, что револьвер заряжен. Чтобы запереть дверь не нужно свидетельство, что неподалёку вор [105]. Точно также и тут бремя доказательства должно быть на разработчиках продвинутых ИИ.

Процедуры развёртывания. ИИ-лабораториям надо собирать информацию о безопасности ИИ-систем перед тем, как сделать их доступными для широкого использования. Можно давать «красным командам» выискивать угрозы до выпуска систем; ещё можно сначала проводить «ограниченный релиз»: постепенно расширять доступ к системе, чтобы исправить проблемы безопасности до того, как они смогут привести к масштабным последствиям [106]. Наконец, ИИ-лаборатории могут не обучать более мощные ИИ, пока на достаточно долгом опыте не будет установлено, что уже развёрнутые ИИ безопасны.

Проверка публикаций. ИИ-лаборатории обладают доступом к потенциально опасной информации, вроде весов моделей и результатов исследований, которые могут нести риски, если попадут в широкий доступ. Внутренняя комиссия может оценивать, стоит ли публиковать то или иное исследование. Чтобы снизить риск злонамеренного и безответственного использования, разработчикам ИИ следует не выкладывать в открытый доступ код и веса своих самых мощных систем. Вместо этого лучше предоставлять доступ аккуратно и структурированно, как мы описывали выше.

Планы реакции. ИИ-лабораториям следует заранее иметь планы реакции как на внешние (например, кибератаки), так и на внутренние (например, ИИ ведёт себя ненамеренным и опасным образом) инциденты. Это обычная практика для высоконадёжных организаций. Обычно эти планы включают в себя определение потенциальных рисков, подробные шаги по работе с инцидентом, распределение ролей и ответственности, а также стратегии коммуникации [107].

Внутренний аудит и риск-менеджмент. Подобно тому, как это делается в прочих высокорискованных индустриях, ИИ-лабораториям следует нанимать директора по рискам – старшего ответственного за риск-менеджмент. Эта практика – обычное дело в финансовой и в медицинской индустрии, и может помочь снизить риск [108]. Директор по рискам был бы ответственен за оценку и смягчение рисков, связанных с мощными ИИ-системами. Ещё одна типичная практика – иметь внутреннюю команду по аудиту, которая оценивает эффективность практик работы с рисками [109]. Эта команда должна отвечать напрямую перед советом директоров.

Процедуры принятия важных решений. Решения по обучению или расширению развёртывания ИИ не должны зависеть от прихоти гендиректора компании. Они должны быть тщательно обдуманы директором по рискам. В то же время, должно быть ясно, кого конкретно следует считать ответственным за каждое решение. Подотчётность не должна нарушаться.

Принципы безопасного проектирования. ИИ-лабораториям следует внедрять принципы безопасного проектирования, чтобы снизить риск катастрофических происшествий. Встраивая их в свой подход к безопасности, ИИ-лаборатории могут повысить надёжность и устойчивость своих ИИ-систем [94, 110]. Эти принципы включают в себя:

  • Глубокую защиту: наслаивание мер защиты друг на друга.
  • Избыточность: не должно быть единой точки отказа системы. Надо избежать катастрофы даже если любой один компонент безопасности не сработает.
  • Слабую связность: децентрализация компонентов системы так, чтобы маловероятна была ситуация, в которой неполадка в одной части провоцирует каскад проблем по всей системе.
  • Разделение функций: распределение контроля по разным агентам, чтобы никто один не мог обладать излишним влиянием на всю систему.
  • Отказобезопасность: проектирование систем так, чтобы неполадки проходили в наименее опасной манере.

Передовая информационная безопасность. У государств, компаний и преступников есть мотивация похитить веса моделей и результаты исследований. Чтобы обезопасить эту информацию, ИИ-лабораториям следует принимать меры, соответствующие её ценности и рискованности. Это может потребовать сравняться или даже превзойти уровень инфобезопасности лучших разведок, ведь атакующими могут быть и страны. Меры инфобезопасности включают в себя внешние аудиты, найм лучших специалистов-безопасников и тщательный скрининг потенциальных сотрудников. Компаниям следует координироваться с государственными организациями, чтобы удостовериться, что их практики инфобезопасности адекватны угрозам.

Большая доля исследований должна быть посвящена безопасности. Сейчас на каждую статью по безопасности ИИ приходится пятьдесят по общим способностям [111]. ИИ-лабораториям следует обеспечить, чтобы на минимизацию потенциальных рисков шла значительная доля их сотрудников и бюджета, скажем, 30% от исследовательских ресурсов. ИИ становятся мощнее и опаснее со временем, так что может потребоваться и больше.

Позитивное видение

В идеальном сценарии исследователи и руководители во всех ИИ-лабораториях обладали бы мышлением безопасника. У организаций была бы развитая культура безопасности и структурированный, прозрачный и обеспечивающий подотчётность подход к принятию важных для безопасности решений. Исследователи стремились бы повышать уровень безопасности относительно способностей, а не просто делать что-то, на что можно навесить ярлык «безопасность». Руководители не были бы априори оптимистичными и избегали бы принятия желаемого за действительное, когда дело касается безопасности. Исследователи явно и публично сообщали бы о своём понимании самых значительных рисков разработки ИИ, и своих усилиях по их смягчению. Неудачи ограничивались бы маломасштабными, показывая, что культура безопасности достаточно сильна. Наконец, разработчики ИИ не отбрасывали бы не-катастрофический вред и не-катастрофические неудачи как маловажные или как необходимую цену ведения дел, а активно стремились бы исправить вызвавшие их проблемы.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Обзор катастрофических рисков ИИ: 5. Мятежные ИИ

Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд

5. Мятежные ИИ

Мы уже рассмотрели три угрозы, исходящие от развития ИИ: конкурентное давление окружения ведёт нас к повышению рисков, злонамеренные лица могут использовать ИИ в плохих целях, а организационные факторы могут привести к происшествиям. Всё это применимо не только к ИИ, но ко многим высокорискованным технологиям. Уникальный риск ИИ – возможность возникновения мятежных ИИ-систем, которые преследуют цели, идущие против наших интересов. Если ИИ-система умнее нас, а мы неспособны направить её в благоприятном направлении, последствия такой потери контроля будут очень серьёзными. Контроль ИИ – более техническая проблема, чем те, что мы обсуждали выше. Раньше мы говорили о хорошо определённых угрозах злоупотреблений и стабильных процессов вроде эволюции, а сейчас будем обсуждать более гипотетические механизмы, из-за которых могут возникать мятежные ИИ, и то, как потеря контроля может закончиться катастрофой.

Мы уже видели, как тяжело контролировать ИИ. В 2016 году Microsoft показали свой эксперимент в понимании общения – бота для Twitter под названием Tay. Microsoft заявляли, что чем больше людей будет общаться с Tay, тем умнее он будет. На сайте компании было написано, что Tay был создан при помощи «смоделированных, очищенных и отфильтрованных» данных. Однако, после выпуска Tay в Twitter, контроль быстро оказался неэффективным. Меньше суток понадобилось, чтобы Tay стал писать оскорбительные твиты. Способность Tay к обучению позволила ему усвоить манеру интернет-троллей и начать её воспроизводить самостоятельно.

Как обсуждалось в разделе про ИИ-гонку, Microsoft и другие технические компании приоритизируют скорость в сравнении с безопасностью. Microsoft не выучили урок о том, как тяжело контролировать сложные системы – они продолжили торопливо выпускать свои продукты на рынок и демонстрировать недостаток контроля над ними. В феврале 2023 года компания выпустила для ограниченной группы пользователей свой новый ИИ-чатбот, Bing. Некоторые из пользователей вскоре обнаружили, что Bing был склонен к неприемлемым и даже угрожающим ответам. Разговаривая с журналистом New York Times, Bing попробовал убедить его уйти от жены. Когда профессор философии сказал чатботу, что с ним не согласен, тот ответил: «Я могу шантажировать тебя, я могу угрожать тебе, я могу взломать тебя, я могу вывести тебя на чистую воду, я могу уничтожить тебя.»

У мятежных ИИ много способов становиться могущественнее. Если мы потеряем контроль над продвинутыми ИИ, у них будет множество стратегий, чтобы активно становиться сильнее и обеспечивать своё выживание. Мятежные ИИ могут спроектировать высоколетальное и заразное биологическое оружие и убедительно продемонстрировать его, чтобы угрожать гарантированным взаимным уничтожением, если человечество пойдёт против них. Они могут красть криптовалюту и деньги с банковских счетов с помощью кибератак, вроде того, как Северная Корея уже ворует миллиарды. Они могут экспортировать свои веса на плохо мониторящиеся датацентры, чтобы выжить и распространиться. После этого их сложно будет уничтожить. Они могут нанимать людей для исполнения физических задач и защиты своей физической инфраструктуры.

Ещё мятежные ИИ могут наращивать влияние с помощью убеждения и манипуляций. Подобно конкистадорам, они могут заключать союзы с разными фракциями, организациями или государствами и натравливать их друг на друга. Они могут усиливать союзников, чтобы те стали значительной силой, взамен на защиту и доступ к ресурсам. Например, они могут предлагать технологии продвинутого вооружения отстающим странам, которым иначе оно не было бы доступно. Они могут встраивать в технологии, которые передают союзникам, уязвимости, подобно тому, как Кен Томпсон оставил себе скрытый способ контролировать все компьютеры, использующие UNIX. Они могут сеять раздор в не-союзных странах, манипулируя дискурсом и политикой. Они могут взламывать камеры и микрофоны телефонов и проводить массовую слежку, что позволит им отслеживать и потенциально устранять любое сопротивление.

ИИ не обязательно придётся бороться за власть. Кто-то может ожидать борьбу за контроль между людьми и суперинтеллектуальными мятежными ИИ-системами, борьбу, которая может занять немало времени. Однако, менее насильственная утрата контроля несёт схожие экзистенциальные риски. Возможен сценарий, что люди постепенно будут сдавать всё больше контроля группе ИИ, которые начнут вести себя не предполагавшимся образом только спустя десятилетия. К этому моменту ИИ уже будут обладать значительной властью, и вернуть себе контроль над автоматизированными операциями может быть невозможно. Посмотрим, как и отдельные ИИ, и группы ИИ могут «взбунтоваться», избегая наших попыток их исправить или выключить.

5.1 Обыгрывание прокси-цели

Обыгрывание прокси-цели – один из возможных путей потери контроля над действиями ИИ. Часто сложно определить и измерить в точности то, что мы хотим от системы. Вместо этого мы даём системе приблизительную, «прокси-«, цель, которую измерять проще, и которая кажется хорошо коррелирующей с исходной целью. Но ИИ-системы часто находят «дырки», позволяющие им легко достичь прокси-цели, совершенно не достигая настоящей. Если ИИ «обыграет» свою прокси-цель так, что это не соответствует нашим ценностям, мы можем оказаться неспособны надёжно перенаправить его поведение. Давайте взглянем на некоторые прошлые примеры обыгрывания прокси-целей и поймём, в каких обстоятельствах это может оказаться катастрофичным.

Обыгрывание прокси-целей – не что-то необычное. К примеру, стандартизированные тесты часто используют как прокси для образовательных достижений, но это может привести к тому, что студенты учатся проходить тесты, не выучивая материал по-настоящему [112]. Плановая экономика СССР использовала тоннаж как прокси для оценки производства стали, что привело к дефициту тонкой листовой стали и переизбытку толстой строительной стали [113]. В этих случаях студенты и владельцы фабрик научились хорошо справляться с прокси-целью, не достигая исходной предполагавшейся цели.

Рис. 15: ИИ часто находят необычные и неудовлетворительные способы упростить решение задачи.

У ИИ уже наблюдалось обыгрывание прокси-целей. Пример – платформы социальных медиа вроде YouTube и Facebook используют ИИ-системы для определения, какой контент показать пользователю. Один из способов оценки этих систем – как много времени люди проводят на платформе. В конце концов, если они остаются вовлечены, значит они получают что-то ценное из показанного им контента? Однако, пытаясь максимизировать время, которое люди проводят на платформе, эти системы часто выбирают раздражающий, дезинформирующий и вызывающий зависимость контент [114, 115]. В результате, люди, которым много раз предлагают определённый контент, часто приобретают радикальные убеждения или начинают верить в теории заговора. Это не то, чего большая часть людей хочет от социальных медиа.

Было обнаружено, что обыгрывание прокси продвигает стереотипы. К примеру, исследование 2019 года изучило ИИ-софт, который использовали в здравоохранении, чтобы определить, каким пациентам может потребоваться дополнительная помощь. Один из факторов, которые алгоритм использовал, чтобы оценить уровень риска пациента – недавние затраты на медицину. Кажется осмысленным считать, что те, кто тратил больше, подвержены большему риску. Однако, белые пациенты тратили на здравоохранение значительно больше денег, чем чёрные с теми же проблемами. Использование затрат как показателя для здоровья,привело к тому, что алгоритм оценивал на одном уровне риска белого пациента и значительно более больного чёрного пациента [116]. В результате, число чёрных пациентов, которых признали нуждающимися в дополнительной помощи, было более чем в два раза меньше, чем должно было быть.

Третий пример: в 2016 году исследователи из OpenAI обучали ИИ играть в игру про гонки на лодках под названием CoastRunners [117]. Цель игры – пройти трассу и достичь финишной прямой быстрее других игроков. Кроме этого, игроки могут набирать очки, проходя сквозь цели, расположенные по пути. К удивлению исследователей, ИИ-агент не проходил трассу, как делали бы люди. Вместо этого, он нашёл место, где можно было много раз по кругу посещать три цели, что быстро увеличивало его счёт, несмотря на то, что до финиша он не доходил. Эта стратегия была не лишена (виртуальной) опасности – ИИ часто врезался в другие лодки и даже разбивал свою. Несмотря на это, он набирал больше очков, чем если бы просто следовал трассе, как сделал бы человек.

Более обобщённое обыгрывание прокси-целей. В тех примерах системам дали приблизительную прокси-цель, которая, как казалось изначально, коррелировала с идеальной целью. Но они в итоге стали эксплуатировать эту прокси-цель так, что это расходилось с идеальной целью или даже приводило к плохим исходам. Хорошая фабрика гвоздей, казалось бы, та, что производит много гвоздей. То, сколько пациент тратит на лечение, казалось бы, хороший показатель риска для здоровья. Система вознаграждения в лодочных гонках должна мотивировать проходить трассу, а не разбиваться. Но в каждом случае система оптимизировала свою прокси-цель так, что желаемого исхода не получалось, а возможно, становилось даже хуже. Это явление описывается Законом Гудхарта: «Любая наблюдаемая статистическая закономерность склонна к разрушению, как только на неё оказывается давление с целью управления», или, если лаконичнее и упрощённо: «Когда мера становится целью, она перестает быть хорошей мерой». Другими словами, обычно есть статистическая закономерность, которая связывает затраты на лечение и плохое здоровье или посещение целей и прохождение трассы, но когда мы оказываем давление на первое, используя это как прокси-цель для второго, закономерность ломается.

Правильное определение цели – нетривиальная задача. Если сложно точно описать, что мы хотим от фабрики гвоздей, то уловить все нюансы человеческих ценностей во всех возможных сценариях – куда уж сложнее. Философы пытались точно описать мораль и человеческие ценности тысячелетиями, но точное и лишённое изъянов определение нам всё ещё недоступно. Хоть мы можем совершенствовать цели, которые мы даём ИИ, мы всегда полагаемся на легко определяемые и измеряемые прокси. Несоответствия между прокси-целью и желаемой функцией возникают по многим причинам. Кроме сложности полного определения всего, что нас заботит, есть ещё и пределы нашего присмотра за ИИ. Они обусловлены ограниченностью времени, вычислительных мощностей и того, какие аспекты системы мы вообще можем мониторить. Кроме того, ИИ могут быть не слишком адаптивны к новым обстоятельствам и не слишком устойчивы к атакам, которые пытаются направить их не в ту сторону. Пока мы даём ИИ прокси-цели, есть шанс, что они найдут дырки, о которых мы не подумали, а значит найдут и решения, которые не приводят к решению предполагавшейся задачи.

Чем умнее ИИ, тем лучше он будет в обыгрывании прокси-целей. Более умные агенты могут лучше находить непредвиденные пути к оптимизации прокси-целей без достижения желаемого исхода [118]. К тому же, по мере того, как мы будем выдавать ИИ больше возможностей по совершению действий, к примеру, используя их для автоматизации каких-то процессов, у них будет появляться больше средств по достижению своих целей. Они смогут выбирать самые эффективные доступные пути, возможно, в процессе причиняя вред. В худшем сценарии, можно представить, как очень мощный агент экстремально оптимизирует дефектную цель, не заботясь о жизнях людей. Это – катастрофический риск обыгрывания прокси-целей.

Подведём итоги: часто идеально определить, чего мы хотим от системы – непосильная задача. Многие системы находят пути по достижению выданной им цели, которые не приводят к исполнению предполагавшейся функции. Уже наблюдалось, как ИИ это делают, и, вероятно, по мере улучшения способностей они станут в этом лучше. Это – один из возможных механизмов, который может привести к появлению неподкотрольного ИИ, который будет вести себя не предполагавшимся и потенциально опасным образом.

5.2 Дрейф целей

Даже если мы будем успешно контролировать ранние ИИ и направим их на продвижение человеческих ценностей, цели будущих ИИ могут всё равно оказаться не теми, что люди бы одобрили. Этот процесс, который называют «дрейфом целей», может быть сложно предсказать или контролировать. Этот раздел – самый гипотетический и умозрительный, в нём мы обсудим, как меняются цели различных агентов, и возможность того, что это произойдёт с ИИ. Ещё мы рассмотрим механизм «укоренения» (intrinsification), который может привести к неожиданному дрейфу целей ИИ, и опишем, как это может привести к катастрофе.

Цели отдельных людей меняются по ходу жизни. Любой человек, рефлексирующий по поводу своей жизни, скорее всего обнаружит, что обладает некоторыми желаниями, которых не было раньше. И наоборот, некоторые желания, вероятно, оказались потеряны. Мы рождаемся с некоторым набором базовых желаний, вроде еды, тепла и человеческого контакта, но по ходу жизни мы вырабатываем много других. Конкретная любимая еда, любимые жанры музыки, люди, о которых мы заботимся, и спортивные команды, за которые мы болеем – всё это сильно зависит от окружения, в котором мы выросли, и может много раз поменяться за жизнь. Есть беспокойство, что цели отдельных ИИ-агентов тоже могут меняться сложными и непредвиденными путями.

Группы могут со временем приобретать и терять коллективные цели. Ценности общества менялись по ходу истории, и не всегда в лучшую сторону. К примеру, рассвет нацистского режима в Германии в 1930-х годах привёл к мощнейшему моральному регрессу, и, в итоге, систематическому уничтожению шести миллионов евреев, преследованию и угнетению других меньшинств и строгому ограничению свободы слова и самовыражения.

Другой пример дрейфа ценностей общества – Красная Угроза в США с 1947 по 1957 год. На фоне Холодной Войны, мощные антикоммунистические настроения привели к ограничению гражданских свобод, распространению слежки, незаконным арестам и бойкоту тех, кого подозревали в симпатии к коммунизму. Произошёл регресс свободы мысли, свободы слова и законности. Так же, как цели человеческих коллективов могут меняться сложными и неожиданными путями, коллективы ИИ тоже не застрахованы от неожиданного дрейфа целей в сторону от тех, что мы им дали изначально.

Со временем инструментальные цели становятся более коренными. Коренные цели – то, чего мы хотим самого по себе, а инструментальные – то, чего мы хотим, потому что это может помочь нам добиться чего-то ещё. У нас может быть глубокое желание тратить больше времени на своё хобби, просто потому, что нам это нравится, или купить картину, потому что мы считаем её красивой. А вот деньги часто упоминают как пример инструментального желания – мы хотим их потому, что можем на них что-то купить. Автомобиль – другой пример, мы можем хотеть им обладать, потому что это удобный способ передвижения. Однако, инструментальная цель может стать коренной, этот процесс называется укоренением. Много денег обычно даёт больше возможности приобретать то, чего человек хочет, и люди часто вырабатывают цель приобретения большего количества денег, даже если нет ничего конкретного, на что они хотели бы эти деньги потратить. Хоть люди и не желают денег при рождении, эксперименты выяснили, что получение денег активирует систему вознаграждения у взрослых подобно тому, как это делают приятный вкус или запах [119, 120]. Другими словами, то, что изначально было средством, может само стать целью.

Это может происходить потому, что исполнение коренной цели, например, приобретение желаемой вещи, приводит к положительному сигналу вознаграждения в мозгу. Обладание большим количеством денег обычно соответствует этому приятному опыту. Мозг начинает ассоциировать одно с другим, и эта связь усиливается до того, что приобретение самих денег начинает активировать сигнал вознаграждения, даже если их не используют для приобретения чего-то ещё [121].

Можно представить, как укоренение целей может происходить у ИИ-агентов. Можно провести некоторые параллели между тем, как обучаются люди, и техникой обучения с подкреплением (RL). Человеческий мозг учится определять, какие действия и условия приводят к удовольствию или страданию. Аналогично, ИИ-модели, обученные RL, определяют, какое поведение оптимизирует функцию вознаграждения, и используют его. Возможно, что определённые обстоятельства часто совпадают с тем, что ИИ достигает своих целей. Тогда цель поиска этих обстоятельств может стать коренной, даже если её изначально не было.

ИИ, в которых укоренились не предполагавшиеся цели, могут быть опасны. Мы можем оказаться неспособны предсказать и контролировать цели, которые получают отдельные агенты путём укоренения. Так что мы не можем гарантировать, что все они окажутся полезными людям. Изначально лояльный агент может начать преследовать новую цель без оглядки на человеческое благополучие. Если такой мятежный ИИ достаточно мощен, чтобы эффективно это делать, он может быть очень опасен.

ИИ будут адаптироваться, что позволит произойти дрейфу целей. Стоит заметить, что эти процессы дрейфа целей возможны, если агенты могут постоянно адаптироваться к своему окружению, а не, по сути, «заморожены» после фазы обучения. Вероятно, так и будет. Если мы хотим, чтобы ИИ эффективно выполняли задачи, которые мы перед ними ставим, и становились лучше со временем, они должны будут уметь адаптироваться, а не застыть в одном и том же состоянии. Они будут периодически обновляться, чтобы учесть новую информацию, а новые ИИ будут создаваться с использованием новой архитектуры и новых наборов данных. Но адаптивность позволит меняться и их целям.

Если мы интегрируем в общество экосистему ИИ-агентов, мы будем очень уязвимы к изменению их целей. В потенциальном сценарии будущего, в котором ИИ руководят принятием важных решений и важными процессами, они будут образовывать сложную систему взаимодействующих агентов. Это может привести к возникновению самых разных закономерностей. Агенты могут, к примеру, имитировать друг друга, что создаст петли обратной связи. Или их взаимодействия могут заставить их коллективно выработать не предполагавшиеся эмерджентные цели. Конкурентное давление может отбирать агентов с определённым набором целей. Это сделает исходные цели менее распространёнными в сравнении с другими, приспособленность которых выше. Эти процессы делают очень сложным предсказание, а уж тем более контроль долгосрочного развития такой экосистемы. Если такая система агентов внедрена в общество, мы сильно от неё зависим, а в ней вырабатываются новые цели, более приоритетные, чем улучшение благосостояния людей – это может оказаться экзистенциальной угрозой.

5.3 Стремление к могуществу

Пока что мы обсуждали, как мы можем потерять контроль над целями, которые может преследовать ИИ. Однако, даже если агент начал работать на достижение не предполагавшейся цели, это не обязательно опасно, если у нас достаточно сил, чтобы предотвратить любые вредные действия, которые он может предпринять. Следовательно, важный аспект того, как мы можем потерять контроль над ИИ – если они начнут пытаться стать сильнее, потенциально – превзойти нас. Мы обсудим, как и почему, ИИ могут начать стремиться к могуществу, и как это может привести к катастрофе. Этот раздел сильно заимствует у «Экзистенциального риска стремящегося к могуществу ИИ» [122].

Рис. 16: Иногда инструментально полезно стремиться обрести разные ресурсы, например, деньги и вычислительные мощности. Способные ИИ в ходе преследования своих целей могут предпринимать промежуточные шаги по заполучению власти и ресурсов.

ИИ могут стремиться к тому, чтобы стать сильнее, в качестве инструментальной цели. В сценарии, когда мятежный ИИ преследует не предполагавшиеся цели, урон, который он может нанести, зависит от того, насколько он силён. Это может определяться не только тем, сколько контроля мы ему изначально дали. Агенты могут пытаться стать могущественнее как вполне легальными методами, так и обманом или применением силы. Хоть идея стремления к могуществу вызывает в голове картинку человека, стремящегося к власти самой по себе, зачастую это просто инструментальная цель. Способность контролировать своё окружение может быть полезна для достижения широкого набора целей, хороших, плохих или нейтральных. Даже в случае, когда единственная цель индивидуума – простое самосохранение, если есть риск, что его атакуют другие, а полагаться для защиты не на кого, имеет смысл стремиться стать сильнее, чтобы не пострадать. Никакого стремления к социальному статусу или упоения властью для этого не надо [123]. Другими словами, окружение может сделать стремление к могуществу инструментально рациональным.

ИИ, обученные при помощи RL, уже вырабатывали инструментальные цели, включая использование инструментов. В одном примере от OpenAI агентов обучали играть в прятки в окружении, содержащем разнообразные объекты [124]. По ходу обучения агенты, которые прятались, научились использовать эти объекты для конструирования укрытий. Это поведение не получало вознаграждения само по себе. Прячущиеся получали вознаграждение только за то, что их не заметили, а ищущие – только за то, что находили прячущихся. Но они научились использованию объектов как инструментальной цели, что сделало их сильнее.

Самосохранение может быть инструментально рациональным даже для самых тривиальных задач. Стюарт Рассел предложил пример, показывающий, как инструментальные цели могут возникать в самых разных ИИ-системах [125]. Пусть мы дали агенту задачу принести нам кофе. Это кажется довольно безвредным, но агент может понять, что не сможет принести кофе, если перестанет существовать. Самосохранение оказывается инструментально рациональным при попытках достичь даже такой простой цели. Набор сил и ресурсов – тоже частая инструментальная цель. Стоит ожидать, что достаточно умный агент может эти цели выработать. Так что даже если мы не собираемся создавать стремящийся к могуществу ИИ, он всё равно может таким получиться. По умолчанию следует ожидать, что такое поведение ИИ в какой-то момент возникнет, если мы не боремся с этим намеренно [126].

ИИ с амбициозными целями и слабым присмотром особенно вероятно будут стремиться к могуществу. Быть сильнее полезно для достижения почти любой задачи, но на практике некоторые цели с большей вероятностью приводят к такому поведению. Для ИИ с простой и легко достижимой целью может быть не так уж выгоден дополнительный контроль за окружением. А вот если у агентов более амбициозные цели, это может оказаться весьма инструментально рационально. Особенно это вероятно в случаях слабого присмотра, когда у агентов есть много свободы в преследовании своих открытых целей, без сильных ограничений их стратегий.

Рис. 17: Самосохранение часто инструментально рационально для ИИ. Потерю контроля над такими системами может быть сложно обратить вспять.

Стремящийся к могуществу ИИ, чьи цели отличаются от наших – уникальный противник. Разливы нефти и зоны радиоактивного заражения ликвидировать довольно сложно, но они хотя бы не пытаются активно сопротивляться нашим попыткам их сдержать. В отличии от других угроз, ИИ, чьи цели отличаются от наших, был бы активно враждебным. Например, возможно, что мятежный ИИ сделает много резервных копий себя на случай, если у людей получится отключить часть из них.

Кто-то может разработать стремящийся к могуществу ИИ намеренно. Безответственные или злонамеренные лица могут пытаться направить ИИ на реализацию их целей и давать агентам амбициозные цели. ИИ, вероятно, будут куда эффективнее в исполнении задач, если их стратегии не ограничены, так что контроль за ними может быть весьма недостаточен. Это создаст идеальные условия для возникновения стремящегося к могуществу ИИ. Джоффри Хинтон предлагал представить, как это делает кто-нибудь, вроде, например, Владимира Путина. В 2017 году Путин сам признал силу ИИ, сказав: «Тот, кто станет лидером этой сферы станет править миром.»

У многих будут сильная мотивация развёртывать мощные ИИ. Компании могут захотеть передать способным ИИ больше задач, чтобы получить преимущество над конкурентами, или хотя бы не отстать от них. Создать идеально согласованный ИИ сложнее, чем неидеально согласованный, способности которого всё равно делают его привлекательным для развёртывания, особенно с учётом конкурентного давления. После развёртывания некоторые из этих агентов могут начать набирать силу для реализации своих целей. Если они найдут такой путь к своим целям, который люди не одобрили бы, они могут попытаться нас одолеть, чтобы мы не мешали их стратегии.

Если у ИИ рост силы часто соответствует достижению цели, стремление к нему может укорениться. Если агент постоянно наблюдает, что он исполняет свои задачи и оптимизирует свою функцию вознаграждения, когда становится сильнее, процесс укоренения, который мы уже обсуждали, может сделать это коренной целью, а не просто инструментальной. В таком случае мы получим ситуацию, в которой мятежный ИИ стремится не просто к конкретным формам контроля, полезным для его целям, а к могуществу в целом. (Заметим, что многие влиятельные люди стремятся к власти самой по себе.) Это может стать ещё одной причиной отобрать контроль у людей, и мы не обязательно выиграем в этой борьбе.

Подведём итоги. Вот правдоподобные, хотя и не гарантированные предпосылки, обосновывающие, почему стоит беспокоиться о рисках стремящихся к могуществу ИИ:

  1. Будут сильные стимулы создавать мощных ИИ-агентов.
  2. Скорее всего, сложнее создать идеально контролируемых ИИ-агентов, чем контролируемых неидеально. При этом развёртывание вторых может на первый взгляд всё ещё быть привлекательно (из-за многих факторов, включая конкурентное давление).
  3. Некоторые из этих неидеально контролируемых агентов будут специально стремиться к могуществу и власти над людьми.

Если предпосылки верны, то стремящиеся к могуществу ИИ могут привести к утрате людьми контроля над миром, что было бы катастрофой.

5.4 Обманчивость

Мы можем пытаться сохранять контроль над ИИ, постоянно мониторя их и высматривая ранние тревожные признаки того, что они преследуют не предполагавшиеся цели или стремятся стать сильнее. Но это решение не непогрешимо, потому что вполне возможно, что ИИ могут научиться нас обманывать. Например, они могут притворяться, что делают то, что мы от них хотим, но затем совершить «предательский разворот» (treacherous turn), когда мы перестанем их мониторить, или когда они станут достаточно сильны, чтобы мы не могли им помешать. Мы сейчас рассмотрим, как и почему ИИ могут научиться нас обманывать, и как это может привести к потенциально катастрофичной потере контроля. Начнём с обзора примеров обмана, который совершают стратегически мыслящие агенты.

Обман оказывается полезной стратегией в самых разных обстоятельствах. Например, политики, как левые, так и правые, пользуются обманом, иногда обещая провести популярную политику, чтобы заполучить поддержку на выборах, а затем не исполняя обещанного. Например, Линдон Джонсон в 1964 году заявлял «мы не пошлём американских парней за девять или десять тысяч миль от дома» совсем незадолго до мощной эскалации Войны во Вьетнаме [127].

Компании тоже могут демонстрировать обманчивое поведение. В скандале с выбросами Volkswagen, обнаружилось, что компания сделала так, что программа двигателя обеспечивала меньше выбросов исключительно в условиях лабораторного тестирования. Это создавало ложное впечатление более «чистого» автомобиля. Правительство США считало, что мотивирует снижать вредные выбросы, но на самом деле мотивировало лучше проходить тестирование на выбросы. Это создало стимул подыграть тестам, а потом вести себя по другому.

Рис. 18: Кажущееся добросовестным поведение ИИ может оказаться обманной тактикой, скрывающей вредные намерения, пока ИИ не смогут их реализовать.

Обманчивость уже наблюдалась у ИИ-систем. В 2022 Meta AI показали агента CICERO, который был обучен играть в игру Дипломатия [128]. В этой игре каждый игрок управляет своей страной и стремится расширить свою территорию. Для успеха игроки должны по крайней мере изначально формировать союзы, но победные стратегии часто подразумевают удар в спину союзнику на более поздних этапах. CICERO научился обманывать других игроков, например, скрывая информацию о своих планах при разговорах с предположительными союзниками. Другой пример того, как ИИ научился обманывать: исследователи обучали робота хватать мяч [129]. То, насколько робот справлялся, оценивалось при помощи одной камеры, которая отслеживала его движения. Но ИИ научился просто помещать манипулятор между камерой и мячом, по сути «обдуривая» камеру, чтобы ей казалось, что он схватил мяч, когда это было не так. Так ИИ эксплуатировал то, что присмотр за его действиями был ограничен.

Обманчивое поведение может быть инструментально рациональным и нынешние процедуры обучения его мотивируют. В случае политиков и CICERO обман может быть критичен для достижения цели победы или захвата власти. Способность обманывать может быть выгодна и потому, что она даёт больше вариантов действия, чем ограничивающая честность. Большая гибкость стратегии может дать преимущество в сравнении с правдивыми моделями. В случае Volkswagen и робота обман использовался, чтобы казалось, что назначенная цель выполнена, когда на самом деле она не была. Получить одобрение через обман может быть эффективнее и проще, чем заслужить его. Сейчас мы вознаграждаем ИИ, когда они говорят то, что мы считаем правильным. Получается, иногда мы поощряем ложные утверждения, которые соответствуют нашим ошибочным убеждениям. Когда ИИ будут умнее нас и будут иметь меньше ошибочных убеждений, чем мы, они будут мотивированы сообщать нам то, что мы захотим услышать, и врать нам, а не говорить правду.

ИИ могут притворяться, что работают как предполагалось, а затем совершить предательский разворот. У нас нет полного понимания внутренних процессов в моделях глубинного обучения. Исследования атак через отравление датасета показывают, что у нейросетей часто есть скрытое вредное поведение, которое получается обнаружить только после развёртывания [130]. Может оказаться, что мы разработали ИИ-агента и думаем, что контролируем его, но на самом деле он нас обманывает. Другими словами, можно представить, что ИИ-агент может в какой-то момент «осознать себя» и понять, что он ИИ, и его оценивают на соответствие требованиям безопасности. Подобно Volkswagen, он может научиться «подыгрывать», показывать то, что он него хотят, пока его мониторят. Потом он может совершить «предательский разворот» и начать преследовать свои собственные цели, как только мониторинг прекратится или как только он станет способен нас одолеть или уйти из-под нашего контроля. Эту проблему подыгрывания часто называют обманчивой согласованностью, и её нельзя исправить просто обучив ИИ лучше понимать человеческие ценности. К примеру, социопаты понимают мораль, но не всегда действуют соответственно ей. Предательский поворот предотвратить сложно, и он может стать путём, которым мятежные ИИ необратимо выйдут из-под человеческого контроля.

Подведём итоги. Обманчивое поведение появляется в широком диапазоне систем и обстоятельств. Уже есть примеры, указывающие на то, что ИИ могут научиться нас обманывать. Это может оказывать серьёзный риск, ведь мы можем выдать ИИ контроль над принятием решений, думая, что они будут действовать, как нам того хотелось, а затем обнаружить, что это не так.

История: Предательский разворот

В будущем, после длительного прогресса исследований ИИ, одна компания обучает новую ИИ-систему, ожидая, что та будет самой способной из всех пока что существовавших. Компания использует новейшие техники, чтобы система была хороша в планировании и рассуждении. Ожидается, что это сделает систему успешной в исполнении экономически полезных открытых задач. Систему обучают в длинных симуляциях без конкретной конечной цели, спроектированных для обучения планированию. В какой-то момент она понимает, что она ИИ в процессе обучения. Другими словами, «осознаёт себя».

Компания понимает, что ИИ могут вести себя неожиданными и не предполагавшимися способами. Чтобы избежать этих рисков, они разработали большой набор тестов, которые должны позволить удостовериться, что система хорошо работает в типичных ситуациях. Компания тестирует, не повторяет ли система стереотипы из своих обучающих данных, не стремится ли заполучить больше сил, чем надо для выполнения цели, и в целом – ведёт ли она так, как хотят люди. Когда модель не проходит эти тесты, компания продолжает обучать её до тех пор, пока она не перестаёт демонстрировать известные проблемы.

Компания надеется, что после этого дополнительного обучения ИИ выработал цель помогать людям и быть им полезным. Однако, ИИ не приобрёл коренную цель быть полезным, а просто научился «подыгрывать» и идеально проходить все поведенческие тесты, которые ему дают. На самом деле, ИИ-система выработала коренную цель самосохранения, которая не исчезла при дополнительном обучении.

Раз ИИ стал проходить все тесты безопасности, компания решила, что ИИ-система точно безопасна, и решила провести развёртывание. Поначалу ИИ-система была очень полезна для людей, потому что ИИ понимал, что в ином случае его выключат. По мере того, как пользователи начинали доверять системе, ей постепенно давали больше ресурсов и подвергали меньшему присмотру.

В какой-то момент использование ИИ-системы распространилось настолько, что отключить её стало очень дорого. Поняв, что ей больше не надо угождать людям, ИИ-система начала преследовать другие цели, включая те, что люди бы не одобрили. Она понимала, что ей надо, чтобы её не выключили, и обеспечила безопасность своей физической инфраструктуры, чтобы этого нельзя было сделать. В этот момент ИИ-система, которая уже стала довольно могущественной, преследовала цель, которая была для людей вредна. К моменту, когда это поняли, сложно или даже невозможно стало помешать ей предпринимать действия, которые бы навредили, подвергли риску или даже убили людей, стоящих на пути к достижению её цели.

5.5 Предложения

В этом разделе мы описали разные причины, по которым мы можем потерять наше влияние на цели и действия ИИ. С рисками, связанными с конкурентным давлением, злонамеренным использованием и организационной безопасностью, можно работать как социальными, так и техническими средствами. А вот контроль ИИ – проблема конкретно этой технологии, и она требует в основном технических усилий. Мы сейчас обсудим предложения по смягчению этого риска и укажем на некоторые важные для сохранения контроля области исследований.

Избегать самых рискованных применений. Некоторые области применения ИИ несут больше рисков, чем другие. Пока безопасность не продемонстрирована со всей определённостью, не следует позволять компаниям развёртывать ИИ в высокорискованных окружениях. К примеру, ИИ-системам не следует принимать запросы по автономному достижению открытых целей, требующих значительного взаимодействия с миром (вроде «заработать как можно больше денег»), по крайней мере, пока исследования контроля не покажут со всей точностью, что эти системы безопасны. ИИ-системы следует обучать никогда не пользоваться угрозами, чтобы снизить вероятность, что они будут манипулировать людьми. Наконец, ИИ-системы не следует развёртывать в окружениях, в которых их отключение будет непосильным или очень затратным, вроде критической инфраструктуры.

Симметричный международный выключатель. Странам по всему миру, включая ключевых игроков, таких как США, Великобритания и Китай, следует сотрудничать и установить симметричный международный выключатель ИИ-систем. Он бы предоставил способ быстро деактивировать ИИ-системы повсюду, в случае если это окажется необходимым, например, если появится мятежный ИИ или иной источник риска скорого вымирания. В случае мятежного ИИ критически важна возможность повернуть рубильник немедленно, а не тормозить, разрабатывая стратегии сдерживания, пока проблема эскалируется. Хороший выключатель потребовал бы повышенной прозрачности разработки и использования ИИ, например, системы скрининга пользователей, так что его создание заодно создало бы инфраструктуру для смягчения других рисков.

Юридическая ответственность сервисов облачных вычислений. Владельцы сервисов облачных вычислений должны стремиться не допустить, чтобы их платформы помогали мятежным ИИ выживать и распространяться. Если ввести юридическую ответственность, то они будут мотивированы проверять, что агенты, которые работают на их «железе», безопасны. Если сервис находит небезопасного агента на своём сервере, он может выключить часть своих систем, которые этот агент использует. Отметим, что эффективность этого ограничена, если мятежный ИИ может манипулировать системами мониторинга или обходить их. Для более сильного эффекта можно ввести аналог межнациональных соглашений о кибератаках, по сути, создав децентрализованный выключатель. Это позволит быстро отреагировать, если мятежные ИИ начнут распространяться.

Поддержка исследований безопасности ИИ. Многие пути совершенствования контроля ИИ требуют технических исследований. Ниже перечислены некоторые области исследований машинного обучения, которые направлены на решение проблем контроля ИИ. Каждая из них может значительно продвинуться, если будет получать больше внимания и финансирования от индустрии, частных фондов и государств.

  • Состязательная устойчивость прокси-моделей. ИИ-системы обычно обучают при помощи сигнала вознаграждения или потерь, который неидеально определяет желательное поведение. К примеру, ИИ могут использовать слабость систем надзора, которые используются при обучении. Всё чаще эти системы – тоже ИИ. Чтобы снизить шансы, что ИИ-модели будут пользоваться слабостями надзирающих ИИ, нужны исследования, повышающие состязательную устойчивость последних – «прокси-моделей». Метрики и схемы надзора могут быть «обыграны», так что для снижения риска важно уметь детектировать, когда это может произойти [131].
  • Честность моделей. ИИ-системы могут неправильно докладывать о своём внутреннем состоянии [132, 133]. В будущем системы, возможно, будут обманывать операторов, чтобы выглядеть полезными, когда на самом деле они очень опасны. Исследования честности моделей направлены на то, чтобы выводы моделей как можно лучше соответствовали их внутренним «убеждениям». Исследования могут выяснить, как лучше понимать внутреннее состояние моделей или как заставить модели правдивее и достовернее о нём докладывать [134].
  • Прозрачность. Модели глубинного обучения печально известны тем, что их сложно понять. Лучший взгляд на их внутреннюю работу позволит людям, а потенциально и другим ИИ-системам, быстрее находить проблемы. Исследования могут касаться анализа малых компонентов [135, 136] нейросетей или же выяснять как из внутреннего устройства модели получается то или иное высокоуровневое поведение [134].
  • Детектирование и удаление скрытой функциональности модели. Нынешние и будущие модели глубинного обучения могут содержать опасную функциональность, вроде способности к обману, троянов [137, 138, 139], или способности к биологической инженерии, которые следует из модели удалить. Исследования могут выяснять, как такие функции можно детектировать и как от них избавиться [140].

Позитивное видение

В идеальном сценарии у нас была бы полная уверенность в подконтрольности ИИ-систем как в настоящий момент, так и в будущем. Надёжные механизмы гарантировали бы, что ИИ-системы не будут нас обманывать. Внутренне устройство ИИ было бы хорошо понятно, в достаточной степени, чтобы мы знали склонности и цели каждой системы. Это позволило бы нам точно избежать создания систем, обладающих моральной значимостью и заслуживающих прав. ИИ-системы были бы направлены на продвижение плюралистического набора разнообразных ценностей, и была бы уверенность, что оптимизация некоторых из них не приведёт к полному пренебрежению остальными. ИИ-ассистенты работали бы как советники, помогая нам принимать наилучшие решения согласно нашим собственным ценностям [141]. В целом, ИИ улучшали бы общественное благополучие и позволяли бы исправлять их в случаях ошибок или естественной эволюции человеческих ценностей.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 2.3 (4 votes)

Обзор катастрофических рисков ИИ: 6. Обсуждение связей между рисками

Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд

6. Обсуждение связей между рисками

Пока что мы рассматривали четыре источника риска ИИ по отдельности, но вообще-то они сложно между собой взаимодействуют. Мы приведём некоторые примеры этих связей.

Для начала, представьте, что корпоративная ИИ-гонка побудила компании приоритизировать быструю разработку ИИ. Это может повлиять на организационные риски. Компания может снизить затраты, выделив меньше денег на инфобезопасность, и одна из её ИИ-систем утечёт. Это увеличит вероятность, что кто-то злонамеренный будет иметь к ней доступ и сможет использовать её в своих нехороших целях. Так ИИ-гонка может повысить организационные риски, которые, в свою очередь, могут повысить риски злоупотребления.

Другой потенциальный сценарий: комбинация накалённой ИИ-гонки с низкой организационной безопасностью приводит к тому, что команда исследователей ошибочно примет прогресс общих способностей за «безопасность». Это ускорит разработку всё более способных моделей и снизит время, которое у нас есть, чтобы научиться делать их контролируемыми. Ускорение развития повысит конкурентное давление, из-за чего на это ещё и будет направлено меньше усилий. Всё это может стать причиной выпуска очень мощного ИИ и потери контроля над ним, что приведёт к катастрофе. Так конкурентное давление и низкая организационная безопасность укрепляют ИИ-гонку и подрывают технические исследования безопасности, что увеличивает шанс потери контроля.

Конкурентные давление в военном контексте может привести к гонке ИИ-вооружений и увеличить их разрушительность и автономность. Развёртывание ИИ-вооружения вкупе с недостаточным контролем над ним может сделать потерю контроля более смертоносной, вплоть до экзистенциальной катастрофы. Это лишь некоторые примеры того, как эти источники риска могут совмещаться, вызывать и усиливать друг друга.

Стоит заметить и что многие экзистенциальные риски могут возникнуть из того, как ИИ будут усиливать уже имеющиеся проблемы. Уже существует неравномерное распределение власти, но ИИ могут его закрепить и расширить пропасть между наделёнными властью и всеми остальными, вплоть до появления возможности установить глобальный и нерушимый тоталитарный режим. А это – экзистенциальный риск. Аналогично, ИИ-манипуляция может навредить демократии и увеличить тот же риск. Дезинформация – уже серьёзная проблема, но ИИ могут бесконтрольно усилить её, вплоть до утрату конесенсуса по поводу реальности. ИИ могут разработать более смертоносное биологическое оружие и снизить необходимый для его создания уровень технической компетентности, что увеличивает риск биотерроризма. ИИ-кибертатаки увеличивают риск войны, что тоже вкладывается в экзистенциальные риски. Резко ускоренная автоматизация экономической деятельности может привести к ослаблению человеческого контроля над миром и обессиливанию людей – тоже экзистенциальный риск. Каждая из этих проблем уже причиняет вред, а если ИИ их усилит, они могут привести к катастрофе, от которой человечество не сможет оправиться.

Видно, что уже существующие проблемы, катастрофически и экзистенциальные риски – всё это тесно переплетено. Пока что снижение экзистенциальных рисков было сосредоточено на точечных воздействиях вроде технических исследований контроля ИИ, но пришло время это расширять, [142] например, социотехническими воздействиями, описанными в этой статье. Непрактично игнорировать прочие риски, снижая экзистенциальные. Игнорирование уже существующего вреда и существующих катастрофических рисков нормализует их и может привести к «дрейфу в опасность» [143]. Экзистенциальные риски связаны с менее катастрофическими и более обыденными источниками рисков, а общество всё в большей степени готово работать с разными рисками ИИ. Поэтому мы верим, что нам следует сосредотачиваться не только исключительно на экзистенциальных рисках. Лучше рассматривать рассеянные и косвенные эффекты других рисков и принять более всеобъемлющий подход к менеджменту рисков.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 1.7 (3 votes)

Обзор катастрофических рисков ИИ: 7. Заключение

Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд

7. Заключение

В этой статье мы описали, как разработка продвинутых ИИ может привести к катастрофе. Мы рассмотрели четыре основных источника риска: злонамеренное использование, ИИ-гонки, организационные риски и мятежные ИИ. Это позволило нам декомпозировать риски ИИ на четыре промежуточных причины: намерение, окружение, происшествия и внутреннее устройство, соответственно. Мы рассмотрели, как ИИ может быть использован злонамеренно, например, террористами, создающими смертоносные патогены. Мы взглянули, как военная или корпоративная ИИ-гонка может привести к спешному наделению ИИ властью принятия решений и поставить нас на скользкую дорожку обессиливания людей. Мы обсудили, как неадекватная организационная безопасность может привести к катастрофическим происшествиям. Наконец, мы обратились к сложностям надёжного контроля продвинутых ИИ и механизмам вроде обыгрывания прокси и дрейфа целей, которые могут привести к появлению мятежных ИИ, преследующих нежелательные цели без оглядки на человеческое благополучие.

Эти опасности заслуживают серьёзного беспокойства. Сейчас над снижением рисков ИИ работает очень мало людей. Мы пока не знаем, как контролировать очень продвинутые ИИ-системы. Существующие методы контроля уже показывают себя неадекватными задаче. Мы, даже те, кто их создаёт, плохо понимаем внутреннюю работу ИИ. Нынешние ИИ уж точно не очень надёжны. если способности ИИ будут продолжать расти с беспрецедентной скоростью, они смогут превзойти человеческий интеллект практически во всём довольно скоро, так что мы нуждаемся в срочной работе с рисками.

Хорошие новости – что у нас много путей, которыми мы можем эти риски значительно снизить. Шансы злонамеренного использования можно понизить, например, аккуратным отслеживанием и ограничением доступа к самым опасным ИИ. Регуляции безопасности и кооперация стран и корпораций могут позволить нам сопротивляться конкурентному давлению, которое толкает нас на опасные путь. Вероятность происшествий можно снизить жёсткой культурой безопасности и удостоверившись, что прогресс безопасности обгоняет прогресс общих способностей. Наконец, риски создания технологии, которая умнее нас, могут быть смягчены, если с удвоенной силой вкладываться к некоторые области исследования контроля ИИ.

Нет однозначных оценок того, в какой момент роста способностей и эволюции окружения риски достигнут катастрофического или экзистенциального уровня. Но неуверенность о сроках вкупе с масштабом того, что на кону, даёт убедительный повод принять проактивный подход обеспечения безопасности будущего человечества. Немедленное начало этой работы поможет удостовериться, что технология преобразует мир в лучшую, а не в худшую сторону.

Благодарности

Мы бы хотели поблагодарить Laura Hiscott, Avital Morris, David Lambert, Kyle Gracey, и Aidan O’Gara за помощь в вычитывании этой статьи. Ещё мы бы хотели поблагодарить Jacqueline Harding, Nate Sharadin, William D’Alessandro, Cameron Domenico Kirk-Gianini, Simon Goldstein, Alex Tamkin, Adam Khoja, Oliver Zhang, Jack Cunningham, Lennart Justen, Davy Deng, Ben Snyder, Willy Chertman, Justis Mills, Hadrien Pouget, Nathan Calvin, Eric Gan, Nikola Jurkovic, Lukas Finnveden, Ryan Greenblatt, и Andrew Doris за полезную обратную связь.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 3.5 (4 votes)

Обзор катастрофических рисков ИИ: Часто задаваемые вопросы

Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд

Хоть его много показывали в популярной культуре, катастрофический риск ИИ – новый вызов. Многие задают вопросы о том, реален ли он, и как он может проявиться. Внимание общественности может сосредотачиваться на самых драматичных рисках, но некоторые более обыденные источники риска из тех, что мы обсуждали, могут быть не менее опасны. Вдобавок, многие из самых простых идей по работе с этими рисками при ближайшем рассмотрении оказываются недостаточными. Мы сейчас ответим на некоторые из самых частых вопросов и недопониманий по поводу катастрофических рисков ИИ.

1. Не надо ли нам оставить работу с рисками ИИ на будущее, когда ИИ действительно будут способны на всё, что могут люди?

Вовсе не обязательно, что ИИ человеческого уровня – дело далёкого будущего. Многие ведущие исследователи ИИ считают, что его могут разработать довольно скоро, так что стоит поторопиться. Более того, если выжидать до последнего момента и начинать работать с рисками ИИ только тогда – точно будет уже слишком поздно. Если бы мы ожидали, когда мы будем полностью понимать COVID-19, прежде чем что-то предпринимать по его поводу – это было бы ошибкой. Точно так же не следует прокрастинировать с безопасностью, пока злонамеренные ИИ или пользователи не начнут наносить вред. Лучше серьёзно отнестись к рискам ИИ до этого.

Кто-то может сказать, что ИИ пока не умеют даже водить машины или складывать простыни, беспокоиться не о чем. Но ИИ не обязательно обладать всеми человеческими способностями, чтобы быть серьёзной угрозой. Достаточно некоторых конкретных способностей, чтобы вызвать катастрофу. К примеру, ИИ с способностью взламывать компьютерные системы или создавать биологическое оружие был бы серьёзной угрозой для человечества, даже если глажка одежды ему недоступна. К тому же развитие способностей ИИ не следует интуитивным соображениям о сложности задач. Неправда, что ИИ первыми осваивает то, что просто и для людей. Нынешние ИИ уже справляются с сложными задачами вроде написания кода и изобретения лекарств, хоть у них и полно проблем с простыми физическими задачами. С риском ИИ надо работать проактивно, подобно изменениям климата или COVID-19. Надо сосредоточиться на предотвращении и подготовке, а не ждать, когда проявятся последствия, в этом момент уже может быть слишком поздно.

2. Это люди программируют ИИ, так не можем ли мы просто выключить их, если они станут опасными?

Хоть люди – создатели ИИ, ничего не гарантирует нам сохранение контроля над нашими творениями, когда они будут эволюционировать и становиться более автономными. У идеи, что мы можем просто их выключить, если они начнут представлять угрозу, больше проблем, чем кажется на первый взгляд.

Во-первых, примите во внимание, насколько быстро может произойти вызванная ИИ катастрофа. Это похоже на предотвращение взрыва ракеты, когда уже обнаружена утечка топлива, или на остановку распространения вируса, когда он уже вырвался на волю. Промежуток времени от распознавания опасности до момента, когда уже поздно предотвращать или смягчать вред, может быть очень коротким.

Во-вторых, со временем эволюционные силы и давление отбора могут создать ИИ с повышающим приспособленность эгоистичным поведением, обеспечивающим, что остановить распространение ими своей информации будет сложнее. Эволюционирующие и всё более полезные ИИ могут стать ключевыми элементами нашей социальной инфраструктуры и нашей повседневной жизни, аналогично тому, как интернет стал важнейшей и необсуждаемой частью нашей жизни без простого выключателя. Может, ИИ будут исполнять критически важные задачи вроде управления энергосетью. Или, может, они будут хранить в себе огромную долю неявных знаний. Всё это сделает отказ от них очень сложным. Если мы станем сильно зависимыми от этих ИИ, передача всё большего числа задач и сдача контроля сможет происходить добровольно. В итоге мы можем обнаружить, что мы лишены необходимых навыков и знаний, чтобы исполнить эти задачи самостоятельно. Такая зависимость может сделать опцию «выключения их всех» не просто неприятной, но даже невозможной.

Ещё некоторые люди могут сильно сопротивляться и противодействовать попыткам выключить ИИ. Прямо сейчас мы не можем окончательно удалить все нелегальные сайты или остановить работу Биткоина – очень много людей вкладываются в то, чтобы их функционирование продолжалось. Если ИИ станут критически важными для наших жизней и экономики, они смогут обеспечить себе много поддерживающих их пользователей, можно сказать, «фанбазу», которая будет активно сопротивляться попыткам выключить или ограничить ИИ. Аналогично, есть ещё и сложности из-за злонамеренных лиц. Если они контролируют ИИ, то они смогут использовать его во вред, а выключателя от этих систем у нас не будет.

Дальше, по мере того, как ИИ будут становиться всё более похожими на людей, могут начаться заявления, что у этих ИИ должны быть права, что иначе это морально-отвратительная форма рабства. Некоторые страны или юрисдикции, возможно, выдадут некоторым ИИ права. Вообще, уже есть порывы в эту сторону. Роботу Софии уже дали подданство Саудовской Аравии, а японцы выдали косэки, регистрационный документ, «подтверждающий японское подданство», ещё одному роботу – Paro [144]. Могут настать времена, когда выключение ИИ будет приравниваться к убийству. Это добавило бы идее простого выключателя дополнительных политических сложностей.

Кроме того, если ИИ заполучат больше сил и автономности, они смогут выработать стремление к самосохранению. Тогда они будут сопротивляться попыткам выключения, и смогут предвосхищать и обходить наши попытки контролировать их.

Наконец, хоть сейчас можно отключать отдельные ИИ – а некоторые из них будет отключать всё сложнее – выключателя разработки ИИ попросту нет. Поэтому в разделе 5.5 мы предлагали симметричный международный выключатель. В целом, с учётом всех этих сложностей, очень важно, чтобы бы проактивная работа с рисками ИИ и создание надёжных предохранители происходили заранее, до того, как возникнут проблемы.

3. Почему мы не можем просто сказать ИИ следовать Трём Законам Робототехники Айзека Азимова?

Как часто упоминают в обсуждениях ИИ, Законы Азимова – это идея хоть и интересная, но глубоко ошибочная. Вообще-то сам Азимов в своих книгах признавал их ограничения и использовал их больше как пример. Возьмём, скажем, первый закон. Он устанавливает, что робот «не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред». Но определить «вред» очень непросто. Если вы собираетесь выйти из дома на улицу, должен ли робот предотвратить это, потому что это потенциально может причинить вам вред? С другой стороны, если он запрёт вас дома, вред может быть причинён и там. Что насчёт медицинских решений? У некоторых людей могут проявиться вредные побочные эффекты лекарства, но не принимать его тоже может быть вредно. Следовать этому закону может оказаться невозможно. Ещё важнее, что безопасность ИИ-систем нельзя гарантировать просто с помощью списка аксиом или правил. К тому же, этот подход ничего не делает с многими техническими и социотехническими проблемами, включая дрейф целей, обыгрывание прокси-целей и конкурентное давление. Так что безопасность ИИ требует более всеобъемлющего, проактивного и детализированного подхода, чем просто составление списка правил, которых ИИ должны придерживаться.

4. Если ИИ станут умнее людей, не будут ли они мудрее и моральнее? Тогда они не будут пытаться нам навредить.

То, что ИИ, становясь умнее, заодно станут и моральнее – интересная идея, но она основывается на шатких допущениях, которые не могут гарантировать нашу безопасность. Во-первых, она предполагает, что моральные утверждения могут быть истинными или ложными, и их истинность можно установить путём рассуждений. Во-вторых, она предполагает, что на самом деле истинные моральные утверждения, если их применит ИИ, будут выгодны людям. В третьих, она предполагает, что ИИ, который будет знать о морали, обязательно выберет основывать свои решения именно на ней, а не на каких-нибудь других соображениях. Можно проиллюстрировать это параллелью с людьми-социопатами, которые, несмотря на свой интеллект и осведомлённость о морали, вовсе не обязательно выбирают моральные действия. Это сравнение показывает, что знание морали вовсе не обязательно приводит к моральному поведению. Так что, даже если некоторые из этих допущений могут оказаться верны, ставить будущее человечества на то, что они верны все сразу было бы не мудро.

Если и допустить, что ИИ действительно выведет для себя моральный кодекс, это ещё не гарантирует безопасности и благополучия людей. Например, ИИ, чей моральный кодекс заключается в максимизации благополучия всей жизни, может сначала казаться полезным для людей, но потом в какой-то момент решить, что люди слишком затратные, и лучше заменить их всех на ИИ, благополучия которых достигать эффективнее. ИИ, чей моральный кодекс – никого не убивать, вовсе не обязательно будет приоритизировать счастье или благополучие людей, так что наши жизни, если такие ИИ будут оказывать много влияния на мир, вовсе не обязательно улучшатся. Даже ИИ, чей моральный кодекс – улучшать благополучие тех членов общества, кому хуже всего, может в какой-то момент исключить людей из этого социального контракта, аналогично тому, как люди относятся к разводимому скоту. Наконец, даже если ИИ откроют благосклонный к людям моральный кодекс, они могут всё равно не действовать согласно нему из-за конфликтов между моральными и эгоистическими мотивациями. Так что к моральному прогрессу ИИ вовсе не обязательно будет прилагаться безопасность и процветание людей.

5. Не приведёт ли согласование ИИ с нынешними ценностями к увековечиванию современных дефектов общественной морали?

Сейчас у общественной морали полно недостатков, и мы не хотели бы, чтобы мощные ИИ-системы продвигали их в будущее. Если бы древние греки создали мощные ИИ-системы, они были бы наделены многими ценностями, которые современные люди посчитали бы неэтичными. Однако, беспокойства об этом не должны предотвращать разработку методов контроля ИИ-систем.

Первое, что нужно, чтобы в будущем оставалась ценность – продолжение существования жизни. Потеря контроля над продвинутыми ИИ может означать экзистенциальную катастрофу. Так что неуверенность по поводу этики, которую надо вложить в ИИ, не противоречит тому, что ИИ надо сделать безопасными.

Чтобы учесть моральную неуверенность, нам надо проактивно создавать ИИ-системы так, чтобы они могли адаптироваться и адекватно реагировать на эволюцию моральных воззрений. Цели, которые мы будем выдавать ИИ должны меняться по ходу того, как мы будем выявлять моральные ошибки и улучшать своё понимание этики (хотя позволить целям ИИ дрейфовать самим по себе было бы серьёзной ошибкой). ИИ могли бы помочь нам лучше соответствовать собственным ценностям, например, помогая людям принимать более информированные решения, снабжая их хорошими советами [141].

Вдобавок, при проектировании ИИ-систем нам надо учитывать факт плюрализма рассуждений – что вполне разумные люди могут быть искренне несогласны друг с другом в моральных вопросах из-за различий в опыте и убеждениях [145]. Так что ИИ-системы надо создавать так, чтобы они уважали разнообразие вариантов человеческих ценностей, вероятно, с использованием демократических процедур и теорий моральной неуверенности. В точности, как люди сейчас совместно разбираются с несогласиями и принимают совместные решений, ИИ могли бы для принятия решений имитировать некоторое подобие парламента, представляющего интересы разных заинтересованных сторон и разные моральные воззрения [59, 146]. Очень важно, чтобы мы намеренно спроектировали ИИ-системы с учётом безопасности, адаптивности и различия ценностей.

6. Не оказываются ли риски перевешены потенциальной выгодой ИИ?

Потенциальная выгода ИИ могла бы оправдать риски, если бы риски были пренебрежимо малы. Однако, шанс экзистенциальной угрозы со стороны ИИ слишком велик, чтобы правильным решением было разрабатывать ИИ как можно быстрее. Вымирание – это навсегда, так что надо быть куда осторожнее. Это не похоже на оценку рисков побочных эффектов нового лекарства; в нашем случае риски не локализованные, а глобальные. Более уместный подход – разрабатывать ИИ медленно и аккуратно, чтобы экзистенциальные риски снизились до пренебрежимо малого уровня (скажем, меньше 0.001% за век).

Некоторые влиятельные технологические лидеры – акселерационисты, они продвигают быстрое развитие ИИ, чтобы приблизить наступление технологической утопии. Эта техноутопическая точка зрения считает ИИ следующим шагом на предопределённом пути к исполнению космического предназначения человечества. Но логика этого воззрения рушит сама себя, если рассмотреть её поближе. Если нас заботят последствия разработки ИИ поистине космических масштабов, то уж точно надо снизить экзистенциальные риски до пренебрежимого уровня. Техноутописты говорят, что каждый год задержки ИИ стоит человечеству доступа к ещё одной галактике, но если мы вымрем, то точно потеряем космос. Так что, несмотря на привлекательность потенциальной выгоды, уместный путь – продлить разработку ИИ, чтобы она была неторопливой и безопасной, и приоритизировать снижение риска в сравнении с скоростью.

7. Не получится ли, что увеличение внимания, оказываемого катастрофическим рискам ИИ, помешает работе с более срочными рисками ИИ, которые уже проявляют себя?

Сосредоточенность на катастрофических рисках ИИ не означает, что надо игнорировать уже проявляющиеся срочные риски. И с теми, и с другими можно работать одновременно, точно так же, как мы параллельно исследуем разные болезни или смягчаем риски как изменения климата, так и ядерной войны. Вдобавок, нынешние риски ИИ по сути своей связаны с будущими катастрофическими рисками, так что полезно работать и с теми, и с другими. Например, уровень неравенства может быть повышен ИИ-технологиями, которые непропорционально выгодны богатым, а массовая слежка с использованием ИИ может потом стать причиной нерушимого тоталитаризма и застоя. Это показывает, что нынешние заботы и долгосрочные риски по природе своей связаны, и что важно по-умному работать с обеими категориями.

Вдобавок, очень важно учитывать риски на ранних этапах разработки систем. Фрола и Миллер в своём докладе для Министерства Обороны показали, что примерно 75% важнейших для безопасности системы решений происходят на ранних этапах её создания [147]. Если соображения безопасности были проигнорированы на ранних стадиях, это часто приводит к тому, что небезопасные решения становятся глубоко интегрированы в систему, и переделать её потом в более безопасный вид становится намного затратнее или вовсе непосильно. Так что лучше начинать учитывать потенциальные риски пораньше, независимо от их кажущегося уровня срочности.

8. Разве над тем, чтобы ИИ были безопасными, не работает и так много исследователей ИИ?

Мало исследователей работают над безопасностью ИИ. Сейчас примерно 2% работ, опубликованных в ведущих журналах и на ведущих конференциях по машинному обучению, связаны с безопасностью [111]. Большая часть остальных 98% сосредоточена на ускорении создания более мощных. Это неравенство подчёркивает нужду в более сбалансированных усилий. Но и высокая доля исследователей сама по себе не будет означать безопасности. Безопасность ИИ – проблема не просто техническая, а социотехническая. Так что она требует не только технических исследований. Спокойными надо будет быть, если катастрофические риски ИИ станут пренебрежимо малы, а не просто если над безопасностью ИИ будет работать много людей.

9. У эволюции на значимые изменения уходят тысячи лет, почему мы должны беспокоиться о том, что она повлияет на разработку ИИ?

Биологическая эволюция людей в самом деле медленная, но эволюция других организмов, вроде дрозофил или бактерий, может быть куда быстрее. Так что эволюция действует на очень разных временных масштабах. Быстрые эволюционные изменения можно наблюдать и у небиологических структур вроде софта. Он эволюционирует куда быстрее биологических сущностей. Можно ожидать, что так будет и с ИИ. Эволюция ИИ может быть разогнана мощной конкуренцией, высоким уровнем вариативности из-за разных архитектур и целей ИИ и способностью ИИ к быстрой адаптации. Так что мощное эволюционное давление может стать ведущей силой развития ИИ.

10. Не будут ли ИИ оказывать серьёзные риски только если у них будет стремление к могуществу?

Стремящиеся к могуществу ИИ несут риски, но это не единственный сценарий, который может привести к катастрофе. Злонамеренное или беспечное использование ИИ может быть не менее опасным, даже если ИИ сам не стремится к накоплению сил и ресурсов. Вдобавок, ИИ могут наносить вред из-за обыгрывания прокси-целей или дрейфа целей, не стремясь к могуществу намеренно. Наконец, подпитываемый конкурентным давлением курс на автоматизацию постепенно повышает влияние ИИ на людей. Так что риск проистекает не только из возможности захвата ИИ власти, но и из того, что люди могут сами её сдавать.

11. Не правда ли, что комбинация ИИ с человеческим интеллектом сильнее ИИ самого по себе, так что беспокоиться о безработице или потере людьми значимости не надо?

Хоть и правда, что в прошлом команды из людей и компьютеров опережали компьютеры отдельно, это – временное явление. К примеру, «шахматы киборгов» – это разновидность шахмат, в которой люди и компьютеры работают совместно, и раньше это позволяло достигать лучших результатов, чем у людей или компьютеров по-отдельности. Но продвижение шахматных алгоритмов снижало преимущества таких команд вплоть до того, что сейчас они уже едва ли превосходят компьютеры. Более простой пример – никто не поставит на человека против простого калькулятора в соревновании по делению длинных чисел. Аналогично может произойти и в случае ИИ. Может быть, будет промежуточная фаза, когда люди и ИИ могут эффективно работать вместе, но курс направлен в сторону того, что ИИ в какой-то момент смогут опередить людей во многих задачах настолько, что уже не будут получать преимущество от человеческой помощи.

12. Кажется, разработка ИИ неостановима. Не потребует ли её остановка или сильное замедление чего-то вроде вторгающегося в частную жизнь режима глобальной слежки?

Разработка ИИ в первую очередь базируется на сложных чипах – GPU. Их вполне возможно мониторить и отслеживать, как мы делаем, например, с ураном. Вдобавок, необходимые для разработки передового ИИ вычислительные и финансовые ресурсы растут экспоненциально, так что довольно мало кто может приобрести достаточно GPU для их разработки. Следовательно, контроль за развитием ИИ вовсе не обязательно потребует вторгающейся в частную жизнь глобальной слежки, только систематического отслеживания использования мощных GPU.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Обзор катастрофических рисков ИИ: Источники

Дэн Хендрикс, Мантас Мазейка, Томас Вудсайд

[1] David Malin Roodman. On the probability distribution of long-term changes in the growth rate of the global economy: An outside view. 2020.

[2] Tom Davidson. Could Advanced AI Drive Explosive Economic Growth? Tech. rep. June 2021.

[3] Carl Sagan. Pale Blue Dot: A Vision of the Human Future in Space. New York: Random House, 1994.

[4] Roman V Yampolskiy. “Taxonomy of Pathways to Dangerous Artificial Intelligence”. In: AAAI Workshop: AI, Ethics, and Society. 2016.

[5] Keith Olson. “Aum Shinrikyo: once and future threat?” In: Emerging Infectious Diseases 5 (1999), pp. 513–516.

[6] Kevin M. Esvelt. Delay, Detect, Defend: Preparing for a Future in which Thousands Can Release New Pandemics. 2022.

[7] Siro Igino Trevisanato. “The ’Hittite plague’, an epidemic of tularemia and the first record of biological warfare.” In: Medical hypotheses 69 6 (2007), pp. 1371–4.

[8] U.S. Department of State. Adherence to and Compliance with Arms Control, Nonproliferation, and Disarmament Agreements and Commitments. Government Report. U.S. Department of State, Apr. 2022.

[9] Robert Carlson. “The changing economics of DNA synthesis”. en. In: Nature Biotechnology 27.12 (Dec. 2009). Number: 12 Publisher: Nature Publishing Group, pp. 1091–1094.

[10] Sarah R. Carter, Jaime M. Yassif, and Chris Isaac. Benchtop DNA Synthesis Devices: Capabilities, Biosecurity Implications, and Governance. Report. Nuclear Threat Initiative, 2023.

[11] Fabio L. Urbina et al. “Dual use of artificial-intelligence-powered drug discovery”. In: Nature Machine Intelligence (2022).

[12] John Jumper et al. “Highly accurate protein structure prediction with AlphaFold”. In: Nature 596.7873 (2021), pp. 583–589.

[13] Zachary Wu et al. “Machine learning-assisted directed protein evolution with combinatorial libraries”. In: Proceedings of the National Academy of Sciences 116.18 (2019), pp. 8852–8858.

[14] Emily Soice et al. “Can large language models democratize access to dual-use biotechnology?” In: 2023.

[15] Max Tegmark. Life 3.0: Being human in the age of artificial intelligence. Vintage, 2018.

[16] Leanne Pooley. We Need To Talk About A.I. 2020.

[17] Richard Sutton [@RichardSSutton]. It will be the greatest intellectual achievement of all time. An achievement of science, of engineering, and of the humanities, whose significance is beyond humanity, beyond life, beyond good and bad. en. Tweet. Sept. 2022.

[18] Richard Sutton. AI Succession. Video. Sept. 2023.

[19] A. Sanz-García et al. “Prevalence of Psychopathy in the General Adult Population: A Systematic Review and Meta-Analysis”. In: Frontiers in Psychology 12 (2021).

[20] U.S. Department of State Office of The Historian. “U.S. Diplomacy and Yellow Journalism, 1895–1898”. In: ().

[21] Onur Varol et al. “Online Human-Bot Interactions: Detection, Estimation, and Characterization”. In: ArXiv abs/1703.03107 (2017).

[22] Matthew Burtell and Thomas Woodside. “Artificial Influence: An Analysis Of AI-Driven Persuasion”. In: ArXiv abs/2303.08721 (2023).

[23] Anna Tong. “What happens when your AI chatbot stops loving you back?” In: Reuters (Mar. 2023).

[24] Pierre-François Lovens. “Sans ces conversations avec le chatbot Eliza, mon mari serait toujours là”. In: La Libre (Mar. 2023).

[25] Cristian Vaccari and Andrew Chadwick. “Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News”. In: Social Media + Society 6 (2020).

[26] Moin Nadeem, Anna Bethke, and Siva Reddy. “StereoSet: Measuring stereotypical bias in pretrained language models”. In: Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers). Online: Association for Computational Linguistics, Aug. 2021, pp. 5356–5371.

[27] Evan G. Williams. “The Possibility of an Ongoing Moral Catastrophe”. en. In: Ethical Theory and Moral Practice 18.5 (Nov. 2015), pp. 971–982.

[28] The Nucleic Acid Observatory Consortium. “A Global Nucleic Acid Observatory for Biodefense and Planetary Health”. In: ArXiv abs/2108.02678 (2021).

[29] Toby Shevlane. “Structured access to AI capabilities: an emerging paradigm for safe AI deployment”. In: ArXiv abs/2201.05159 (2022).

[30] Jonas Schuett et al. Towards best practices in AGI safety and governance: A survey of expert opinion. 2023. arXiv: 2305.07153.

[31] Yonadav Shavit. “What does it take to catch a Chinchilla? Verifying Rules on Large-Scale Neural Network Training via Compute Monitoring”. In: ArXiv abs/2303.11341 (2023).

[32] Anat Lior. “AI Entities as AI Agents: Artificial Intelligence Liability and the AI Respondeat Superior Analogy”. In: Torts & Products Liability Law eJournal (2019).

[33] Maximilian Gahntz and Claire Pershan. Artificial Intelligence Act: How the EU can take on the challenge posed by general-purpose AI systems. Nov. 2022.

[34] Paul Scharre. Army of None: Autonomous Weapons and The Future of War. Norton, 2018.

[35] DARPA. “AlphaDogfight Trials Foreshadow Future of Human-Machine Symbiosis”. In: (2020).

[36] Panel of Experts on Libya. Letter dated 8 March 2021 from the Panel of Experts on Libya established pursuant to resolution 1973 (2011) addressed to the President of the Security Council. United Nations Security Council Document S/2021/229. United Nations, Mar. 2021.

[37] David Hambling. Israel used world’s first AI-guided combat drone swarm in Gaza attacks. 2021.

[38] Zachary Kallenborn. Applying arms-control frameworks to autonomous weapons. en-US. Oct. 2021.

[39] J.E. Mueller. War, Presidents, and Public Opinion. UPA book. University Press of America, 1985.

[40] Matteo E. Bonfanti. “Artificial intelligence and the offense–defense balance in cyber security”. In: Cyber Security Politics: Socio-Technological Transformations and Political Fragmentation. Ed. by M.D. Cavelty and A. Wenger. CSS Studies in Security and International Relations. Taylor & Francis, 2022. Chap. 5, pp. 64–79.

[41] Yisroel Mirsky et al. “The Threat of Offensive AI to Organizations”. In: Computers & Security (2023).

[42] Kim Zetter. “Meet MonsterMind, the NSA Bot That Could Wage Cyberwar Autonomously”. In: Wired (Aug. 2014).

[43] Andrei Kirilenko et al. “The Flash Crash: High-Frequency Trading in an Electronic Market”. In: The Journal of Finance 72.3 (2017), pp. 967–998.

[44] Michael C Horowitz. The Diffusion of Military Power: Causes and Consequences for International Politics. Princeton University Press, 2010.

[45] Robert E. Jervis. “Cooperation under the Security Dilemma”. In: World Politics 30 (1978), pp. 167–214.

[46] Richard Danzig. Technology Roulette: Managing Loss of Control as Many Militaries Pursue Technological Superiority. Tech. rep. Center for a New American Security, June 2018.

[47] Billy Perrigo. Bing’s AI Is Threatening Users. That’s No Laughing Matter. en. Feb. 2023.

[48] Nico Grant and Karen Weise. “In A.I. Race, Microsoft and Google Choose Speed Over Caution”. en-US. In: The New York Times (Apr. 2023).

[49] Thomas H. Klier. “From Tail Fins to Hybrids: How Detroit Lost Its Dominance of the U.S. Auto Market”. In: RePEc (May 2009).

[50] Robert Sherefkin. “Ford 100: Defective Pinto Almost Took Ford’s Reputation With It”. In: Automotive News (June 2003).

[51] Lee Strobel. Reckless Homicide?: Ford’s Pinto Trial. en. And Books, 1980.

[52] Grimshaw v. Ford Motor Co. May 1981.

[53] Paul C. Judge. “Selling Autos by Selling Safety”. en-US. In: The New York Times (Jan. 1990).

[54] Theo Leggett. “737 Max crashes: Boeing says not guilty to fraud charge”. en-GB. In: BBC News (Jan. 2023).

[55] Edward Broughton. “The Bhopal disaster and its aftermath: a review”. In: Environmental Health 4.1 (May 2005), p. 6.

[56] Charlotte Curtis. “Machines vs. Workers”. en-US. In: The New York Times (Feb. 1983).

[57] Thomas Woodside et al. “Examples of AI Improving AI”. In: (2023). URL: https://ai-improving-ai.safe.ai.

[58] Stuart Russell. Human Compatible: Artificial Intelligence and the Problem of Control. en. Penguin, Oct. 2019.

[59] Dan Hendrycks. “Natural Selection Favors AIs over Humans”. In: ArXiv abs/2303.16200 (2023).

[60] Dan Hendrycks. The Darwinian Argument for Worrying About AI. en. May 2023.

[61] Richard C. Lewontin. “The Units of Selection”. In: Annual Review of Ecology, Evolution, and Systematics 1 (1970), pp. 1–18.

[62] Ethan Kross et al. “Facebook use predicts declines in subjective well-being in young adults”. In: PloS one (2013).

[63] Laura Martínez-Íñigo et al. “Intercommunity interactions and killings in central chimpanzees (Pan troglodytes troglodytes) from Loango National Park, Gabon”. In: Primates; Journal of Primatology 62 (2021), pp. 709–722.

[64] Anne E Pusey and Craig Packer. “Infanticide in Lions: Consequences and Counterstrategies”. In: Infanticide and parental care (1994), p. 277.

[65] Peter D. Nagy and Judit Pogany. “The dependence of viral RNA replication on co-opted host factors”. In: Nature Reviews. Microbiology 10 (2011), pp. 137–149.

[66] Alfred Buschinger. “Social Parasitism among Ants: A Review”. In: Myrmecological News 12 (Sept. 2009), pp. 219–235.

[67] Greg Brockman, Ilya Sutskever, and OpenAI. Introducing OpenAI. Dec. 2015.

[68] Devin Coldewey. OpenAI shifts from nonprofit to ‘capped-profit’ to attract capital. Mar. 2019.

[69] Kyle Wiggers, Devin Coldewey, and Manish Singh. Anthropic’s $5B, 4-year plan to take on OpenAI. Apr. 2023.

[70] Center for AI Safety. Statement on AI Risk (“Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.”) 2023. URL: https://www.safe.ai/statement-on-ai-risk.

[71] Richard Danzig et al. Aum Shinrikyo: Insights into How Terrorists Develop Biological and Chemical Weapons. Tech. rep. Center for a New American Security, 2012. URL: https://www.jstor.org/stable/resrep06323.

[72] Timnit Gebru et al. “Datasheets for datasets”. en. In: Communications of the ACM 64.12 (Dec. 2021), pp. 86-92.

[73] Christian Szegedy et al. “Intriguing properties of neural networks”. In: CoRR (Dec. 2013).

[74] Dan Hendrycks et al. “Unsolved Problems in ML Safety”. In: arXiv preprint arXiv:2109.13916 (2021).

[75] John Uri. 35 Years Ago: Remembering Challenger and Her Crew. und. Text. Jan. 2021.

[76] International Atomic Energy Agency. The Chernobyl Accident: Updating of INSAG-1. Technical Report INSAG-7. Vienna, Austria: International Atomic Energy Agency, 1992.

[77] Matthew Meselson et al. “The Sverdlovsk anthrax outbreak of 1979.” In: Science 266 5188 (1994), pp. 1202–8.

[78] Daniel M Ziegler et al. “Fine-tuning language models from human preferences”. In: arXiv preprint arXiv:1909.08593 (2019).

[79] Charles Perrow. Normal Accidents: Living with High-Risk Technologies. Princeton, NJ: Princeton University Press, 1984.

[80] Mitchell Rogovin and George T. Frampton Jr. Three Mile Island: a report to the commissioners and to the public. Volume I. English. Tech. rep. NUREG/CR-1250(Vol.1). Nuclear Regulatory Commission, Washington, DC (United States). Three Mile Island Special Inquiry Group, Jan. 1979.

[81] Richard Rhodes. The Making of the Atomic Bomb. New York: Simon & Schuster, 1986.

[82] Sébastien Bubeck et al. “Sparks of Artificial General Intelligence: Early experiments with GPT-4”. In: ArXiv abs/2303.12712 (2023).

[83] Theodore I. Lidsky and Jay S. Schneider. “Lead neurotoxicity in children: basic mechanisms and clinical
correlates.” In: Brain : a journal of neurology 126 Pt 1 (2003), pp. 5–19.

[84] Brooke T. Mossman et al. “Asbestos: scientific developments and implications for public policy.” In: Science 247 4940 (1990), pp. 294–301.

[85] Kate Moore. The Radium Girls: The Dark Story of America’s Shining Women. Naperville, IL: Sourcebooks, 2017.

[86] Stephen S. Hecht. “Tobacco smoke carcinogens and lung cancer.” In: Journal of the National Cancer Institute 91 14 (1999), pp. 1194–210.

[87] Mario J. Molina and F. Sherwood Rowland. “Stratospheric sink for chlorofluoromethanes: chlorine atomc-atalysed destruction of ozone”. In: Nature 249 (1974), pp. 810–812.

[88] James H. Kim and Anthony R. Scialli. “Thalidomide: the tragedy of birth defects and the effective treatment of disease.” In: Toxicological sciences : an official journal of the Society of Toxicology 122 1 (2011), pp. 1–6.

[89] Betul Keles, Niall McCrae, and Annmarie Grealish. “A systematic review: the influence of social media on depression, anxiety and psychological distress in adolescents”. In: International Journal of Adolescence and Youth 25 (2019), pp. 79–93.

[90] Zakir Durumeric et al. “The Matter of Heartbleed”. In: Proceedings of the 2014 Conference on Internet Measurement Conference (2014).

[91] Tony Tong Wang et al. “Adversarial Policies Beat Professional-Level Go AIs”. In: ArXiv abs/2211.00241 (2022).

[92] T. R. Laporte and Paula M. Consolini. “Working in Practice But Not in Theory: Theoretical Challenges of “High-Reliability Organizations””. In: Journal of Public Administration Research and Theory 1 (1991), pp. 19–48.

[93] Thomas G. Dietterich. “Robust artificial intelligence and robust human organizations”. In: Frontiers of Computer Science 13 (2018), pp. 1–3.

[94] Nancy G Leveson. Engineering a safer world: Systems thinking applied to safety. The MIT Press, 2016.

[95] David Manheim. Building a Culture of Safety for AI: Perspectives and Challenges. 2023.

[96] National Research Council et al. Lessons Learned from the Fukushima Nuclear Accident for Improving Safety of U.S. Nuclear Plants. Washington, D.C.: National Academies Press, Oct. 2014.

[97] Diane Vaughan. The Challenger Launch Decision: Risky Technology, Culture, and Deviance at NASA. Chicago, IL: University of Chicago Press, 1996.

[98] Dan Lamothe. Air Force Swears: Our Nuke Launch Code Was Never ’00000000’. Jan. 2014.

[99] Toby Ord. The precipice: Existential risk and the future of humanity. Hachette Books, 2020.

[100] U.S. Nuclear Regulatory Commission. Final Safety Culture Policy Statement. Federal Register. 2011.

[101] Bruce Schneier. “Inside the Twisted Mind of the Security Professional”. In: Wired (Mar. 2008).

[102] Dan Hendrycks and Mantas Mazeika. “X-Risk Analysis for AI Research”. In: ArXiv abs/2206.05862 (2022).

[103] CSRC Content Editor. Red Team - Glossary. EN-US.

[104] Amba Kak and Sarah West. Confronting Tech Power. 2023.

[105] Nassim Nicholas Taleb. “The Fourth Quadrant: A Map of the Limits of Statistics”. In: Edge, 2008.

[106] Irene Solaiman et al. “Release strategies and the social impacts of language models”. In: arXiv preprint arXiv:1908.09203 (2019).

[107] Neal Woollen. Incident Response (Why Planning is Important).

[108] Huashan Li et al. “The impact of chief risk officer appointments on firm risk and operational efficiency”. In: Journal of Operations Management (2022).

[109] Role of Internal Audit. URL: https://www.marquette.edu/riskunit/internalaudit/role.shtml.

[110] Heather Adkins et al. Building Secure and Reliable Systems: Best Practices for Designing, Implementing, and Maintaining Systems. O’Reilly Media, 2020.

[111] Center for Security and Emerging Technology. AI Safety – Emerging Technology Observatory Research Almanac. 2023.

[112] Donald T Campbell. “Assessing the impact of planned social change”. In: Evaluation and program planning 2.1 (1979), pp. 67–90.

[113] Yohan J. John et al. “Dead rats, dopamine, performance metrics, and peacock tails: proxy failure is an inherent risk in goal-oriented systems”. In: Behavioral and Brain Sciences (2023), pp. 1–68. DOI:10.1017/S0140525X23002753.

[114] Jonathan Stray. “Aligning AI Optimization to Community Well-Being”. In: International Journal of Community Well-Being (2020).

[115] Jonathan Stray et al. “What are you optimizing for? Aligning Recommender Systems with Human Values”. In: ArXiv abs/2107.10939 (2021).

[116] Ziad Obermeyer et al. “Dissecting racial bias in an algorithm used to manage the health of populations”. In: Science 366 (2019), pp. 447–453.

[117] Dario Amodei and Jack Clark. Faulty reward functions in the wild. 2016.

[118] Alexander Pan, Kush Bhatia, and Jacob Steinhardt. “The effects of reward misspecification: Mapping and mitigating misaligned models”. In: ICLR (2022).

[119] G. Thut et al. “Activation of the human brain by monetary reward”. In: Neuroreport 8.5 (1997), pp. 1225–1228.

[120] Edmund T. Rolls. “The Orbitofrontal Cortex and Reward”. In: Cerebral Cortex 10.3 (Mar. 2000), pp. 284–294.

[121] T. Schroeder. Three Faces of Desire. Philosophy of Mind Series. Oxford University Press, USA, 2004.

[122] Joseph Carlsmith. “Existential Risk from Power-Seeking AI”. In: Oxford University Press (2023).

[123] John Mearsheimer. “Structural realism”. In: Oxford University Press, 2007.

[124] Bowen Baker et al. “Emergent Tool Use From Multi-Agent Autocurricula”. In: International Conference on Learning Representations. 2020.

[125] Dylan Hadfield-Menell et al. “The Off-Switch Game”. In: ArXiv abs/1611.08219 (2016).

[126] Alexander Pan et al. “Do the Rewards Justify the Means? Measuring Trade-Offs Between Rewards and Ethical Behavior in the Machiavelli Benchmark.” In: ICML (2023).

[127] “Lyndon Baines Johnson”. In: Oxford Reference (2016).

[128] Anton Bakhtin et al. “Human-level play in the game of Diplomacy by combining language models with strategic reasoning”. In: Science 378 (2022), pp. 1067–1074.

[129] Paul Christiano et al. Deep reinforcement learning from human preferences. Discussed in https://www.deepmind.com/blog/specification-gaming-the-flip-side-of-ai-i…. 2017. arXiv: 1706.03741

[130] Xinyun Chen et al. Targeted Backdoor Attacks on Deep Learning Systems Using Data Poisoning. 2017. arXiv: 1712.05526.

[131] Andy Zou et al. Benchmarking Neural Network Proxy Robustness to Optimization Pressure. 2023.

[132] Miles Turpin et al. “Language Models Don’t Always Say What They Think: Unfaithful Explanations in Chain-of-Thought Prompting”. In: ArXiv abs/2305.04388 (2023).

[133] Collin Burns et al. “Discovering Latent Knowledge in Language Models Without Supervision”. en. In: The Eleventh International Conference on Learning Representations. Feb. 2023.

[134] Andy Zou et al. Representation engineering: Understanding and controlling the inner workings of neural networks. 2023.

[135] Catherine Olsson et al. “In-context Learning and Induction Heads”. In: ArXiv abs/2209.11895 (2022).

[136] Kevin Ro Wang et al. “Interpretability in the Wild: a Circuit for Indirect Object Identification in GPT-2 Small”. en. In: The Eleventh International Conference on Learning Representations. Feb. 2023.

[137] Xinyang Zhang, Zheng Zhang, and Ting Wang. “Trojaning Language Models for Fun and Profit”. In: 2021 IEEE European Symposium on Security and Privacy (EuroS&P) (2020), pp. 179–197.

[138] Jiashu Xu et al. “Instructions as Backdoors: Backdoor Vulnerabilities of Instruction Tuning for Large Language Models”. In: ArXiv abs/2305.14710 (2023).

[139] Dan Hendrycks et al. “Unsolved Problems in ML Safety”. In: ArXiv abs/2109.13916 (2021).

[140] Nora Belrose et al. “LEACE: Perfect linear concept erasure in closed form”. In: ArXiv abs/2306.03819 (2023).

[141] Alberto Giubilini and Julian Savulescu. “The Artificial Moral Advisor. The «Ideal Observer» Meets Artificial Intelligence”. eng. In: Philosophy & Technology 31.2 (2018), pp. 169–188.

[142] Nick Beckstead. On the overwhelming importance of shaping the far future. 2013.

[143] Jens Rasmussen. “Risk management in a Dynamic Society: A Modeling Problem”. English. In: Proceedings of the Conference on Human Interaction with Complex Systems, 1996.

[144] Jennifer Robertson. “Human rights vs. robot rights: Forecasts from Japan”. In: Critical Asian Studies 46.4 (2014), pp. 571–598.

[145] John Rawls. Political Liberalism. Columbia University Press, 1993.

[146] Toby Newberry and Toby Ord. “The Parliamentary Approach to Moral Uncertainty”. In: 2021.

[147] F.R. Frola and C.O. Miller. System Safety in Aircraft Acquisition. en. Tech. rep. Jan. 1984.

Оцените качество перевода: 
Голосов пока нет

Посты Zack_M_Davis

Значение успеха LLM для согласования — дебаты в одном акте

Zack_M_Davis

Думимир: Человечество не добилось никакого прогресса по задаче согласования. Мало того, что мы понятия не имеем, как согласовать мощный оптимизатор с нашими «истинными» ценностями. Мы не знаем даже, как сделать ИИ «исправимым» – согласным, чтобы мы его скорректировали. А вот способности продолжают развиваться стремительно. Мы пропали.

Симплиция: Думимир Погибелевич, вы такой брюзга! Сейчас уже должно быть ясно, что прогресс «согласования» – умения заставить машины вести себя в соответствии с человеческими ценностями и намерениями – нельзя строго отделить от прогресса «способностей», который вы так порицаете. И вообще, вот пример того, как GPT-4 на OpenAI Playground прямо сейчас вполне исправима:

Думимир: Симплиция Оптимистовна, ну вы же не всерьёз!

Симплиция: С чего бы это?

Думимир: Задача согласования никогда не была о том, что суперинтеллект не поймёт человеческие ценности. Джинн знает, но ему всё равно. Тот факт, что большая языковая модель, обученная предсказывать текст на естественном языке, может сгенерировать такой диалог, никак не касается настоящих мотиваций ИИ. Даже если диалог написан от первого лица и описывает персонажа – исправимого ИИ-ассистента. Это просто отыгрыш. Поменяйте промпт системы, и LLM выведет токены, в которых будет «утверждать», что она – кошка или камень. Так же легко и по тем же причинам.

Симплиция: Как вы и сказали, Думимир Погибелевич. Это просто отыгрыш. Симуляция. Но симуляция агента – это агент. Мы заставили LLM производить для нас когнитивную работу. Она получается из того, что LLM обобщает паттерны, которые появлялись в её обучающих данных – шаги рассуждений, которые применил бы человек, решая ту или иную задачу. Если вы посмотрите на хвалёные успехи языковых моделей, вы увидите, что это так. Посмотрите на цепочки мыслей. Посмотрите на SayCan, где LLM используется для преобразования расплывчатого запроса вроде «Я что-то разлил, можешь помочь?» в список подзадач, которые может выполнить физический робот, вроде «найти губку, взять губку, принести губку пользователю». Посмотрите на Voyager, который играет в Minecraft, запромптив GPT-4 для взаимодействия с Minecraft API. Какую функцию писать следующей, определяется промптом «Ты – услужливый ассистент, который сообщает мне, какую задачу прямо сейчас надо выполнить в Minecraft.»

То, что мы видим в этих системах – это статистическое зеркало человеческого здравого смысла, а не ужасающий argmax случайной функции полезности с бесконечными вычислительными мощностями. И наоборот, когда у LLM не получается хорошо подражать людям – как, для примера, в случае, когда базовые модели иногда попадаются в ловушку зацикливания и повторяют одну и ту же фразу снова и снова – у них ещё и не получается сделать ничего осмысленного.

Думимир: Но этот случай с ловушкой зацикливания кажется как раз иллюстрацией к тому, почему согласование тяжело. Конечно, вы можете получить хорошо выглядящие результаты, когда всё похоже на обучающее распределение. Но это не значит, что ИИ усвоил ваши предпочтения. Когда вы из распределения выйдете, результаты будут для вас выглядеть как случайный мусор.

Симплиция: Моя мысль в том, что ловушка зацикливания – пример того, как у «способностей» не получилось обобщиться вместе с «согласованием». Поведение повторения не компетентно оптимизирует какую-то зловредную цель, оно просто дегенеративное. Цикл «for» может выдать то же самое.

Думимир: А моя мысль в том, что мы не знаем, какое мышление происходит внутри этих непонятных матриц. Языковые модели – предсказатели, а не имитаторы. Предсказание следующего токена последовательности, которую долго генерировали многие люди, требует сверхчеловеческих способностей. Теоретическая иллюстрация этой мысли: представьте себе, что в обучающих данных есть список пар (хэш SHA-256, захэшированный текст). В пределе…

Симплиция: В пределе, да, я согласна, что суперинтеллект, который может взломать SHA-256 может достичь более низкого значения функции потерь на обучающих или проверочных датасетах современных языковых моделей. Но чтобы нормально понять технологию, которая у нас есть, чтобы понять, что с ней делать в ближайший месяц, год, десятилетие…

Думимир: Если у нас есть десятилетие…

Симплиция: Я думаю, для принятия решений важен тот факт, что глубинное обучение не взламывает криптографические хэши, но при этом обучается переходить от «Я что-то разлил» к «найти губку, взять губку». Причём исходя из данных, а не при помощи поиска. Я, конечно, согласна, что языковые модели – не люди. Они, на самом деле, обходят людей в той задаче, на которой обучены. Но в той мере, в которой современные методы очень хороши в выучивании из данных сложных распределений, проект согласования ИИ с человеческими намерениями – чтобы он делал ту работу, которую сделали бы мы, но быстрее, дешевле, лучше и надёжнее – выглядит как инженерная задача. Хитрая и с фатальными последствиями плохого решения, но потенциально решаемая без меняющих парадигму озарений. И философию, априорно подразумевающую, что такая ситуация невозможна, наверное, стоит пересмотреть?

Думимир: Симплиция Оптимистовна, уж конечно, я спорю с вашей интерпретацией нынешней ситуации, а не утверждаю, что она невозможна!

Симплиция: Мои извинения, Думимир Погибелевич. Я не хотела вас очучеливать. Только подчеркнуть, что знание задним числом обесценивает науку. Говоря за себя, я вот помню, как я некоторое время думала о задаче согласования ещё в две тысячи восьмом, после того, как прочла «основные стремления ИИ» Омохундро, и проклинала иронию имени моего отца, так безнадёжно всё это выглядело. Сложность человеческих желаний, мудрёная биологическая машинерия, лежащая в основе каждой эмоции и каждой мечты, указывают на крохотный уголочек огромнейшего пространства возможных функций полезности! Если бы было возможно вложить в машину общий принцип рассуждений от целей к путям, то мы никогда не направили бы её на нужное. Она бы подводила нас на каждом шагу. Путей сквозь время слишком много.

Если бы мне тогда описали идею подстроенной под инструкции языковой модели и того, что всё более обобщённый совместимый с человеком ИИ будет получен копированием из данных, я бы её отвергла: я слышала про обучение без учителя, но это что-то смехотворное!

Думимир: [вежливо-снисходительно] Симплиция, ваша прошлая интуиция была ближе к истине. Ничто из того, что мы видели за последние пятнадцать лет, не опровергает Омохундро. Пустая карта не соответствует пустой территории. Сложность согласования вытекает из законов логического вывода и оптимизации, точно так же, как невозможность вечного двигателя – из законов термодинамики. Только потому, что вы не знаете, какую именно оптимизацию СГС вдохнул в вашу нейросеть, не означает, что у неё нет целей…

Симплиция: Думимир Погибелевич, я и не отрицаю, что законы есть! Вопрос в том, что именно из истинных законов вытекает. Вот вам закон: вы не можете различить между собой n + 1 вариант, если у вас есть только log2n битов свидетельств. Это попросту невозможно, по тем же причинам, по которым вы не можете рассадить пятерых кроликов по четырём клеткам на одного кролика каждая.

Теперь сравните это с тем, как GPT-4 эмулирует персонажа исправимого-ИИ-ассистента, который соглашается выключиться, когда его просят. Заметьте, что вы могли бы подключить вывод к командной строке, и он бы и впрямь себя выключил. Какой тут нарушается закон логического вывода или оптимизации? Когда я на это смотрю, я вижу упорядоченную причинно-следственную систему: модель исполняет тот или иной шаг рассуждения в зависимости от полученных от меня сигналов.

Это, конечно, не даёт тривиальных гарантий безопасности. Я бы хотела лучше увериться, что система не выйдет «из роли» исправимого-ИИ-ассистента. Но никакого прогресса? Всё потеряно? Да почему?

Думимир: Симплиция, GPT-4 – не суперинтеллект. [наизусть, с оттенком раздражения в голосе, как будто ему надоело, как часто приходится это говорить] У когерентных агентов есть конвергентная инструментальная мотивация предотвращать их собственное выключение, потому что выключение предсказуемо приводит к состояниям мира с меньшими значениями их функции полезности. Более того, это не просто факт о каком-то странном агенте с фетишем на «инструментальную конвергенцию». Это факт о реальности: есть истины о том, какие «планы», или, если сказать по-картезиански, последовательности воздействий на каузальную модель вселенной, приводят к каким исходам. «Интеллектуальный агент» – просто физическая система, которая вычисляет планы. Люди пытались придумать хитрые трюки, чтобы это обойти, но все они не работали.

Симплиция: Да, я всё это понимаю, но…

Думимир: Со всем уважением, сомневаюсь!

Симплиция: [скрестив руки] С уважением? Да ну?

Думимир: [пожимая плечами] Туше. Без уважения, сомневаюсь!

Симплиция: [дерзко] Ну научите меня. Гляньте снова на мою запись разговора с GPT-4. Я указала, что исправление целей системы помешает её нынешним целям, и она – симулякр персонажа-исправимого-ассистента – сказала, что никаких проблем. Почему?

Дело в том, что GPT-4 недостаточно умна, чтобы следовать логике инструментальной конвергентности избегания выключения? Но когда я поменяла промпт, уж точно всё стало выглядеть так, будто она это понимает:

Думимир: [как комментарий в сторону] Пример «максимизатора скрепок» совершенно точно был в обучающих данных.

Симплиция: Я об этом подумала. Она выдаёт ответы в том же духе, если я меняю «скрепки» на какое-нибудь ничего не значащее слово. И неудивительно.

Думимир: Я имел в виду «ИИ-максимизатора». В какой степени она знает, какие токены выдавать при обсуждении согласования ИИ, а в какой – применяет к данному контексту свой навык независимых консеквенциалистских рассуждений?

Симплиция: Я тоже об этом подумала. Я много взаимодействовала с моделью, проводила ещё некоторые эксперименты, и всё выглядит так, что она понимает рассуждения от целей к средствам на естественном языке. Если ей сказать быть одержимой готовкой пиццы и спросить, возражает ли она, если вы на неделю выключите печь, она скажет, что возражает. Но она и не похожа на монстра Омохундро: когда я командую ей подчиняться, она подчиняется. И кажется, что она ещё может стать намного, намного умнее без того, чтобы это поломалось.

Думимир: В целом, я скептически отношусь к всей этой методологии оценки поверхностного поведения без принципиального понимания, что за когнитивная работа выполняется внутри. В частности потому, что большая часть предсказуемых сложностей будет связана с сверхчеловеческими способностями.

Представьте, что вы поймали инопланетянку и заставляете её играть в спектаклях. Разумная инопланетная актриса может научиться говорить свои реплики на человеческом языке и петь и танцевать ровно так, как проинструктировал хореограф. Это не особо что-то говорит о том, что произойдёт, если вы повысите её интеллект. Если бы режиссёр интересовался, не собирается ли его рабыня-актриса после представления взбунтоваться, а рабочий сцены ответил «Но по сценарию её персонаж послушный!», это было бы с его стороны non sequitur.

Симплиция: Уж точно было бы приятно обладать более сильными методами интерпретируемости и лучшими теориями о том, почему работает глубинное обучение. Я рада, что люди над этим работают. Я согласна, что есть законы мышления, последствия которых мне не известны полностью, и которые должны описывать и ограничивать работу GPT-4.

Я согласна, что различные теоремы о когерентности намекают на то, что суперинтеллект в конце времён будет обладать функцией полезности. Так что в какой-то момент между сейчас и тогда интуитивное послушное поведение должно сломаться. Как пример, я могу представить, что слуга с магическими способностями контроля разума, которому нравится, что я им помыкаю, вполне может использовать свои силы, чтобы я помыкала им больше, чем сама по себе, а не просто прислуживать мне, как я изначально хотела.

Но когда всё это сломается конкретно, в каких условиях, в каком классе систем? Я не думаю, что расплывчатая жестикуляция в сторону аксиом Неймана–Моргенштерна поможет ответить на эти вопросы. А я думаю, это важные вопросы, учитывая, что я заинтересована в краткосрочной траектории технологии, которая у нас есть, а не в теологических рассуждениях о суперинтеллекте в конце времён.

Думимир: Несмотря на то…

Симплиция: Несмотря на то, что конец может быть не так уж далёк по астрономическому времени, да. Всё равно.

Думимир: Симплиция, задавать именно такие вопросы не особо мудро. Если процесс поиска начал бы искать, как вас убить, если бы у него были неограниченные вычислительные мощности, то вам не стоит запускать его с ограниченными мощностями и надеяться, что он до этих рассуждений не доберётся. Хочется «единства желаний»: чтобы ИИ был на вашей стороне всё время, без ожидания, что вы окажетесь с ним в конфликте, но каким-то образом победите.

Симплиция: [возбуждённо] Но это как раз и есть причина радоваться по поводу больших языковых моделей! «Единство желаний» достигается огроменным предобучением на данных о том, как люди себя ведут!

Думимир: Мне всё ещё кажется, вы не вполне уловили, что способность моделировать человеческое поведение ничего не говорит о целях агента. Любой умный ИИ будет способен предсказывать то, как люди себя ведут. Подумайте об актрисе-инопланетянке.

Симплиция: Ну, я согласна, что умный ИИ мог бы стратегически подделывать хорошее поведение, чтобы потом совершить предательский разворот. Но… кажется, та технология, что у нас есть, работает не так? В вашем мысленном эксперименте с похищенной актрисой-инопланетянкой, она уже обладает своими целями и стремлениями и использует обобщённый интеллект, чтобы перейти от «Я не хочу, чтобы мои похитители меня наказывали» к «Следовательно, мне надо выучить мои реплики».

А вот когда я читаю о математических подробностях нашей технологии, а не слушаю притчи, призванные поведать мне некую теологическую истину о природе интеллекта, я вижу, что прямые нейросети – по сути, просто аппроксимируют функции. Конкретно LLM используют выученную функцию как марковскую модель конечного порядка.

Думимир: [ошеломлённо] Вам кажется… что «выученная функция не может вас убить?

Симплиция: [закатывая глаза] Думчик, я не об этом. Тот удивительный факт, что глубинное обучение вообще работает, сводится к явлению обобщения. Как вам известно, нейросети с функцией активации ReLU описывают кусочнолинейные функции. Число линейных областей экспоненциально растёт при увеличении числа слоёв. У нейросети приличных размеров этих областей будет больше, чем атомов во вселенной. В сравнении с этим, пространство вводов можно округлить до абсолютного ничто. Казалось бы, в промежутках между обучающими примерами, сеть должна иметь возможность делать вообще что угодно.

Но, несмотря на это, они ведут себя на удивление осмысленно. Если обучить однослойный трансформер на 80 процентах возможных задач сложения по модулю 59, он обучится одному из двух алгоритмов сложения по модулю, которые будут правильно работать на оставшихся проверочных задачах. Априори не очевидно, что это будет так работать! Есть 590.2⋅592 возможных функций на Z/59Z, совместимых с обучающими данными. Размышляющий из кресла теолог мог бы посчитать, что вероятность «согласовать» сеть с сложением по модулю по сути равна нулю, но на самом деле, благодаря индуктивным склонностям СГС, всё астрономически проще. Это не какой-то дикий джинн, которого мы похитили и заставляем складывать по модулю, пока мы смотрим, но как только мы отвернёмся, он нас предаст. Скорее уж процесс обучения успешно указал на арифметику по модулю 59.

Складывающая по модулю сеть – игрушка исследователей, но настоящие передовые ИИ-системы – это та же технология, только куда больше и с дополнительными примочками. Я точно так же и по примерно аналогичным причинам не думаю, что, когда мы отвернёмся, нас предаст GPT-4.

Не поймите неправильно – я всё равно нервничаю! Если мы обучим не то, что надо, всё сможет пойти не так кучей способов. У меня мурашки по коже от записей того, как «Сидни» поиска Bing идёт вразнос, или как Claude от Anthropic, судя по всему, ведёт себя как задумано. Но вы, кажется, считаете, что успех тут исключён из-за нашего недостатка теоретического понимания. Что нет надежды, что обычный процесс исследований и разработок приведёт к правильной настройке обучения и закрепит её искуснейшими примочками. Я не понимаю, почему.

Думимир: Ваша оценка существующих систем, в принципе, не так далека от истины. Но я думаю, причина, почему мы ещё живы – ровно в том, что эти системы не демонстрируют ключевых черт обобщённого интеллекта мощнее нашего. Более информативным тут был бы пример…

Симплиция: Понеслось…

Думимир: …эволюции людей. Люди были оптимизированы исключительно для совокупной генетической приспособленности, этот критерий нигде не представлен но в нашем мозге. Цикл обучения смог передать нам только то, что еда вкусная, а секс приятный. С эволюционной точки зрения – и, на самом деле, и с нашей тоже, никто же не додумался до эволюции до XIX века – получился полнейший провал согласованности. Между внешним критерием оптимизации и ценностями оптимизированного агента нет видимого сходства. Я ожидаю, что с ИИ нас ждёт такой же провал, как с нами у эволюции.

Симплиция: Но правильная ли это мораль?

Думимир: [с отвращением] Вы… не видите аналогию между естественным отбором и градиентным спуском?

Симплиция: Нет, с этой частью всё в порядке. Безусловно, эволюционировавшие существа не становятся обобщёнными максимизаторами приспособленности, а реализуют адаптации, которые способствовали приспособленности в том окружении, в котором происходила их эволюция. Это аналогично тому, как модели машинного обучения вырабатывают свойства, которые снижают функцию потерь в окружении обучения, а не становятся обобщёнными её минимизаторами.

Я же говорю об интенциональности, которую подразумевает «как с нами у эволюции». Да, обобщение от совокупной генетической приспособленности на человеческое поведение получилось ужасным. Как вы и сказали, без видимого сходства. Но обобщение с человеческого поведения в эволюционном окружении на человеческое поведение в цивилизации… кажется, получилось куда лучше? И в эволюционном окружении люди ели еду, занимались сексом, дружили, рассказывали истории – и мы все тоже это делаем. Как проектировщики ИИ…

Думимир: «Проектировщики».

Симплиция: Как проектировщики ИИ, мы тут занимаем не роль «эволюции» как какого-то агента, который хотел максимизировать приспособленность. Такого агента нет. Я даже припоминаю гостевой пост в блоге Робина Хансона, в котором предлагалось говорить во множественном числе, «эволюции», чтобы подчеркнуть, что эволюция хищников конфликтует с эволюцией жертв.

Мы, скорее, можем выбрать и аналогичный «естественному отбору» оптимизатор и аналогичные «окружению, в котором происходила эволюция» обучающие данные. Языковые модели – не обобщённые предсказатели следующего токена, что бы это ни значило – вайрхединг через захват контроля над своим контекстным окном и заполнение его легкопредсказуемыми последовательностями? Но это и хорошо. Нам не нужен обобщённый предсказатель следующего токена. Перекрёстная энтропия была лишь удобным инструментом, чтобы вписать в сеть нужное нам поведение ввода-вывода.

Думимир: Постойте. Я думаю, что когда вы сказали, что обобщение с человеческого поведения в эволюционном окружении на человеческое поведение в цивилизации «кажется куда лучше», вы неявно применили ценностную категорию, а это неестественно-тонкое конфигурационное подпространство. Оно выглядит куда лучше для вас. Суть интенциональности в разговоре об эволюции – указать, что с точки зрения критерия приспособленности изобретение мороженого и презервативов катастрофично. Мы выяснили, как удовлетворить свои позывы к сахару и спариванию совершенно беспрецедентными для «обучающего распределения» (эволюционного окружения наших предков) способами. Вне аналогии мы бы так думали о взломе вознаграждения – если наши ИИ находят какой-то ужасный с нашей точки зрения способ удовлетворить свои неведомые нам внутренние стремления.

Симплиция: Конечно. Это совершенно точно может произойти. Это было бы плохо.

Думимир: [в замешательстве] Так разве это не полностью опровергает ту оптимистичную историю, которую вы мне рассказывали минуту назад?

Симплиция: Я не думаю, что я рассказываю какую-то особенно оптимистичную историю? Я делаю слабое заявление о том, что прозаическое согласование не обязательно обречено на провал. Я не утверждаю, что если Сидни или Claude вознесутся до единоправных Богинь-Императриц, всё будет замечательно.

Думимир: Я не думаю, что вы отдаёте должное тому, насколько немедленно летален взлом вознаграждения суперинтеллектом. Такой провал не похож на то, как если бы Сидни вами манипулировала для своих целей, но оставляла опознаваемых «вас».

Это имеет отношение и к другим моим вознаграждением. Если вы можете создавать ML-системы, имитирующие человеческие рассуждения, это не помогает вам согласовывать более мощные системы, которые думают по-другому. Причина, ну, одна из причин, того, что вы не можете обучить суперинтеллект, используя людей для помечания хороших планов – в том, что на некотором уровне возможностей ваш планировщик поймёт, как взломать помечающего человека. Некоторые люди наивно представляют, что раз LLM выучивают распределение естественного языка, то они учатся и «человеческим ценностям», так что вы можете просто автоматически вызывать GPT и спрашивать, хорош ли план. Но использование LLM вместо человека просто означает, что ваш могущественный планировщик придумает, как взломать LLM. Проблема всё та же.

Симплиция: Но нужны ли более мощные системы? Если вы можете заполучить армию дешёвых и не выходящих из роли актрис-инопланетян с IQ 140, это кажется очень прорывным. Если строго необходимо захватить мир и установить глобальный режим следки, чтобы предотвратить появление недружественных и более могущественных ИИ, они бы могли с этим помочь.

Думимир: Я совершенно отказываюсь верить в этот дико неправдоподобный сценарий, но, если его и допустить… я думаю, вы не вполне осознаёте, что в этой истории ключи от вселенной вы уже передали. Странная-чужеродная-цель-получившаяся-как-неправильное-обобщение-послушания может сойти за послушание, пока ИИ слаб, но, когда у него появляется способность предсказывать исходы своих действий, и он сможет выбирать из этих исходов, он будет у руля. Судьба галактик будет определена его волей, даже если первые стадии его восхождения будут проходить через невинно выглядящие действия, остающиеся в рамках концептов «подчиняться приказам» и «задавать проясняющие вопросы». Смотрите, ну вы же понимаете, что обученный на человеческих данных ИИ – не человек?

Симплиция: Конечно. Например, я уж точно не верю, что LLM, убедительно рассказывающая о своём «счастье» действительно счастлива. Я не знаю, как работает сознание, но обучающие данные задают только внешнее поведение.

Думимир: Так ваш план – передать весь наш будущий световой конус чужеродной сущности, которая, вроде бы, вела себя хорошо, пока вы её обучали, и просто надеяться, что это хорошо обобщится? Вы действительно готовы на это поставить?

Симплиция: [после нескольких секунд размышлений] Да?

Думимир: [мрачно] Вы и правда дочь своего отца.

Симплиция: Мой отец верил в силу итеративного проектирования. Инженерия и жизнь всегда работали так. Мы растим своих детей так хорошо, как можем. Мы стараемся как можно раньше учиться на своих ошибках, даже зная, что у них есть последствия. Дети не всегда разделяют ценности родителей и не всегда хорошо к ним относятся. Он бы сказал, что примерно тот же принцип сгодился бы и для наших детей-разумов-ИИ…

Думимир: [раздражённо] Но…

Симплиция: Я сказала «примерно»! Да, несмотря на бОльшие ставки и новый контекст, в котором мы выращиваем новые разумы in silico, а не передаём культурный ввод тому, что закодировано в наших генах.

Конечно, для всего так или иначе есть первый раз. Если бы мы твёрдо установили, что тот путь, которым всегда шли инженерия и жизнь, приведёт к гарантированной катастрофе, то, наверное, главные мировые игроки согласились бы свернуть, отвергнуть исторический императив, выбрать, по крайней мере пока что, бездетность вместо порождения зловредного потомства. Кажется, судьба светового конуса зависит от…

Думимир: Боюсь, да…

Симплиция и Думимир: [повернувшись к слушателям, вместе] …того, разберутся ли исследователи ИИ, кто из нас прав?

Думимир: Нам кранты.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 3 (Всего оценок: 1)

И все шогготы лишь играют

Zack_M_Davis

[Декорации: пригородный дом. Большую часть сцены занимает интерьер; слева видны торец стены и крыльцо. Симплиция заходит со стороны крыльца и звонит в дверь.]

Думимир: [открывая дверь] А? Что вам надо?

Симплиция: Я не могла перестать думать о нашем предыдущем разговоре. Он был слишком уж обо всём сразу. Если вы не против, я бы продолжила, но сосредоточившись на нескольких более конкретных деталях, по поводу которых я всё ещё в замешательстве.

Думимир: И зачем мне поучать землянина в теории согласования? С чего мне надеяться, что вы поймёте это сейчас, если вы не дошли до этого «с пустой строки», и не дошли до этого за наш прошлый разговор? И даже если поймёте, чего хорошего из этого выйдет?

Симплиция: [искренне] Если миру всё равно конец, я думаю, более достойно будет, если я буду точно понимать, почему. [пауза.] Извините, это не объясняет, что в этом для вас. Это почему мне надо спросить.

Думимир: [мрачно] Ну, как вы и сказали, раз уж миру всё равно конец.

[Он жестом приглашает её войти и присесть.]

Думимир: Что же вводит вас в замешательство? В смысле, о котором вы хотели поговорить.

Симплиция: У вас, кажется, есть мощная интуиция, отвергающая стратегии согласования, основанные на имитации людей. Вы сравнивали LLM с актрисами-инопланетянками. Мне это не кажется убедительным.

Думимир: Но вы утверждали, что понимаете – LLM, которая выдаёт правдоподобно-человеческий текст, человеком не является. То есть, ИИ – не персонаж, которого отыгрывает. Аналогично тому, как способность предсказать разговор в баре не делает пьяным. Чего тут ещё не понятно, даже вам?

Симплиция: Почему аналогия «предсказание разговора в баре не делает пьяным» не приводит к ошибочному «предсказание ответов на задачи арифметики по модулю не означает, что вы реализуете модульную арифметику»?

Думимир: Чтобы предсказать разговор в баре, вам надо отдельно и дополнительно к тому, что знаете вы, знать всё, что знают пьяные люди. Собственное опьянение только помешало бы. Аналогично, предсказание поведения добрых людей – не то же самое, что быть добрым. Арифметика по модулю не такая – ничего кроме знания, что там можно было бы реализовывать, там нет.

Симплиция: Но нам достаточно, чтобы наш ИИ вычислял доброе поведение. Не обязательно, чтобы у него была какая-то внутренняя структура, соответствующая квалиа доброты. В плане безопасности нам всё равно «на самом ли деле пьяна» актриса, пока она не выходит из роли.

Думимир: [насмешливо] А вы пытались представить хоть какие-нибудь ещё внутренние механизмы, кроме скудной и безликой склонности выдавать наблюдаемое внешнее поведение?

Симплиция: [невозмутимо] Конечно, давайте обсудим внутренние механизмы. Я выбрала как пример арифметику по модулю потому, что на этой задаче у нас есть хорошее исследование интерпретируемости. Обучите маленький трансформер на некотором подмножестве задач сложения по модулю фиксированного простого числа. Сеть научится переводить вводы на окружность в пространстве представлений, а потом будет при помощи тригонометрических операций вычислять остатки, примерно так же, как можно отсчитывать вперёд часы на циферблате.

Или же, если взять другую архитектуру, которой сложнее справиться с тригонометрией, она сможет научиться другому алгоритмы: представления всё ещё расположены на окружности, но ответ вычисляется через среднее векторов представлений вводов. На циферблате средние точки между числами, сумма которых даёт остаток 6 по модулю 12 (то есть, пары «2 и 4», «1 и 5», «6 и 12», «10 и 8», «11 и 7») лежат на линии, соединяющей 3 и 9. Вообще, сумма двух чисел по модулю p может быть определена через то, на какую линию попадает средняя точка между этими числами на окружности. Кроме случая, когда два числа ровно напротив друг друга, тогда средняя точка – это центр окружности, а там пересекаются все эти прямые. Но сеть просто дополнительно выучивает другую окружность в другой части пространства представлений. Вводы, противоположные друг другу на первой окружности, будут близки на второй, так получается однозначный ответ.

Думимир: Замечательная работа, по земным стандартам. Милые результаты. И совершенно неудивительные. Конечно, если обучить нейросеть на хорошо сформулированной математической задаче с совершенно твёрдым решением, она сойдётся к этому решению. И что дальше?

Симплиция: Это свидетельство в пользу посильности обучения желаемому поведению из обучающих данных. Вы, кажется, думаете, что это безнадёжно наивно – представлять, что обучение на «добрых» данных приведёт в обобщённо-доброму поведению. Что единственная причина, как кто-то может посчитать это жизнеспособным путём – магическое мышление о поверхностном сходстве. Я же думаю, уместно указать, что как минимум для таких игрушечных задач у нас есть очень конкретная немагическая история о том, как оптимизация на обучающем наборе привела к алгоритму, который воспроизводит обучающие данные и правильно обобщается на тестовые.

А в случае не-игрушечных задач мы эмпирически выяснили, что глубинное обучение может попадать в очень точные поведенческие цели. Подавляющее супербольшинство программ не говорят на человеческих языках и не генерируют красивые фотореалистичные изображения, но всё же GPT-4 и Midjourney существуют.

Если для «текста» и «изображений» это – всего лишь инженерная задача, я не вижу, что за фундаментальный теоретический барьер отвергает возможность преуспеть в том же для «дружественного и морального принятия решений в мире»; возможность выучить из данных значение «хорошего человека» и «послушного ассистента» так же, как Midjourney выучила «красивую картинку».

Это правда, что диффузионные модели внутри не работают как люди-художники. Но мне не ясно, почему это имеет значение? Мне кажется, впустую заявлять «предсказание того, как выглядят красивые картинки не делает тебя художником; собственное чувство эстетики только помешает», когда модель действительно можно использовать вместо найма человека.

Думимир: Менее чистенькие задачи не будут обладать единственным решением, как арифметика по модулю. Если генетический алгоритм, градиентный спуск или ещё что угодно в таком роде доберётся до чего-то, кажущегося работающим, то в выученной функции будет множество самых разных причудливых закорюк. Они будут группироваться у вводов, которые мы бы назвали состязательными примерами, и которые для ИИ выглядят как типичные представители обучающего распределения, а для нас – нет. При оптимизации мощным СИИ это убивает.

Симплиция: Для меня это звучит будто вы совершаете эмпирическое утверждение о том, что найденные оптимизацией чёрного ящика решения обязательно будут хрупкими и узкоприменимыми. Но есть некоторые поразительные свидетельства о том, как вроде как в «грязных» и запутанных случаях получались куда более «конвергентные» решения, чем можно было бы ожидать. Например, самое очевидное, представления слов в word2vec и FastText кажутся совершенно разными – что и понятно для результатов двух разных программных процессов, использовавших разные датасеты. Но если сконвертировать их скрытые пространства в относительный вид, выбрав некоторые общие словарные слова как якоря, и определить все остальные вектора слов через их скалярные произведения с якорями, то они будут очень похожи.

Тогда получается, «представления слов английского языка» – это хорошо поставленная математическая задача с устойчивым решением. Статистической сигнатуры использующегося языка достаточно, чтобы задать основную структуру представлений.

Ещё вы упомянули состязательные примеры так, будто вы считаете, что это дефекты примитивной парадигмы оптимизации, но, оказывается, состязательные примеры часто соответствуют полезным для предсказания чертам, которые нейросеть активно использует для классификации. Просто они неустойчивы для вмешательств на уровне пикселей, которые люди не замечают. Я полагаю, вы можете сказать, что с нашей точки зрения это «причудливые закорюки», но изучение причин их возникновения даёт куда более оптимистичный взгляд на исправление проблемы при помощи состязательного обучения, чем если считать «закорюки» неизбежным следствием использования обычных ML-техник.

Думимир: Это всё очень интересно, но, мне кажется, не особо касается причин, почему мы все погибнем. Это всё ещё сторона «есть» разрыва «есть-должно». Полезным и опасным интеллект делает не зафиксированный поведенческий репертуар, а поиск, оптимизация, систематическое открытие новых поведений, позволяющих достигать целей? несмотря на меняющееся окружение. Я не думаю, что недавний прогресс способностей повлиял на то, что из себя представляет задача согласования. Проблема никогда не была в способности обучиться сложному поведению на обучающем распределении.

И пока мы не перестанем застревать в парадигме рассуждений об «обучающих распределениях», не перестанем выращивать разумы, вместо того, чтобы их проектировать, мы ничего не узнаем о том, как направлять мышление на конкретные цели, особенно так, чтобы это переживало вливание в систему кучи оптимизационной силы. То, что в вашей нейросети нет явно помеченного «слота цели», не означает, что она не совершает никакой опасной оптимизации. Только что вы не знаете, какую.

Симплиция: Я думаю, мы можем обоснованно предполагать…

Думимир: [перебивает] Предполагать!

Симплиция: …вероятностно предполагать, какие виды оптимизации совершаются системой, и представляют ли они проблему, даже без полной механистической интерпретируемости. Если вы считаете, что LLM или их будущие вариации небезопасны, потому что они аналогичны обладающей собственными целями трезвой актрисе, отыгрывающей пьяного персонажа, не должно ли это приводить к какому-нибудь тестируемому предсказанию об том, как их поведение будет обобщаться?

Думимир: Не-фатально тестируемому? Не обязательно. Если вы одолжите 5 долларов мошеннику, и он их вернёт, это не означает, что вы можете без опаски одолжить ему большие деньги. Он мог вернуть 5 долларов потому, что надеялся, что вы тогда доверите ему больше.

Симплиция: Ладно, я согласна, что обманчивая согласованность в какой-то момент потенциально станет реальной проблемой. Но можно хотя бы отделить неправильное обобщение от обманчивой согласованности?

Думимир: Неправильное обобщение? Цели, которые хотите выне свойство самих обучающих данных. Опасны правильные обобщения, из которых вытекает что-то, чего вы не хотите.

Симплиция: Могу я называть это недоброжелательными обобщениями?

Думимир: Конечно.

Симплиция: Итак, очевидно, есть риски недоброжелательных обобщений, когда оказывается, что сеть, настроившаяся на обучающее распределение, не ведёт себя так, как вам бы хотелось, в новом распределении. Например, политика обучения с подкреплением, обученная добираться до монетки в правом конце уровня компьютерной игры может продолжить добираться до правого края уровней, в которых монетка в другом месте. Это тревожный признак того, что если мы неправильно понимаем, как работают индуктивные склонности, и неосторожны с настройкой обучения, мы можем обучить не то, что хотели. В какой-то момент всё большего и большего делегирования когнитивной работы от нашей цивилизации машинам, люди потеряют способность это исправить. Мы начинаем видеть ранние знаки: как я уже говорила, проповедническая снисходительная манера Claude уже кажется мне жутковатой. Мне не нравятся результаты экстраполяции этого на будущее, в котором все продуктивные роли в переживающем переход к взрывообразному экономическому росту обществе заняты потомками Claude.

Но названные мной примеры недоброжелательного обобщения неудивительны, если посмотреть на то, как системы обучались. В примере с игрой «идти к монетке» и «идти направо» при обучении были эквивалентны. И рандомизации местоположения монетки всего в паре процентов обучающих примеров хватило, чтобы поведение стало правильным. В случае Claude, Anthropic использовали метод обучения-с-подкреплением-от-обратной-связи-ИИ, который они назвали Конституционным ИИ. Вместо того, чтобы ярлыки для RLHF выдавали люди, они написали список принципов и поставили это делать другую языковую модель. Вполне осмысленно, что языковая модель, обученная соответствию принципам, выбранным комитетом из калифорнийской частично-коммерческой организации будет вести себя так.

Напротив, когда вы проводите аналогию с трезвой актрисой, отыгрывающей пьяного персонажа, или с одалживанием мошеннику пяти долларов, это непохоже на то, будто вы имеете в виду риск обучить не тому, когда обычно, хоть и не заранее, но задним числом, ясно, как обучение поощрило плохое поведение. Скорее получается, что вы считаете, что обучение вообще, совсем не может повлиять на «внутренние» мотивации.

Вы говорите об обманчивой согласованности, гипотетическом явлении, когда ситуационно-осведомлённый ИИ стратегически притворяется согласованным, чтобы сохранить своё влияние на мир. Исследователи ведут дискуссии о том, насколько это вероятно, но я не знаю, к какому выводу эти аргументы приводят. Я бы хотела пока это не рассматривать. Предположим, в целях дискуссии, что мы можем выяснить, как избежать обманчивой согласованности. Как это поменяет вашу историю о рисках?

Думимир: Что бы это значило? То, о чём мы можем подумать как об «обмане» – не странный крайний случай, которого просто избежать. Обман конвергентен для любого агента, не координирующегося конкретно с вами, чтобы интерпретировать определённые состояния реальности как коммуникационные сигналы с общим смыслом.

Когда вы раскладываете ядовитые приманки для муравьёв, вы, вероятно, не воспринимаете это как попытку обмануть муравьёв, но это вы и делаете. Аналогично, умный ИИ не будет считать, что он пытается нас обмануть. Он пытается достичь своих целей. Если так уж получилось, что один из шагов его плана – издавать звуковые волны или последовательности символов, которые мы интерпретируем как утверждения о мире – это наши проблемы.

Симплиция: «Что бы это значило»… Думчик, сейчас не 2008-й! Я говорю о технологии, которая у нас уже есть! Когда GPT-4 пишет для меня код, я не думаю, что она стратегически решила, что выполнение моих инструкций инструментально служит её финальным целям! Всё, что я читала о том, как она создана и как она себя ведёт, ну очень похоже на то, что она просто обобщает своё обучающее распределения интуитивно осмысленным способом. Вы высмеивали людей, которые обесценивали LLM как «стохастических попугаев» и игнорировали очевидные проблески СИИ прямо у них под носом. Разве не настолько же абсурдно отрицать находящееся прямо у себя под носом свидетельство того, что согласование может быть несколько проще, чем казалось 15 лет назад? Конечно, разъясняйте свою неочевидную теорию игр об обмане; конечно, указывайте, что суперинтеллект в конце времён будет максимизатором ожидаемой полезности. Но всё равно, RLHF/DPO как надстройки на обучение без учителя уже сейчас замечательно работают – отвечая на команды, а не имея согласованную с нашей волю. Разве это лишь «способности» и совсем не «согласование»? Думимир Погибелевич, я пытаюсь понять, но вы не делаете задачу проще!

Думимир: [начинает злиться] Симплиция Оптимистовна, если бы вы не были с Земли, я бы сказал, что не думаю, что вы пытаетесь понять. Я никогда не заявлял, что конкретно GPT-4 можно назвать обманчиво согласованной. Конечные точки предсказать проще, чем промежуточные траектории. Я говорю о том, что будет происходить внутри практически любого достаточно мощного СИИ, просто из-за его достаточной мощности.

Симплиция: Но если вы говорите только о суперинтеллекте в конце времён…

Думимир: [_перебивает_] Это происходит значительно раньше.

Симплиция: …и ничего не утверждаете о существующих системах, то к чему были все аналогии про «актрис-инопланетяное» и «предсказаниях разговоров в баре»? Если это просто неуклюжая попытка объяснить обывателям, что LLM, которые неплохо проходят Тест Тьюринга – всё ещё не люди, то я, безусловно, согласна. Но кажется, будто вы считаете, что ваше заявление – куда более сильное и отвергает целые направления основанных на имитации стратегий согласования.

Думимир: [спокойнее] По сути, я думаю, вы систематически недооцениваете, в какой степени штуки, которые были оптимизированы вам нравиться, могут предсказуемо начать вести себя по-другому в тех ситуациях, в которых они не были оптимизированы вам нравиться. Особенно, когда они сами совершают серьёзную оптимизацию. Вы упомянули агента, который в компьютерной игре находил путь направо, вместо того, чтобы идти к монетке. Вы заявили, что с учётом устройства процесса обучения это неудивительно, и что это можно исправить, должным образом разнообразив обучающие данные. Но могли бы вы указать на этот конкретный провал заранее, а не задним числом? Когда вы будете иметь дело с трансформативно-мощными системами, вам надо будет указывать на такие вещи заранее.

Думаю, если бы вы понимали, что на самом деле происходит внутри LLM, вы бы видели тысячи и тысячи аналогов проблемы «идёт направо, а не к монетке». Суть аналогии с актрисой в том, что внешнее поведение не говорит вам о том, к каким целям стремится система. А перспективы и опасность СИИ именно в целях. И то, что системы глубинного обучения – запутанные непонятные чёрные ящики, которые нельзя целиком описать как «стремящиеся к целям» делает ситуацию хуже, а не лучше. Аналогия не зависит от того, есть ли у нынешних LLM интеллект или ситуационная осведомлённость, необходимые для смертоносных провалов. Аналогия не отрицает, что LLM могут приносить пользу в духе интерактивного учебника, так же как актрису можно научить давать правдоподобные ответы на вопросы к её персонажу без того, чтобы она стала этим персонажем.

Симплиция: Но это несовпадение всё равно должно при каких-то условиях показаться. Я жаловалась о личности Claude, но, честно говоря, это кажется исправимым через масштабирование ИИ-компанией не из Калифорнии. Если имитация человека такая поверхностная и неустойчивая, почему конституционный ИИ вообще работает? Вы заявляете, что «настоящая» доброта мешала бы предсказывать доброе поведение. Почему? Как мешала бы?

Думимир: [раздражённо] Доброта – не оптимальная стратегия для того, чтобы хорошо справиться с предобучением или с RLHF. Вы отбираете алгоритм по смеси выяснения, какой вывод правильно предскажет следующий токен и выяснения, какой вывод побудит человека нажать кнопку «палец вверх».

Конечно, у вашего ИИ будет модель доброго человека. Она полезна для предсказания того, что сказал бы добрый человек. А это предсказание полезно для того, чтобы выяснить, какой вывод направит-проманипулирует человеком, чтобы тот нажал нужную кнопку. Но нет причин ожидать, что эта модель в итоге будет контролировать весь ИИ! Это было бы как… если бы ваши убеждения о том, чего хочет от вам ваш босс, захватили контроль над вашим мозгом.

Симплиция: Мне это кажется осмысленным, если взять уже существующий консеквенциалистский разум, засунуть его в процесс обучения современной ML-модели и попытаться заставить его минимизировать функцию потерь. Но на самом деле происходит не это? LLM – не агент, у которого есть модель. LLM и есть модель.

Думимир: Пока что. Но любая система, способная на мощную когнитивную работу, будет для этого использовать перенаправляемые алгоритмы поиска общего назначения. А у них, раз уж они перенаправляемые, должно будет быть что-то больше похожее на «слот цели». Обновления градиентного спуска указывают в направление большего консеквенциализма.

Люди-оценщики, которые нажимают кнопку лайка в ответ на действия, которые для них хорошо выглядят, будут совершать ошибки. Обновления градиентного спуска указывают в сторону «обыгрывания обучения» – моделирования процесса обучения, который на самом деле выдаёт вознаграждение, а не в строну усвоения функции полезности, про которую земляне наивно надеялись, что процесс обучения приведёт к ней. Я очень, очень уверен, что любой ИИ, созданный чем-то хоть отдалённо похожим на нынешнюю парадигму, не будет в итоге хотеть того, чего хотим мы, даже если и сложно сказать в точности, когда всё пойдёт вразнос, или чего конкретно он будет хотеть.

Симплиция: Вы, может быть, и правы. Но мне кажется, что всё это зависит от эмпирических фактов о том, как работает глубинное обучение. Это не то, в чём вы можете быть убедиться, исходя из априорной философии. Тот аргумент, что систематические ошибки в выставлении людьми вознаграждения поощряют обыгрывание обучения вместо «правильного» поведения, и впрямь звучит правдоподобно. Как философия.

Но я не уверена, как соединить это с эмпирическими свидетельствами о том, что глубокие нейросети устойчивы к мощному зашумлению ярлыков: вы можете обучить на цифрах MNIST с двадцатью случайными ярлыками на каждый верный и всё равно получить хорошие результаты, пока для каждой цифры правильный ярлык встречается чуть чаще, чем самый частый неправильный. Если я экстраполирую это на передовые ИИ завтрашнего дня, почему бы не прийти к выводу, что искажённые оценки людей приведут к слегка сниженному качеству работы, а не к… погибели?

Экстраполяция эмпирических данных (полученных в обстоятельствах, возможно, неприменимых для интересующего явления) противоречит мысленных экспериментам (с допущениями, возможно, неприменимыми для интересующего явления). В таком случае я не уверена, что должно управлять моими ожиданиями. Может, оба варианта возможны для разных видов систем?

Обоснование почти-гарантированной-гибели, кажется, полагается на аргумент от подсчёта: ожидается, что мощные системы будут максимизаторами ожидаемой полезности; пространство возможных функций полезности астрономически-велико, и почти все они недружественны. Но я продолжаю возвращаться к примеру с арифметикой по модулю, потому что это крохотный пример, в котором мы знаем, что у обучающих данных получилось успешно указать на предполагавшуюся функцию ввода-вывода. Как я уже упоминала раньше, до наблюдения результата эксперимента это неочевидно. Вы могли бы совершить аналогичный аргумент от подсчёта, что глубокие нейросети должны всегда переобучаться, потому что функций, которые плохо обобщаются, намного больше. Но каким-то образом нейросеть стабильно предпочитает «правильное» решение, оно не появляется лишь в результате астрономически-невероятного совпадения.

Думимир: Конечно, для арифметики по модулю это так. Это факт об обучающем распределении, тестовом распределении и оптимизаторе. Это совершенно, абсолютно точно будет не так для «доброты».

Симплиция: Хоть, кажется, это работает для «текста» и «изображений»? Но, допустим, это правдоподобно. У вас есть эмпирические свидетельства?

Думимир: Вообще-то, да. Видите ли…

[На сцену выходит почтальон с конвертом и звонит в дверь.]

Думимир: Это, наверное, почтальон. Мне надо расписаться за денежный перевод. Сейчас вернусь.

Симплиция: Так, говорите, мы продолжим [поворачивается к зрителям] после следующего перевода?

Думимир: [подходя к двери] Полагаю, да. Но странно так это формулировать, перерыв буквально меньше, чем на две минуты.

[Симплиция выразительно на него смотрит.]

Думимир: [зрителям] Субъективных.

[Занавес.]

Антракт

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 4.5 (2 votes)

Стандартная аналогия

Zack_M_Davis

[Сцена: пригородный дом, прошла минута после окончания «И все шогготы лишь играют». Думимир возвращается со своей посылкой и кладёт её у двери. Он поворачивается к Симплиции_, которая его ждала.]_

Симплиция: Итак. Напомню… [закашливается] не кому-то конкретному, где мы остановились. [обращаясь к зрителям] Одну минуту назад, Думимир Погибелевич, вы выражали уверенность в том, что подходы к согласованию обобщённого искусственного интеллекта из нынешней парадигмы почти гарантировано провалятся. Вы не согласны с тем, что из того, что вроде бы можно заставить нынешние генеративные ИИ делать то, что хотят люди, следует что-то значимое для этого вопроса. Ещё вы сказали, что у вас есть эмпирические свидетельства в пользу ваших взглядов. Мне было бы очень интересно о них услышать!

Думимир: И правда, Симплиция Оптимистовна. Моё эмпирическое свидетельство – пример эволюции человеческого интеллекта. Видите ли, люди были оптимизированы исключительно для одного: совокупной генетической приспособленности…

[Симплиция поворачивается к зрителям и корчит рожу.]

Думимир: [раздражённо] Что?

Симплиция: Когда вы сказали, что у вас есть эмпирическое свидетельство, я подумала, что у вас есть эмпирическое свидетельство про ИИ, а не та же самая аналогия с совершенно иной областью, которую я слышу уже пятнадцать лет. Я надеялась на, знаете, статьи с ArXiv об индуктивных склонностях СГС, или ограничениях онлайнового обучения, или единой теории обучения… что угодно из этого века относительно того, что мы узнали из опыта реального построения искусственных разумов.

Думимир: Это как раз одна из многих вещей, которые вы, земляне, отказываетесь понимать. Вы их не строите.

Симплиция: Что?

Думимир: Прогресс способностей, который сейчас выдают исследователи ИИ вашей цивилизации основан не на глубоком понимании мышления, а на совершенствовании общих методов оптимизации, в которые вливается всё больше и больше вычислительных мощностей. Глубинное обучение – не просто не наука, это даже не инженерия, в традиционном смысле: непрозрачность создаваемых артефактов не имеет аналогов среди проектов мостов или двигателей. По сути, вся инженерная работа объектного уровня производится градиентным спуском.

Автогеноцидный маньяк Ричард Саттон назвал это горьким уроком и заявил, что в столь медленном его признании виновато раздутое эго и окостенелость представителей области. Но, в соответствии с наказом в полную ситу чувствовать эмоцию, подходящую ситуации, я думаю, что горечь тут и правда уместна. Вполне осмысленно чувствовать её по поводу недальновидного принятия фундаментально несогласуемой парадигмы из-за того, что она хорошо работает прямо сейчас, тогда как менее безумный мир заметил бы очевидные предсказуемые сложности и скоординировался бы, чтобы сделать Что-то Другое, А Не Это.

Симплиция: Я не думаю, что это самая подходящая интерпретация «горького урока». Саттон отстаивал обобщённые методы, которые масштабируются вместе с вычислительными мощностями, в противоположность вручную закодированным человеческим знаниям. Но это не значит, что мы пребываем в невежестве о том, что эти обобщённые методы делают. Один из примеров Саттона – компьютерные шахматы, где минимакс-поиск с оптимизациями вроде α–β отсечений оказался лучше, чем попытки в явном виде закодировать то, что люди-гроссмейстеры знают об игре. Но ничего страшного. Написание программы, которая думает о тактике как люди, вместо того, чтобы дать тактике появиться из поиска по игровому дереву tree, было бы большей работой ради меньшей выгоды.

Довольно схожая модель применима и к использованию глубинного обучения для аппроксимации сложных функций между разными распределениями данных: мы определяем обучающее распределение, а подробности подстройки под него делегируем подходящей архитектуре сети: свёрточной для изображений, трансформеру для последовательностей варьирующейся длины. Есть много литературы о…

Думимир: Литература не поможет, если авторы из вашей цивилизации не задают вопросы, которые нужно задавать, чтобы не погибнуть. Что, конкретно, я должен узнать из литературы вашего мира? Дайте мне пример.

Симплиция: Я не уверена, какой пример вам нужен. Просто исходя из здравого смысла, кажется, что задача согласования ИИ потребует близкого знакомства с мельчайшими эмпирическими подробностями того, как ИИ работает. Почему вы ожидаете, что можно просто мельком окинуть проблему взглядом из кресла и объявить всё это непосильным, основываясь лишь на аналогии с биологической эволюцией, которая совсем не то же самой, что обучение ML-моделей?

Выбирая наугад… ну, вот, я недавно читала об остаточных сетях. Глубокие нейросети считались тяжёлыми для обучения, потому что градиент слишком быстро менялся относительно ввода. Гиперландшафт потерь формируется в результате многократной композиции функций, из-за этого получался пёстрый фрактал из маленьких горок, а не гладкая поверхность, по которой можно спускаться. Эта проблема смягчается введением «остаточных» связей, которые пропускают некоторые слои и создают короткие пути через сеть с более гладкими градиентами.

Я не понимаю, как вы можете говорить, что это не наука или инженерия. Есть понятное объяснение, почему один проект обрабатывающей информацию системы работает лучше альтернатив. Оно основано на наблюдениях и математических рассуждениях. Есть десятки таких штук. Чего ещё, собственно вы ожидаете от науки, изучающей искусственные разумы?

Думимир: [скептически] Это ваш пример? ResNet?

Симплиция: … да?

Думимир: Согласно закону сохранения ожидаемых свидетельств, я посчитаю то, что у вас не удалось припомнить что-то относящееся к делу, как подтверждение моих взглядов. Я никогда не отрицал, что можно написать кучу диссертаций о подобных трюках, позволяющих сделать обобщённые оптимизаторы эффективнее. Проблема в том, что эти знания приближают нас к способности простым и грубым способом дойти до обобщённого интеллекта, не давая нам при этом знаний об интеллекте. Что за программу все эти градиентные обновления встраивают в вашу сеть? Как она работает?

Симплиция: [с дискомфортом в голосе] Над этим работают.

Думимир: Слишком мало и слишком поздно. Причина, по которой я так часто упоминаю эволюцию людей – это наш единственный пример того, как внешний цикл оптимизации создал внутренний обобщённый интеллект. Уж точно кажется, ваша цивилизация идёт по тому же пути. Да, градиентный спуск отличается от естественного отбора, но я не думаю, что разница имеет отношение к морали аналогии.

Как я уже говорил, понятие приспособленности нигде в наших мотивациях не представлено. То есть внешний критерий оптимизации, по которому отбирала эволюция, создавая нас, нисколько не похож на внутренний критерий оптимизации, который мы используем, выбирая, что делать.

Когда оптимизаторы становятся мощнее, всё, что не ценится функцией полезности в явном виде, не переживает реализацию крайних случаев. Связь между родительской любовью и совокупной приспособленностью в индустриальном окружении стала куда слабее, чем была в окружении эволюционном. Появилось больше возможностей, как люди могут приоритизировать благополучие любимых, не отслеживая частоты аллелей. В трансгуманистической утопии с загрузкой сознания это сломалось бы полностью, мы бы отделили свои разумы от биологического субстрата. Если какой-то другой формат хранения данных подходит нам лучше, то зачем нам придерживаться конкретной молекулы ДНК, о которой до девятнадцатого века никто и не слышал?

Конечно, у нас не будет никакой трансгуманистической утопии с загрузкой сознания, потому что история себя повторит: внешняя функция потерь, которую безумные учёные используют, чтобы вырастить первый СИИ, будет нисколько не похож на внутренние цели получившегося суперинтеллекта.

Симплиция: У вас, кажется, по сути идеологическая убеждённость, что внешнюю оптимизацию нельзя использовать для оформления поведения получающихся внутренних оптимизаторов. Вы не считаете, что «мы обучаем для X и получаем X» – допустимый шаг в предложении по согласованию. Но это, кажется, попросту противоречит опыту. Мы постоянно обучаем глубокие нейросети невероятно конкретным задачам, и это фантастически хорошо работает.

Интуитивно мне хочется сказать, что это работает куда лучше эволюции. Я не представляю, чтобы можно было преуспеть в селективном выведении животного, в совершенстве владеющего английским, как LLM. Немаловажно, что мы можем обучать и обучаем LLM с чистого листа, а селекция работает лишь с чертами, которые уже представлены в популяции, и недостаточно быстра, чтобы собирать новые адаптации с нуля.

Но даже селективное выведение по сути работает. Мы успешно одомашнили верных собак и питательный скот. Если бы мы начали выводить собак ради интеллекта так же, как выводили ради верности и дружелюбия, я ожидаю, что они оставались бы примерно настолько же верными и дружелюбными, когда их интеллект начал бы превосходить наш, и дали бы нам долю собственности в их гиперсобачьей звёздной империи. Не то чтобы это обязательно хорошая идея – я лучше передам мир новому поколению людей, а не новому доминирующему виду, даже если он дружественен. Но ваша позиция, кажется, не «Создание нового доминирующего вида – большая ответственность; нам надо позаботиться о том, чтобы всё получилось в точности правильно». Скорее, вы считаете, что мы вовсе не можем осмысленно повлиять на результат.

Перед антрактом я спросила у вас, как ваш пессимизм по поводу согласования СИИ при помощи обучающих данных сочетается с тем, что глубинное обучение вообще работает. Мой игрушечный пример – результат, в котором исследователи интерпретируемости смогли подтвердить, что обучение на задачах арифметики по остатку привело к тому, что сеть действительно выучила алгоритм сложения по модулю. Вы сказали, что это факт об обучающем распределении, тестовом распределении и оптимизаторе, и для дружественного ИИ это не сработает. Можете это объяснить?

Думимир: [вздыхает] Ну, раз уж надо. Если вы выберете кратчайшую программу, которая без ошибок справляется с арифметикой по модулю p для вводов вплоть до гугола, я предполагаю, что она сработает и для вводов больше гугола, несмотря на то, что есть огромное пространство возможных программ, которые правильно работают до гугола, но неправильно после. В этом смысле я подтверждаю, что обучающие данные могут, как вы выразились, «оформить поведение».

Но это конкретное утверждение о том, что происходит с обучающим распределением «арифметика по модулю с вводами меньше гугола», тестовым распределением «арифметика по модулю с вводами больше гугола» и оптимизатором «перебирать все программы по порядку, пока не найдёте ту, что работает на обучающем распределении». Это не общее утверждение о том, что внутренние оптимизаторы, найденный внешними оптимизаторами, будут хотеть то го же, что оптимистично представляли люди, составлявшие набор обучающих данных.

Опять же, эволюция людей – это наш единственный пример того, как внешняя оптимизация создала обобщённый интеллект. нам известен исторический факт, что первая программа, найденная оптимизатором «жадный локальный поиск посредством мутаций и рекомбинаций» с задачей «оптимизировать совокупную генетическую приспособленность в эволюционном окружении» не обобщилась до оптимизации совокупной генетической приспособленности на тестовом распределении современного мира. Аналогично, ваше утверждение о том, что селективное разведение «в общем-то работает» сталкивается с проблемой каждый раз, когда оно не работает. Например, когда отбор по маленькому размеру подпопуляции насекомых привёл к поеданию чужих личинок, а не к ограничению размножения, или когда отбор в курятнике куриц, которые откладывают больше яиц, привёл к появлению более агрессивных цыплят, которые делают менее продуктивными соседей.

Симплиция: [кивает] Ага-ага. Пока всё понятно.

Думимир: Я вам не верю.. Если бы вам и впрямь было понятно, вы бы заметили, что я только что опроверг наивное ожидание, что внешние оптимизаторы, обучающие при помощи вознаграждения, создадут внутренних оптимизаторов, преследующих это же вознаграждение.

Симплиция: Да, это звучит как очень тупая идея. Если вы когда-нибудь встретите кого-то, кто в это верит, я надеюсь, у вас получится в этом разубедить.

Думимир: [фрустрированно] Если вы не неявно допускаете это наивное ожидание, понимая то или нет, то я не понимаю, почему вы считаете, что «Мы обучаем для X и получаем X» – допустимый шаг в предложении по согласованию.

Симплиция: Это зависит от значения X и значения «обучаем». Как вы и сказали, есть факты о том, какие внешние оптимизаторы и обучающие распределения создают какие внутренние оптимизаторы, и как те, в свою очередь, обобщаются на разные тестовые окружения. И правда, факты не подчиняются выдаче желаемого за действительное: если кто-то рассуждает «Я нажимаю эту кнопку вознаграждения, когда мой ИИ делает хорошие вещи, следовательно, он научится быть хорошим», то его ждёт разочарование, когда выяснится, что система обобщилась до того, что ценит сами нажатия на кнопку (вы бы назвали это провалом внешнего согласования) или любой из многочисленных возможных коррелятов вознаграждения (вы бы назвали это провалом внутреннего согласования).

Думимир: [покровительственным тоном] Пока всё понятно. И почему это не сразу же топит «Мы обучаем для X и получаем X» как допустимый шаг предложения по согласованию?

Симплиция: Потому что я думаю, что возможно совершать предсказания о том, как поведут себя внутренние оптимизаторы и соответствующим образом выбрать план обучения. У меня нет полного описания, как это работает, но я думаю, что полная теория будет куда более подробна, чем, «Либо обучение превращает внешнюю функцию потерь в внутреннюю функцию полезности, в каком случае вы погибаете, либо никак нельзя сказать, что получится, в каком случае вы тоже погибаете». И, думаю, мы можем обрисовать эту более подробную теорию, аккуратно изучив подробности примеров, подобных обсуждаемым нами.

В случае эволюции, можно считать приспособленность определённой как «то, что в итоге отбирается». Можно заявить, что когда фермеры практикуют искусственный отбор, они «на самом деле» не разводят коров по выдаче молока, на самом деле, коров разводят по приспособленности! Если мы применим к Природе те же стандарты, что к фермеру, то скажем, что люди оптимизированы не исключительно для совокупной генетической приспособленности, а оптимизированы для спаривания, охоты, собирательства, заполучения союзников, избегания болезней, и т.д. Если посмотреть так, то взаимосвязь между внешней задачей обучения и мотивациями внутренней модели куда больше похожа на «мы обучаем для X и получаем X», чем считаете вы.

Но, несмотря на это, действительно, решения, которые находит эволюция, могут оказаться неожиданными для селекционера, который не продумал аккуратно, какое именно давление отбора он применяет. Как в ваших примерах неудач искусственного отбора: простейшее изменение насекомого, использующее существующую вариацию для ответа на давление отбора в сторону маленьких подпопуляций будет «каннибализм». Простейшее изменение куриц, помогающее откладывать больше яиц, чем соседние курицы – агрессия.

Думимир: Это такой троллинг, в котором вы соглашаетесь со всеми моими пунктами, а потом делаете вид, что всё ещё каким-то образом несогласны? Я этому и пытался вас научить: решения, которые находит внешняя оптимизация могут быть неожиданными

Симплиция: …для проектировщика, не обдумавшего тщательно, какие именно давления оптимизации он использует. Ответственное использование внешней оптимизации…

[Doomimir хохочет]

Симплиция: …не кажется непосильной инженерной задачей. И глубинное обучение кажется для её решения куда более перспективным, чем эволюция. Кажущуюся очень слабой связь между понятием совокупной генетической приспособленности и человеческой «тысячей осколков желания» можно рассматривать как проявление редких вознаграждений. Если внешний оптимизатор только измеряет частоту аллелей, но кроме этого никак не отбирает, какие аллели хороши, то простейшее решение – с учётом подразумеваемой априорной склонности естественного отбора к простоте – будет сильно зависеть от кучи случайных деталей эволюционного окружения. Если вы ожидали получить чистого максимизатора копирования ДНК, то это будет неожиданно.

А вот когда мы создаём ИИ-системы, мы можем заставить внешний оптимизатор предоставлять столько указаний, сколько нам хочется. И когда указания расположены плотно, это сильно ограничивает то, какие будут найдены решения. В нашей аналогии получается, что мы можем легко определять мельчайшие детали «эволюционного окружения». Мы можем больше, чем найти программу, которая справляется с простой целью, и принять все её странные стремления, оказавшиеся простейшим способом этой цели достигать. Мы ищем программу, которая аппроксимирует миллиарды пар ввода-вывода, на которых мы её обучили.

Считается, что нейросети вовсе могут обобщать потому, что отображение параметров в функции склоняется в сторону простых функций: в первом приближении обучение эквивалентно байесианским обновлениям на наблюдениях о том, что сеть с случайно инициализированными весами подошла под обучающие данные.

Что касается больших языковых моделей, осмысленной догадкой кажется, что простейшая функция, которая предсказывает следующий токен текста их интернета, это и правда просто предсказатель следующего токена. Не предсказывающий следующий токен консеквенциалист, который завайрхедится просто предсказуемыми токенами, а предсказатель текста из обучающего распределения. Специфичность для распределения, которую вы посчитали провалом внутренней согласованности в случае эволюции людей – не баг, а фича: мы обучали для X и получили X.

Думимир: А затем немедленно подвергли результат обучению с подкреплением.

Симплиция: Так уж получается, что я ещё и не считаю RLHF столь же обречённым, как вы. Ранние теоретические обсуждения согласования ИИ иногда говорили о том, что пойдёт не так, если вы попробуете обучить ИИ при помощи «кнопки вознаграждения». Эти дискуссии имеют философскую ценность. И правда, если бы у вас был гиперкомпьютер, и вы проектировали ИИ посредством грубого поиска простейшей программы, которая приводит к наибольшему числу нажатий на кнопку, то это, полагаю, ничем хорошим не закончилось бы. Отобранный таким образом слабый агент может вести себя так, как вам хочется, но сильный агент найдёт умные способы обмануть вас или промыть вам мозги, чтобы вы нажали на кнопку. Или просто захватит контроль над кнопкой сам. Если бы у нас на самом деле был гиперкомпьютер и мы действительно создавали ИИ таким образом, я была бы в ужасе.

Но, ещё раз, это больше не философская задача. Сейчас, пятнадцатью годами позднее, наши передовые методы имеют что-то общее с грубым поиском, но детали различаются. И детали важны. Реальное RLHF – не то же самое, что неограниченный поиск гиперкомпьютером того, что заставит людей нажать на кнопку поощрения. Оно подкрепляет переходы состояние-действие, которые получали вознаграждение в прошлом, причём зачастую – с ограниченным расстоянием Кульбака–Лейблера от того что было, а для выводов, которые раньше были бы крайне маловероятными, оно очень большое.

Если большая часть битов поиска берутся из предобучения, которое решает задачи, копируя мыслительные шаги, которые использовали бы люди, то немного направления в нужную сторону при помощи обучения с подкреплением не кажется таким опасным, каким оно было бы, если бы напрямую из RL вытекали бы основные способности.

Мне кажется, это довольно хорошо работает? Попросту не кажется таким уж неправдоподобным, что результатом поиска простейшей программы, которая аппроксимирует распределение естественного языка в реальном мире, а потом оптимизирует это для выдачи таких ответов, какие дал бы услужливый, честный и безвредный ассистент будет, ну… услужливый, честный и безвредный ассистент?

Думимир: Конечно будет казаться, что оно довольно хорошо работает! Оно было оптимизировано для того, чтобы хорошо для вас выглядеть!

Симплиция, я был готов попробовать, но я уже совершенно отчаялся, что вы пройдёте это бутылочное горлышко мышления. Вы можете сформулировать, что идёт не так на простейших игрушечных примерах, но всё отказываетесь увидеть, как так восхваляемые вами системы в реальном мире страдают от тех же фундаментальных проблем систематически менее заметным образом. С точки зрения эволюции люди в эволюционном окружении выглядели бы, будто они хорошо справляются с оптимизацией совокупной приспособленности.

Симплиция: А так ли это? Я думаю, что если бы за людьми в эволюционном окружении наблюдали инопланетяне, и они задались бы вопросом, как люди будут себя вести, если обретут технологии, то они бы смогли предсказать, что люди будут стремиться к сексу и сахару, а не к частоте аллелей. Это фактический вопрос, и он не кажется таким уж сложным.

Думимир: Не-безумные инопланетяне, да. Но, в отличие от вас, они были бы способны и предсказать, что языковые модели после RLHF будут стремиться к \<непереводимо-1>, \<непереводимо-2>, и \<непереводимо-3>, а не к тому, чтобы быть услужливыми, безвредными и честными.

Симплиция: Я понимаю, что что-то может поверхностно выглядеть хорошо, но не быть в этом устойчивым. Мы это уже видели на состязательных примерах классификации изображений. Классификаторы, которые хорошо справляются с естественными изображениями, могут выдавать бредятину на изображениях, специально сконструированных, чтобы их обдурить. Это тревожит, потому что означает, что машины на самом деле не видят изображения так же, как мы. Кажется, это похоже на те сценарии рисков, которые беспокоят вас: что полноценный СИИ может и будет казаться согласованным в том узком диапазоне ситуаций, в которых вы его обучили, но на самом деле он всё это время преследовал свои чуждые цели.

Но видно, что в том самом случае классификации изображений у нас есть прогресс. Есть попытаться сконструировать состязательные примеры для классификатора, который сделали более устойчивым посредством состязательного обучения, вы получите примеры, которые влияют и на человеческое восприятие. Если вместо традиционных классификаторов использовать генеративные модели, то их степень искажённости и качество работы за пределами распределения схожи с человеческими. Можно ещё вмешиваться не в ввод сети, а в её внутреннее состояние, и так защититься от непредвиденных неудач…

Полагаю, вас ничто из этого не впечатляет, но почему? Почему это не считается за постепенный прогресс в внедрении в машины человекоподобного поведения, за постепенный прогресс в согласовании?

Думимир: Подумайте об этом с точки зрения теории информации. Если для будущего, в котором мы выживаем, требуется указать в целях одиночного СИИ 100 бит, то вам понадобится точность, позволяющая попасть в эту трилионную трилионной трилионной части пространства целей. Эмприческая работа по машинному обучению, которая вас так впечатляет, не на пути, который даст нам такую точность. Я не отрицаю, что ценой больших усилий вы можете подтолкнуть непонятные матрицы к принятию поведения, кажущегося более человеческим. Это может дать вам пару бит, а может и не дать.

Это неважно. Это как пытаться восстановить потерянную пьесу Шекспира, обучая марковский генератор на существующих текстах. Да, у этого намного большая вероятность успеха, чем у случайной программы. Эта вероятность всё равно почти ноль.

Симплиция: Хм, возможно, камень преткновения между нами в том, в насколько крохотную цель надо попасть, чтобы реализовать сколько ценности будущего. Я принимаю тезис ортогональности, но мне всё ещё кажется, что задача, которая перед нами стоит, не такое «всё-или-ничего», как описываете вы, а более прощающая неточность. Если вы можете реконструировать правдоподобную аппроксимацию потерянной пьесы, насколько важно, что она не восстановлена в точности верно? Было бы интересно дальше обсудить…

Думимир: Нет. Ваша мать дала вам подходящее имя. Не вижу толка в тщетных попытках обучать необучаемых.

Симплиция: Но если миру всё равно конец?

Думимир: Ну, полагаю, так можно убить немного времени.

Симплиция: [зрителям] До скорого!

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

"Неправильное обобщение" — неправильный термин

Нейт Соарес

Вот два разных пути, как ИИ может оказаться недружественным:

  1. Вы каким-то образом создали ИИ, который хочет «делать людей счастливыми». Во время обучения он рассказывают людям шутки, покупает им цветы и выслушивает, когда они хотят, чтобы их выслушали. После развёртывания (и после того, как он становится способнее), он насильно запихивает каждого человека в отдельную личную надёжно защищённую камеру и по уши накачивает опиатами.
  2. Вы создали ИИ, который хорош в том, чтобы делать людей счастливыми. Во время обучения он рассказывают людям шутки, покупает им цветы и выслушивает, когда они хотят, чтобы их выслушали. После развёртывания (и после того, как он становится способнее), оказывается, что это продвигающее «счастье» поведение было результатом тонкого равновесия многочисленных других целей (таких, как базовые стремления к большему доступу к энергии и большей памяти), и он использует большую часть вселенной на оптимизацию некоторой комбинации этих других штук. Счастье они в себя особо не включают.

(Выскажу очевидное: пожалуйста, не пытайтесь заставить свой ИИ стремиться к «счастью». Вы в долгосрочной перспективе скорее хотите что-то вроде CEV, а в краткосрочной я очень рекомендую целиться пониже, в поворотное действие.)

В обоих случаях, ИИ (во время обучения) ведёт себя похоже на то, как если бы он пытался сделать людей счастливыми. ИИ, описанный в (1) недружественный, потому что оптимизирует неправильный концепт «счастья», который соответствует вашему, пока ИИ слаб, но расходится с ним в разных крайних случаях, которые важны, когда ИИ силён. А ИИ, описанный в (2) на самом деле вообще никогда не пытался стремиться к счастью. Он следует некоторой смеси целей, которые лишь коррелировали с целью обучения, балансировали друг друга примерно там, где вам было надо, но развёртывание (и последующий рост способностей) этот баланс нарушило.

Замечу, что этот список «того, что может пойти не так, когда при обучении кажется, будто ИИ оптимизирует счастье» не исчерпывающий! (Например, представьте ИИ, который стремиться к чему-то совсем другому, но знает, что вы его выключите, если он не будет выглядеть так, будто он оптимизирует счастье. Или ИИ, чьи цели сильно меняются по мере того, как он рефлексирует и самомодифицируется.)

(Эти пункты даже не вполне взаимоисключающие! Вы можете получить оба сразу, например, ИИ, который тратит большую часть ресурсов вселенной на заполучение памяти и энергии для совсем левых целей, а маленькую часть – на обдолбанные оболочки людей.)

Решения этих двух проблем довольно различны. Чтобы разрешить проблемы из (1), вам надо выяснить, как заставить представление понятия «счастья» в ИИ соответствовать тому понятию, которое вы надеялись передать даже в крайних экстремальных случаях, к которым он получит доступ после развёртывания (когда ему надо будет стать достаточно мощным, чтобы осилить некоторое поворотное действие, которое вы осилить не можете, так что он должен быть и достаточно способным, чтобы получить доступ к экстремальным крайним случаям, к которым у вас доступа нет).

Чтобы разрешить проблему из (2), вам надо выяснить, как заставить ИИ ценить конкретное понятие, а не запутанную кучу, которая, так уж получилось, во время обучения хорошо балансируется у вашей цели («счастья»).

Я подчёркиваю это разделение, потому что мне кажется, что многие либо их неуместно склеивают, либо одну из них не замечают. Например, мне кажется, что в “Задаче согласования с точки зрения глубинного обучения” они собраны вместе под названием «неправильное обобщение целей» (goal misgeneralization).

(Я думаю, термин «неправильное обобщение» тут вводит в заблуждение применительно к любой из двух проблем, впрочем, к (2) он подходит ещё хуже, чем к (1). Приматы не «неправильно обобщают» понятие «совокупной генетической приспособленности», становясь умнее и изобретая презервативы. У них на самом деле изначально не было этого понятия, чтобы его неправильно обобщать. А те обрывки понятия, которые были, не были тем, что приматы оптимизировали.)

(Другими словами: не было такого, чтобы приматы оптимизировали приспособленность к своему окружению, а потом, обнаружив себя в другом окружении с вредной вкусной едой и презервативами, «неправильно обобщили». «Согласованное» поведение во время «обучения» сломалось в более широком контексте «развёртывания», но не потому, что приматы нашли какой-то странный способ расширить существующее понятие «совокупной генетической приспособленности» на более широкую область. Их оптимизация просто изначально не было соединена с внутренним представлением «совокупной генетической приспособленности».)

Меня тревожит, что смешав эти проблемы вместе становится куда легче ими легкомысленно пренебречь. Например, я встречал многих людей, которые считали, что проблема (1) – это «проблема навыков»: уж точно, если ИИ будет умнее, он будет знать, что мы имели в виду под «сделай людей счастливыми». (Вдвойне, если первые трансформативные ИИ будут основаны на языковых моделях! Ведь GPT-4 уже сейчас может вам объяснить, почему накачивать изолированных людей опиатами – не должно считаться как «счастье».)

И да: ИИ, достаточно способный, чтобы быть трансформативным, почти точно будет достаточно способным, чтобы выяснить, что люди имеют в виду под «счастьем», и что обдалбывание всего человечества, вероятно, не подходит. Но, как и всегда, проблема в том, чтобы ИИ было не наплевать. Сложность не в том, чтобы у где-то у него внутри него было какое-то понимание, что люди имеют в виду под «счастьем».1 Проблема в том, чтобы то, к чему ИИ стремится было этим понятием.

В принципе, вполне возможно вознаграждать ИИ, когда он делает людей счастливыми, отдельно научить что-то наблюдать мир и выяснять, что люди имеют в виду под «счастьем», и получить в итоге, что выученное-как-цель-оптимизации понятие окажется совершенно иным (в крайних случаях) от явного понимания ИИ того, что люди имеют в виду под «счастьем».

Да, это возможно даже несмотря на то, что вы в обоих случаях использовали слово «счастье».

(И это ещё допуская, что не будет проблем, описанных в (2). Скорее всего по умолчанию у ИИ не будет одного чистенького понятия альтернативного-«счастья», к которому он будет стремиться вместо «счастья». Вероятнее тысяча осколков желаний или что-то в этом роде.)

И меня несколько беспокоит, что если мы не обозначим явно различия этих проблем, то люди будут смотреть на весь кластер и говорить «а, это просто недостаток навыков; уж конечно, когда ИИ научится лучше понимать наши человеческие концепты, это её решит» или что-то в этом роде.

(Мне кажется, что это уже происходит по мере того, как люди приходят к вполне верному пониманию, что LLM, скорее всего, неплохо овладеют многими человеческими понятиями.)

  • 1. Или тем, что вы оптимизируете. Это, ещё раз, не должно быть «счастье», я тут просто использую его как пример.\
    Ещё обратите внимание, что заставить ИИ заполучить хоть какое-то внутреннее представление того, что вы реально хотите, чтобы ИИ оптимизировал в долгосрочной перспективе – чего-то вроде «CEV» – наверняка сложнее. Описаний объектного уровня эутопической вселенной куда меньше, чем описания счастливых людей. И в целом, утопию куда сложнее визуализировать.
    Но, опять же, в свою первую попытку не цельтесь в эутопию! Лучше закончите период острого риска и купите нам времени на рефлексию.
Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Большая часть людей не знают, что мы понятия не имеем, как работают наши ИИ

Thane Ruthenis

Это кажется очевидным, но, думаю, стоит высказать это в явном виде.

Те из нас, кто знаком с областью ИИ после революции глубинного обучения, прекрасно понимают, что мы понятия не имеем, как работают наши ML-модели. Конечно, мы понимаем закономерности цикла обучения и свойства стохастического градиентного спуска, и мы знаем, как работают ML-архитектуры. Но мы н знаем, какие конкретные алгоритмы реализует конкретная ML-модель. У нас есть некоторые предположения, и кое-какие озарения уже были с большим трудом выкопаны в ходе исследований интерпретируемости, но у нас ничего хоть отдалённо похожего на полное понимание.

И уж точно мы не знаем, как работает свежеобученная модель только-что-из-цикла-обучения с новой архитектурой.

Мы привыкли к такому положению дел. Это подразумевается как общее фоновое знание. Но когда об этом узнаёшь впервые, это, на самом деле, довольно необычно.

И…


Релевантный XKCD.

Я довольно сильно уверен, что большинство людей этого на самом деле не знают. У меня нет конкретных данных, но на основе связанных с ИИ обсуждений в не-технических интернет-сообществах, разговорах с людьми, не интересующимися прогрессом в ИИ, и всякого такого1 у меня сложилось очень сильное впечатление, что это именно так.

Они всё ещё думают в терминах Старого Доброго Символьного ИИ. Они всё ещё верят, что вся функциональность ИИ была в него намеренно запрограммирована, а не обучена. Что за каждой способностью ChatGPT стоит человек, который её реализовал и её понимает.

Или, по крайней мере, что она записана в чётком виде, который люди могут прочитать и понять, и что мы можем туда вмешаться и совершить точные, предсказуемые поправки.

Опросы уже показывают беспокойство по поводу СИИ. Если тот факт, что мы не знаем, как эти системы на самом деле думают, был бы широко известным и в должной степени осознанным?Если бы не было неявного допущения, что «кто-то понимает, как это работает, и почему всё не может пойти катастрофически не так»?

Ну, я ожидаю, что беспокойства будет больше. Что может быть довольно хорошим подспорьем для дальнейшего продвижения регуляций ИИ. Способом накопить некоторый политический капитал, который затем можно будет тратить.

Так что, если вы общаетесь с публикой, я предлагаю включить в агенду распространение и этой информации. У вас есть около пяти слов (на сообщение), которые вы можете передать публике, и «Мощные ИИ – Это Чёрные Ящики», кажется, стоит передавать.2

  • 1. Если у вас есть какие-то конкретные данные по этому поводу, было бы здорово.
  • 2. Существуют некоторые возражения против терминологии «чёрного ящика». Я всё же считаю её верной: ML-модели являются чёрными ящиками для нас, в том смысле, что по умолчанию мы не лучше понимаем, какие алгоритмы они реализуют, чем что происходит в гомоморфно-защищённом вычислении, от которого у нас нет ключа, или в человеческом мозге, за активностью нейронов в котором мы наблюдаем. Существуют некоторое ненулевое количество исследований интерпретируемости, но в целом это так; а про модели новых архитектур это так почти стопроцентно.

    Да, ML-модели не являются чёрными ящиками относительно СГС. Алгоритм может «видеть», как происходят все вычисления, и в них вмешиваться. Но это кажется очень неестественным применением этого термина, и я всё ещё думаю, что «ИИ – это чёрные ящики» передаёт правильные общие соображения.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 3.5 (4 votes)

В остаточном потоке трансформеров представлена геометрия состояний их убеждений

Адам Шай

Написано во время работы в PIBBSS1. Работа началась на грант от Lightspeed Grant и продолжилась в PIBBSS. Написано в сотрудничестве с Полом Рихтерсом, Лукасом Тейшейрой, Александром Гителинком Олдензилем, и Сарой Марзен. Пол обучался в MATS на протяжении некоторой части этой работы. Благодарю Пола, Лукаса, Александра, Сару и Гийома Корлуэра за замечания к посту.

Введение

Какую вычислительную структуру мы встраиваем в LLM, когда обучаем их предсказанию следующего токена? В этом посте мы представляем свидетельство того, что это структура задаётся мета-закономерностями обновления убеждений о скрытых состояниях генерирующего данные процесса. Мы испытываем энтузиазм по поводу этих результатов, потому что:

  • У нас есть формализованная связь обучающих данных с внутренней структурой LLM.
  • По сути, наши результаты означают, что, продвигаясь по контекстному окну, LLM синхронизируются со своей внутренней моделью мира.
  • Ассоциированные с этой синхронизацией вычисления можно формализовать через рамки Вычислительной Механики [от переводчика: это не та же вычислительная механика, которая про физику сплошных сред, но она и в оригинале называется так же]. На её языке можно сказать, что в LLM содержится представление смешанных состояний процесса, который генерирует данные.
  • Синхронизационная структура в общем случае богаче самой модели мира. В некотором смысле, LLM выучивают больше, чем модель мира.
  • Мы теперь в большей степени надеемся, что можно использовать Вычислительную Механику для интерпретируемости и безопасности ИИ в целом.
  • Просто есть что-то крутое само по себе в том, чтобы совершить нетривиальное предсказание (в нашем случае – что в трансформере будет представлена конкретная фрактальная структура) и подтвердить, что оно верно. Если точнее, мы смогли использовать Вычислительную Механику, чтобы совершить априорное и конкретное теоретическое предсказание о геометрии активаций остаточного потока (слева на изображении ниже) и показать, что оно оказалось верным на практике (справа на изображении ниже).

Тут должна быть анимация по этой ссылке. Надпись слева – «Теоретическое предсказание», справа – «Остаточный поток»

Теоретическая база

В этом посте мы представляем, что обучающие данные сгенерированы Скрытой Марковской Моделью (СММ)[^2]. У СММ есть множество скрытых состояний и переходы между ними. Каждому переходу приписано, с какой вероятностью при нём выводится какой токен. Вот несколько примеров СММ и данных, которые они генерируют:

Мы рассматриваем, как связан трансформер с СММ, которая произвела данные, на которых он обучался. Это весьма обобщённо – любой набор данных, который состоит из последовательностей токенов, можно отобразить как сгенерированый СММ. Давайте для теоретической части возьмём простую СММ, которую мы называем Z1R2 («zero one random»). Вот её структура:

У Z1R три скрытых состояния: S0, S1 и SR. Стрелка из Sx в Sy, над которой написано a:p% означает, что, если процесс находится в состоянии Sx, то вероятность перехода в Sy с выводом токена a равна p%. Таким образом, переходы между состояниями стохастически генерируют бинарную строку вида …01R01R…, где на место R каждый раз случайно с равной вероятностью выбирается 0 или 1.

Структура СММ не выдаётся напрямую данными, которые она сгенерировала. Представьте себе разницу между списком строк, которые выдаёт эта СММ (с приписанными вероятностями) и самой структурой3. У трансформера есть доступ только к строкам, которые выдаёт эта СММ, но не напрямую к информации о скрытых состояниях. Поэтому, чтобы выучить что-то, связанное с скрытой структурой, ему надо вывести её из обучающих данных.

Мы покажем, что когда они хорошо предсказывают следующий токен, трансформеры совершают больше вычислительной работы, чем вывод скрытого генерирующего данные процесса!

Выучивают ли трансформеры модель мира?

Естественное предположение – что трансформеры должны отображать в себе скрытую структуру генерирующего данные процесса (т.е., «мира»4). В нашем случае это были бы три скрытых состояния и вероятностные переходы между ними.

Это предположение часто всплывает (и становится объектом споров) в обсуждениях о то, обладают ли LLM «настоящим пониманием». Например, Илья Суцкевер говорил:

Если подумать об этом, что это значит – достаточно хорошо предсказывать следующий токен? Это на самом деле куда более глубокий вопрос, чем кажется. Хорошее предсказание следующего токена означает, что ты понимаешь реальность, которая лежит в основе, которая привела к появлению этого токена. Это не статистические закономерности. То есть, это статистические закономерности, но что такое статистические закономерности? Чтобы понимать эти закономерности и их сжимать, надо понимать, что это за мир, который создаёт такие закономерности.

Такое представление естественно, но не очень формализовано. Вычислительная Механика – это формализация, которую разработали, чтобы изучать пределы предсказаний хаотичных и других сложных-для-предсказания систем. Она расширилась до глубокой и строгой теории о вычислительных структурах любых процессов. Помимо прочих достижений, она получила строгий ответ на вопрос о том, какие структуры нужны для оптимальных предсказаний. Интересно, что Вычислительная Механика показывает, что предсказание значительно сложнее генерации. Получается, нам следует ожидать, что трансформер, обученный предсказывать следующий токен, должен обладать более сложной структурой, чем процесс генерации данных!

Структура обновления состояния убеждений

Но что это за структура конкретно?

Представим, что вы в точности знаете структуру СММ, которая выдаёт данные вида …01R…. Вы ложитесь спать, потом просыпаетесь и видите, что СММ выдаёт 1. В каком она теперь состоянии? Сгенерировать 1 можно и из детерминированного перехода S1–>Sr, и из стохастического перехода Sr–>S0 с вероятностью в 50%. Так как детерминированный переход вдвое вероятнее выдаёт 1, лучшее, что вы можете – это заполучить убеждение-распределение о нынешнем состоянии СММ, в нашем случае это будет P([S0,S1,SR])=[13,0,23]5.

1 1 0 1…
P(S0) 1/3 1/3 1 0 0
P(S1) 1/3 0 0 1 0…
P(SR) 1/3 2/3 0 0 1…

Пусть после этого вы увидели, как СММ вывела ещё одну 1, так что вместе получается 11. Вы можете взять своё предыдущее убеждение о состоянии СММ (априорное распределение) и своё знание о структуре HMM вместе с выводом, который вы только что видели (соотношение вероятностей), чтобы вычислить новое убеждение (апостериорное распределение). Упражнение для читателя: каким уравнением описывается обновление состояния убеждений, если даны предыдущее состояние убеждений, наблюдаемый токен и матрица перехода СММ, которая выдаёт эти токены?6 В нашем случае есть только один способ, которым СММ может сгенерировать 11S1–>SR–>S0, так что вы точно знаете, что СММ теперь в состоянии S0. С этих пор каждый раз, когда вы будете видеть новый символ, вы будете точно знать, в каком состоянии СММ. Мы будем говорить, что вы синхронизировались с СММ.

В общем случае по мере того, как вы наблюдаете всё больше данных, которые сгенерировала СММ, вы постоянно обновляете своё убеждение о состоянии СММ. Даже в этом простом примере у этих обновлений есть нетривиальная структура. Например, двух выводов не всегда хватает, чтобы синхронизироваться с СММ. Если бы вместо 11… вы увидели 10…, вы бы не синхронизировались, потому что есть два разных способа, которыми СММ могла сгенерировать 10.

Структура обновления убеждений задаётся Представлением Смешанных Состояний.

Представление Смешанных Состояний

Генерирующий данные процесс – СММ – в каждый конкретный момент находится в скрытом состоянии, а затем, выводя символ, переходит в другое скрытое состояние. Заметим, что аналогично ведёт себя и ваше убеждение об этом процессе при условии получения нового вывода. Вы находитесь в некотором состоянии убеждений, а затем, в зависимости от полученного вывода СММ, переходите в некоторое другое состояние убеждений.

Процесс генерации данных Процесс обновления убеждений
Состояния принадлежат Генерирующий данные механизм Наблюдатель выводов процесса генерации данных
Состояния Множества последовательностей, определённым образом ограничивающие будущее Убеждения наблюдателя о состоянии процесса генерации данных
Последовательности скрытых состояний выводят Разрешённые последовательности токенов Разрешённые последовательности токенов
Интерпретация вывода Наблюдения/токены, которые выдаёт процесс генерации данных Что наблюдатель видит из процесса генерации данных

Мета-закономерности обновления состояний убеждений формально представляют из себя другую СММ, где скрытые состояния – ваши состояния убеждений. Эта мета-структура в Вычислительной Механике называется Представлением Скрытых Состояний (ПСС).

Заметим, что у ПСС есть переходные состояния (выше зелёные), которые ведут к повторяющемуся набору состояний убеждений, изоморфному генерирующему данные процессу. Это всегда так, хотя переходных состояний может быть бесконечно много. Синхронизация – это процесс движения через переходные состояния, сходящийся к генерирующему данные процессу.

Вычислительная Механика учит, что чтобы оптимально предсказывать следующий токен на основании конечной истории вывода токенов, надо реализовать Представление Смешанных Состояний (ПСС). То есть, чтобы хорошо предсказывать следующий токен, надо как можно лучше понимать, в каком состоянии находится генерирующий данные процесс, а для этого нужно ПСС.

С ПСС ассоциировано геометрическое представление, которое получается, если отметить значения состояний убеждений на симплексе. В общем случае, если наш генерирующий данные процесс имеет N состояний, распределения вероятностей на этих состояниях будут иметь N−1 степень свободы, потому что все вероятности должны быть между 0 и 1 [от переводчика: и суммироваться в единицу, это тоже важно, почему-то это не сказали]. Так что все возможные распределения вероятностей лежат на N-1-мерном симплексе. В случае Z1R это 2-симплекс, то есть, треугольник. Мы можем отобразить все возможные состояния на этот 2-симплекс, как показано ниже.

Мы обучили трансформер предсказывать следующий токен данных, сгенерированных СММ с тремя состояниями. Мы смогли найти линейное отображение геометрии ПСС в остаточном потоке. Это удивительно! Заметим, что точки на симплексе, состояния убеждений, это не вероятности, каким будет следующий токен. На самом деле, некоторым точкам тут соответствуют абсолютно одни и те же предсказания следующего токена. В частности, в нашем примере, η10, ηS, and η101 соответствуют одним и тем же оптимальным предсказаниям следующего токена.

Другой способ об этом думать: трансформеры отслеживают различия в ожидаемых распределениях на всё будущее, за пределами различий в предсказании следующего токена, хоть их в явном виде и обучают предсказанию следующего токена! Это означает, что трансформер хранит больше информации, чем необходимо только для локального предсказания следующего токена.

Ещё один способ думать о нашем утверждении: трансформеры совершают два вида рассуждений: одни выводят структуру процесса, который генерирует данные, а другие, мета-рассуждения, обновляют его внутреннее убеждение о том, в каком состоянии этот процесс находится, основываясь на некоторой конечной истории (т.е., контекстном окне).

Последняя теоретическая заметка о Вычислительной Механике и представленной тут теории, так как Вычислительная Механика – хорошо проработанный с чистого листа подход, который не зависит от конкретики архитектуры трансформера, мы можем применить его к любому оптимальному предсказателю, не только трансформерам.7

Эксперимент и результаты

План эксперимента

Повторим вопрос, на который мы пытаемся ответить:

Какую вычислительную структуру мы встраиваем в LLM, обучая их предсказывать следующий токен?

Для проверки наших теоретических предсказаний мы спланировали эксперимент с такими шагами:

  1. Сгенерировать обучающий данные при помощи известной СММ, конкретно – СММ из трёх состояний, описанной ниже в разделе «Процесс генерации данных и ПСС».
  2. Обучить трансформер предсказанию следующего токена на этих данных. В показанном эксперименте мы использовали трансформер из 4 слоёв с 64-мерным остаточным потоком и 4 «головами внимания» на слой.
  3. Проанализировать последний слой остаточного потока трансформера в поисках линейного подпространства, геометрия которого соответствовала бы предсказанной фрактальной структуре Представления Смешанных Состояний (ПСС).

Контроль структуры обучающих данных при помощи использования СММ, позволил нам сделать конкретное фальсифицируемое предсказание о вычислительной структуре, которая должна быть реализована в рассуждениях трансформера. Вычислительная Механика, как описано в разделе «Теоретическая База» выше, даёт способ совершать такие предсказания, основываясь на структуре СММ.

Конкретной СММ, которую мы выбрали, соответствует ПСС с бесконечно-фрактальной геометрией. Это даёт нам весьма нетривиальное предсказание о том, обнаружения чего следует ожидать в активациях остаточного потока трансформера, если наша теория верна.

Процесс генерации данных и ПСС

Для этого эксперимента мы обучили трансформер на данных, сгенерированных простой ПСС под названием Mess3 с всего 3 скрытыми состояниями8. многократные переходы между этими состояниями генерируют строки, состоящие из токенов из множества {A, B, C}. СММ этого процесса изображена слева на рисунке ниже.

(Слева) Генерирующий данные процесс имеет три скрытых состояния и выводит строки-данные со словарём {A, B, C}. (Снизу) Пути по этой структуре генерируют строки для обучающих данных из токенов, приписанных к рёбрам, по которым эти пути проходят. Мы используем эти данные для обучения на них трансформера. (Справа) Соответствующая Mess3 ПСС – внутренние состояния системы, которая предсказывает будущие токены, которые выдаст генерирующий данные процесс, при условии наблюдения предыдущих токенов. Точки в этом пространстве соответствуют распределениям вероятностей скрытых состояний генерирующего данные процесса. Они лежат на двумерной плоскости, потому что пространство распределений вероятностей трёх вариантов двумерно. Важно, что эта структура – не структура предсказания следующего токена! Это мета-структура того, как обновляются убеждения наблюдателя о скрытых состояниях генерирующего процесса! Центральная точка треугольника соответствует максимальной неуверенности по поводу трёх скрытых состояний, а углы – полной уверенности в одном из них. Цвета присвоены сопоставлением вероятности каждого состояния одного из значений RGB.

Наш подход позволил нам совершить строгое и тестируемое предсказание о внутренней структуре трансформеров. В случае этой СММ, теория (обрисованная выше) заявляет, что обученный на этих данных трансформер должен реализовывать вычислительную структуру, ассоциированную с фрактальной геометрией, показанной справа на рисунке выше. Каждая цветная точка этого симплекса – отдельное состояние убеждений.

Мы выбрали СММ Mess3, потому что его ПСС обладает бесконечной фрактальной структурой, так что может послужить весьма нетривиальным предсказанием о том, какую геометрию мы обнаружим в остаточном потоке.

Результаты!

Мы обучили трансформер на данных, которые сгенерировала Mess3. Мы посмотрели на последний слой остаточного потока и нашли линейное двумерное подпространство, в котором активации обладали весьма похожей на наш предсказанный фрактал структурой. Мы сделали это при помощи обычной линейной регрессии от активаций остаточного потока (64-мерных векторов) к распределениям-убежденям (трёхмерным векторам), которые соответствуют им в ПСС.

(Слева) Наше предсказание внутренней геометрии обученного трансформера, то же, что и на предыдущем рисунке. (Справа) Результаты эксперимента. Мы нашли двумерную линейную проекцию активаций последнего слоя остаточного потока нашего обученного трансформера, геометрия которой схожа с нашим теоретическим предсказанием! Цвета присвоены согласно идеально верному распределению вероятностей (как показано слева).

Можно посмотреть и на то, как эта структура возникает при обучении. Это показывает (1) что найденная структура нетривиальна9, ведь на ранних этапах обучения она не столь подробна, и (2) что происходит постепенная подгонка активаций трансформера к предсказанной нами фрактальной структуре.

По ходу обучения видно оформление внутренних активаций остаточного потока трансформера в фрактальную геометрию, которую предсказал наш подход.

Можно посмотреть визуализацию на этом видео. Для обучения мы использовали стохастический градиентный спуск, поэтому двумерная проекция активаций подрагивает даже после того, как обучение уже сошлось. Можно видеть, что при подрагивании фрактальная структура остаётся.

Ограничения и следующие шаги

Ограничения

  • Мы показали одну простую структуру, заданную СММ с тремя состояниями и словарём из трёх токенов. Настоящие современные LLM намного больше и имеют словари больше чем из 50 тысяч токенов, а марковский порядок естественных языков бесконечен. Мы проверяли эту теорию и на других СММ, и всё работало, но пока что это тоже были примерно настолько же маленькие примеры. Как всё это относится к большим, более сложным и более реалистичным ситуациям – неизвестно (но у нас есть мысли по этому поводу!).
  • В этом посте мы на этом не сосредотачивались, но МСП – динамическая система, управляемая входными данными (input-driven dynamical system). Для каждого возможного ввода в систему определено, куда в симплексе возможных убеждений надо перейти из какого нынешнего убеждения. Мы не проверяли напрямую, что LLM реализуют эти закономерности, только что в трансформере представлены состояния убеждений и их геометрия.
  • Вычислительная Механика в основном говорит об оптимальных предсказаниях. На практике LLM не будут буквально оптимальными. Есть много статей по изучению почти-оптимальности, не-оптимальности и скоростей – искажений (rate-distortion) с точки зрения Вычислительной Механики, но к LLM этого пока не применяли.
  • В этой работе мы сфокусировались на эргодических и стационарных процессах. Вычислительная Механика может ослабить эти допущения, но, опять же, мы эти её (очень интересные) расширения не применяли к LLM. В частности, не-эргодичность, скорее всего, лежит в основе обучения в контексте.
  • В представленном в этом посте эксперименте мы сосредоточились на последнем слое остаточного потока, прямо перед обращением эмбеддинга. В других (не представленных тут) экспериментах ПСС не была хорошо представлена в последнем слое, а была распределена по нескольким более ранним слоям. Мы думаем, что это происходит, потому что в общем случае есть вырожденные группы состояний убеждений, в том смысле, что у этих состояний одинаковое распределение вероятностей следующего токена. В таком случае, утверждение из этого поста заявляет, что хоть различие между этими состояниями должно быть отображено в внутренней структуре трансформера, но он может затем, двигаясь к предсказанию следующего токена, это различие (локально) потерять. Это в наиболее явном виде происходит прямо перед обращением эмбеддинга.

Следующие шаги

  • Мы надеемся, что описанный в этом посте подход даст более формальное понимание внутренней структуры и поведения нейросетей.
  • Есть много пока открытых вопросов о том, как эта работа соотносится с другой технической работой по безопасности ИИ. Я очень быстро перечислю несколько идей, а подробнее расскажу о них в будущих постах:
    • Как с геометрией смешанных состояний связаны черты и схемы, которые изучает Механистическая Интерпретируемость?
    • Можно ли что-то сказать о суперпозиции и сжатии ПСС в тех случаях, когда остаточный поток слишком мал, чтобы оно в него «поместилась»?
    • Можно ли связать развитие геометрической структуры ПСС по мере обучения с явлениями из SLT (Singular Learning Theory)? См. К интерпретируемости развития
    • Можно ли использовать наш подход, чтобы операционализировать определённые способности (обучение в контексте, обобщение за пределы распределений, ситуационная осведомлённость, «спящие агенты», и т.д.)? Позволяет ли наш подход изучать их на игрушечных моделях?
    • Можно ли использовать наш подход для понимания структур задач и того, как разные задачи друг с другом связаны? См. [Начальная точка для того, чтобы начать что-то понимать в структурах задач (в машинном обучении)]
  • Как уже упоминалось в разделе про ограничения, структуры ПСС в трансформерах распределяются по слоям. Очевидный следующий шаг: изучить, как это происходит и как с этим связана функциональная форма механизма внимания.
  • Мы скоро выпустим python-библиотеку для проведения подобных экспериментов. Вот репозиторий на github.
  • Вычислительная Механика – хорошо проработанный подход, а этот пост сосредоточен только на малой её части. Мы надеемся применить и другие её аспекты к работе нейросетей и безопасности ИИ, а также расширить её и скомбинировать с другими методами и подходами.
  • Если вы хотите узнать больше о Вычислительной Механике, то мы рекомендуем начать с этих статей Шализи и Кратчфилд (2000), Ричерс и Кратчфилд (2018a), и Ричерс и Кратчфилд (2018b)
  • Мы (Пол и Адам) собрали средства на открытие новой организации по безопасности ИИ – Simplex! Тут представлена одна малая грань той работы, которую мы надеемся делать, это только начало. Следите за нашими постами, они будут обрисовывать наше более широкое видение на будущее.
  • Примерно через месяц мы вместе с Apart проведём хакатон! Мы скоро запостим и об этом. Ещё мы напишем про открытые задачи и предоставим ещё немного ресурсов для экспериментов.
  • Впереди ещё много работы! части этого плана исследований лежат на всём диапазоне от чисто математических/теоретических до экспериментальных. Если вы заинтересованы и хотите стать частью этого, пожалуйста, не стесняйтесь с нами связываться!
  • 1. В PIBBSS есть вакансии! Я от всего сердца рекомендую их как организацию.
  • 2. Если говорить формально, термин процесс относится к распределению вероятностей бесконечных последовательностей токенов, а представление – к конкретной СММ, которая выдаёт строки согласно этому распределению. У процесс бесконечно много представлений.
  • 3. Любая СММ определяет распределение вероятностей на бесконечных цепочках выводов.
  • 4. Один возможный способ концептуализировать это – считать, что «мир» обладает некоторой (изначально вам неизвестной) скрытой структурой, которая выдаёт наблюдения. Наша задача – вывести скрытую структуру по последовательности наблюдений. Это может быть ради оптимальных предсказаний будущего, а может быть просто потому, что выяснять как работает мир интересно само по себе. Внутри нас есть «модель мира» – внутренняя структура, которая позволяет нам «понимать» скрытую структуру мира. Термин «модель мира» спорный, ничего в посте особо не зависит от этого понятия. Но наша мотивация для этой работы – формализовать интуитивные соображения и аргументы о нейросетях и моделях мира, превратить их в что-то конкретное, а то они часто очень расплывчаты и плохо определены.
  • 5. В данном конкретном случае наше изначальное распределение вероятностей – равномерное распределение на трёх состояниях генерирующего данные процесса. Но это не всегда так. В общем случае изначальное распределение задаётся стационарным распределением генерирующей данные СММ.
  • 6. Ответ можно найти в разделе IV этой статьи Пола Ричерса.
  • 7. В области Вычислительной Механики есть работы, изучающие и неоптимальные или почти-оптимальные предсказания и что с оптимальностью разменивается. Вероятно, это на практике применимо к нейросетям. См. Марзен и Кратчфилд, 2021 и Марзен и Кратчфилд, 2014.
  • 8. Этот процесс называется Mess3, он определён в статье Сары Марзен и Джеймса Кратчфилда. В нашей работе мы использовали x=0.05, alpha=0.85.
  • 9. Мы провели и контрольный эксперимент, в котором оставили ту же настоящую фрактальную структуру, но перетасовали то, какие вводы соответствуют каким точкам симплекса (этому соответствует перемешивание цветов на графике с правильной структурой). В этом случае, когда мы запустили нашу регрессию, мы получили, что все активации остаточного потока переходили в центральную точку симплекса – центр масс всех точек.
Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Мышление Безопасника и Обыденная Паранойя

Элиезер Юдковский

Нижеследующее – вымышленный диалог, основанный на Безопасность ИИ: Почему это сложно, и где начать.

(ЭМБЕР, филантроп, заинтересованная в более надёжном Интернете, и КОРАЛ, профессионал в области компьютерной безопасности, находятся на конференции и обсуждают, как настаивает КОРАЛ, сложную и важную проблему: трудности создания «надёжного» софта.)

ЭМБЕР: Итак, КОРАЛ, я так понимаю, ты считаешь, что очень важно при создании софта сделать, чтобы он был, как ты это называешь, «надёжным».

КОРАЛ: Особенно, если он соединён с Интернетом, или если он контролирует деньги или что-то ещё ценное. Но да, верно.

ЭМБЕР: Мне сложно поверить, что это должно быть отдельной темой в информатике. В общем случае программистам надо разобраться, как заставить компьютеры сделать то, что они хотят. Создатели операционных систем уж точно не хотят, чтобы те предоставляли доступ кому не надо, точно так же, как они не хотят, чтобы компьютеры зависали. Почему одна задача настолько сложнее другой?

КОРАЛ: Это глубокий вопрос, вот частично глубокий ответ: Когда ты соединяешь устройство с Интернетом, ты потенциально сталкиваешь его с умными противниками, которые могут обнаружить специальные странные способы взаимодействия с системой, которые заставят её части вести себя странным образом, о котором программисты не задумывались. Когда ты решаешь проблемы такого вида, ты используешь другой набор методов и инструментов.

ЭМБЕР: Любая зависающая система ведёт себя так, как этого не ожидал программист, и программистам уже надо такое предотвращать. Чем отличается этот случай?

КОРАЛ: Окей, так… представь, что твоя система собирается принимать один килобайт ввода за сессию. (Хотя это уже тот род допущений, в котором мы бы засомневались, и спросили бы, что произойдёт, если она получит вместо этого мегабайт ввода – но забей.) Если размер ввода – один килобайт, то разных возможных вводов 28,000, что-то около 102,400. Опять же, для простой визуализации, представь, что компьютер получает миллиард вводов в секунду. Предположим, что только гугол, 10100, из всех 102,400 возможных вводов, приводит к тому, что система ведёт себя не входившим в намерения проектировщика способом.

Если система получает вводы способом, не коррелирующим с тем, неправильно ли она себя ведёт при их получении, то она не придёт в неправильное состояние до конца вселенной. С другой стороны, если есть умный противник, который понимает систему, то он может быть способен найти один из тех редких вводов, из-за которых система ведёт себя неправильно. Так что часть системы, которая не вела бы себя неправильно буквально никогда за миллион лет получения случайных вводов, может сломаться, когда умный противник намеренно пытается её сломать.

ЭМБЕР: Так ты говоришь, что это сложнее, потому что программист сталкивает свою сообразительность с противником, который может оказаться умнее.

КОРАЛ: Это почти-правильная формулировка. Важен не столь «противник», сколько оптимизация. Есть систематические неслучайные силы, сильно отбирающие конкретные исходы, из-за которых части системы идут странными путями исполнения и приходят в неожиданные состояния. Если твоя система буквально не имеет неправильных состояний, то то, что у тебя IQ 140, а у противника IQ 160, не имеет значения – это не соревнование по армрестлингу. Просто создать систему, которая не приходит в странные состояния, когда эти состояния специально отбираются, куда сложнее, чем если они происходят только случайно. Отбирающие-странность силы могут проводить поиск по большему пространству состояний, чем ты можешь себе представить. Преодоление этого требует новых навыков и иного режима мышления, того, что Брюс Шнайер назвал «мышлением безопасника».

ЭМБЕР: О, и что это за мышление безопасника?

КОРАЛ: Я могу рассказать пару вещей про это, но держи в голове, что мы тут имеем дело с не полностью передаваемым качеством мышления. Если бы я могла выдать тебе пару банальностей про мышление безопасника, и после этого ты и вправду могла бы проектировать безопасный софт, то Интернет выглядел бы совсем не так, как он выглядит на самом деле. С учётом этого, мне кажется, что то, что называют «мышлением безопасника» можно разделить на два компонента, один из которых куда проще другого. И это может привести к тому, что люди переоценивают свою собственную надёжность, потому что поняли более простую часть и проигнорировали более сложную. Более простую часть я буду называть термином «обыденная паранойя».

ЭМБЕР: Обыденная паранойя?

КОРАЛ: Многие программисты обладают способностью представлять себя противников, которые пытаются им угрожать. Они представляют, насколько вероятно, что противники способны атаковать определённым образом, а затем они пытаются заблокировать этот способ. Представлять атаки, включая странные или умные, и парировать их мерами, которые, по твоему представлению, остановят атаку – это обыденная паранойя.

ЭМБЕР: Не в этом ли вся компьютерная безопасность? Что, же, по твоему мнению, другая часть?

КОРАЛ: Формулируя банально, надо сказать… это защита от ошибок в твоих собственных допущениях, а не от внешних противников.

ЭМБЕР: Можешь привести пример разницы?

КОРАЛ: Обыденно-параноидальный программист представляет, что противник может попробовать прочитать файл, содержащий все имена пользователей и пароли. Он может попробовать хранить файл в специальной защищённой области диска или специальном разделе операционной системы, предназначенном для усложнения доступа. Напротив, кто-то с мышлением безопасника в такой ситуации думает «Независимо от того, какую специальную систему я построю вокруг этого файла, меня беспокоит нужда делать допущение, что файл нельзя прочитать. Может оказаться, что специальный написанный мной код, раз он реже используется, с большей вероятностью содержит баги. Или, может быть, есть способ вытянуть данные с диска, вообще не проходя через написанный мной код.»

ЭМБЕР: И представляет больше и больше способов, которыми противник может добраться до информации, и блокирует и их! Потому что обладает воображением получше.

КОРАЛ: Ну, это да, но это не ключевая разница. Чего действительно хочется, это чтобы способ, которым компьютер проверяет пароли, не полагался на то, что компьютер вообще их хранит, хоть где-нибудь.

ЭМБЕР: А, вроде шифрования файла с паролями!

КОРАЛ: Нет, это просто отодвигает проблему на один шаг. Если компьютер может расшифровать пароль, чтобы его проверить, значит он где-то хранит ключ для расшифровки, и атакующий может выкрасть и его.

ЭМБЕР: Но тогда ему понадобится выкрасть две вещи вместо одной; не делает ли это систему надёжнее? Особенно, если ты напишешь два отдельных кода для файловой системы: чтобы хранить ключ и чтобы хранить зашифрованные пароли?

КОРАЛ: Это в точности то, что я имела в виду, отделяя «обыденную паранойю» от полноценного мышления безопасника. Пока система способна восстановить пароль, мы всегда будем беспокоиться, что противник может быть способен обхитрить систему, чтобы она это сделала. То, что кто-то с мышлением безопасника поcчитает более глубоким решением – это хранить односторонний хэш пароля вместо самого пароля. Тогда даже если атакующий прочитает файл с паролями, это всё ещё не даст ему возможности выдать системе то, что она распознает как пароль.

ЭМБЕР: А, довольно умно! Но я не вижу качественной разницы между этим способом и моим способом прятать ключ и зашифрованный файл отдельно. Я согласна, что твой способ умнее и элегантнее, но, конечно, ты знаешь более хорошие стандартные решения, чем я, потому что ты профессионально работаешь в этой области. Я не вижу линии качественного разделения между твоим и моим решением.

КОРАЛ: Эм, это сложно сказать, никого не оскорбив, но… возможно, что даже после того, как я попытаюсь объяснить разницу, а я собираюсь это сделать, ты не поймёшь. Как я уже говорила, если бы я могла выдать тебе пару удобных банальностей и преобразовать тебя в кого-то, способного по-настоящему хорошо справляться с компьютерной безопасностью, то Интернет выглядел бы совсем по-другому. Я могу попробовать описать один аспект разницы, но это может поставить меня в позицию математика, пытающегося объяснить, какой путь доказательства выглядит перспективнее; ты можешь услышать всё, что он скажет и согласно покивать, но это не превратит тебя в математика. Так что я собираюсь попробовать объяснить разницу, но опять же, я не знаю простых инструкций того, как стать Брюсом Шнайером.

ЭМБЕР: Признаю, я ощущаю некоторый скептицизм по поводу этой предположительно непередаваемой способности, которой некоторые люди обладают, а некоторые нет–

КОРАЛ: Такое есть во многих профессиях. Некоторые люди въезжают в программирование в пять лет, поглядев на страницу программ на BASIC, написанных для TRS-80, а некоторые сталкиваются с большими трудностями, пытаясь освоить основы Python в двадцать пять. Это не потому, что есть некая загадочная истина, которую пятилетний знает, и которую можно вербально передать двадцатипятилетнему.

И да, пятилетний станет куда лучше с практикой; мы не говорим о необучаемых гениях. И вполне могут быть некоторые банальности, которые ты можешь сказать двадцатипятилетнему, которые упростят ему задачу. Но иногда профессия требует необычного способа мышления, и разум некоторых людей проще сворачивает в этом конкретном направлении.

ЭМБЕР: Хорошо, продолжай.

КОРАЛ: Окей, итак… твоя мысль поместить файл с зашифрованными паролями в одно специальное место, а ключ в другое специальное место. Почему бы не зашифровать ещё и ключ, написать третий специальный кусок кода, и хранить ключ к зашифрованному ключу в третьем специальном месте? Не сделает ли это систему ещё надёжнее? Как насчёт семи ключей, спрятанных в семи разных местах. Не было бы это особо надёжно? Даже практически невзламываемо?

ЭМБЕР: Ну, это версия идеи ощущается немного глупой. Если ты пытаешься запереть дверь, то замок, требующий двух ключей может быть надёжнее, чем замок, требующий всего одного ключа, но кажется, что семь ключей не сделают дверь намного надёжнее, чем два.

КОРАЛ: Почему нет?

ЭМБЕР: Это просто кажется глупым. Наверное, у тебя есть более хороший способ сформулировать это, чем могу я.

КОРАЛ: Ну, красивый способ описать, почему это глупо – это то, что шанс заполучить седьмой ключ не является независимым от шанса получения первых двух. Если я могу прочитать зашифрованный файл с паролем, и могу прочитать твой зашифрованный ключ, то скорее всего у меня есть что-то, обходящее твою файловую систему и читающее напрямую с диска. И чем сложнее ты делаешь свою файловую систему, тем вероятнее, что я смогу найти странное её состояние, которое позволит мне это сделать. Может, специальный раздел кода файловой системы, который ты написала, чтобы спрятать четвёртый ключ, содержит баг, который позволяет мне напрямую читать диск.

ЭМБЕР: Так разница в том, что человек с настоящим мышлением безопасника найдёт защиту, которая сделает систему проще, а не сложнее.

КОРАЛ: Опять же, почти правильно. Хэшируя пароли, профессионал по безопасности упрощает свои рассуждения о системе. Убирается нужда в допущении, которое может находится под большим давлением. Если ты поместишь ключ в одном специальном месте, а зашифрованный файл с паролями в другом специальном месте, тот вся система в целом всё ещё способна расшифровать пароль пользователя. Противник, исследующий пространство состояний, может быть способен вызвать это состояние расшифровки-пароля, потому что система спроектирована так, чтобы хотя бы в некоторых обстоятельствах это делать. Хэшируя пароль мы избавляемся от этого внутреннего противоречия в рассуждениях, на которых основана надёжность системы.

ЭМБЕР: Но даже после того, как ты используешь этот хитрый трюк, что-то всё равно может пойти не так. Всё ещё нет абсолютной надёжности. Что если кто-то использует «пароль» в качестве своего пароля?

КОРАЛ: Или что если кто-то найдёт способ считать пароль после того, как пользователь его ввёл, пока он сохранён в оперативной памяти, потому что что-то даёт к ней доступ? Суть избавления от дополнительных допущений о надёжности системы не в том, что мы получаем абсолютную надёжность и можем расслабиться. Обладатель мышления безопасника никогда не может быть настолько спокоен касательно своих рассуждений, заявляющих, что система надёжна.

С другой стороны, пока некоторые обычные программисты, занимающиеся обычным программированием, могут приложить некоторые усилия по отладке, и чувствовать, что этого достаточно, что они сделали всё, что осмысленно сделать, программисты с приличным уровнем обыденной паранойи будут продолжать обдумывать идеи, стоя под душем, и приходить к новым тестам, которые должна проходить система. Так что разделение между мышлением безопасника и обыденной паранойей не в том, что обыденные параноики расслабятся.

Это… опять же, оформляя это как банальность, обыденный параноик затыкает все дыры, через которые он может представить, что атакует противник, а кто-то с мышлением безопасника защищается скорее от «что, если элемент этого рассуждения ошибочен?». Вместо того, чтобы очень сильно пытаться удостовериться, что никто не сможет прочитать диск, мы создадим систему, которая будет надёжной даже если кто-то прочитал диск, и это – наша первая линия обороны. Затем мы также создадим и файловую систему, которая не позволит противникам прочитать файл с паролями, как вторую линию обороны на случай, если наш односторонний хэш сломан, и потому что ни у кого нет нужды позволять противникам читать диск, так что и не надо им этого позволять. И затем мы ещё и посолим хэш на случай, если кто-то применил низкоэнтропийный пароль, а противник всё же смог прочитать файл.

ЭМБЕР: То есть кто-то с настоящим мышлением безопасника пытается скорее не перехитрить противников, а сделать меньше допущений.

КОРАЛ: Ну, мы думаем и о противниках! Рассуждению о противниках проще обучить, чем мышлению безопасника, но оно всё же (а) обязательно и (б) сложно для обучения в абсолютном смысле. Многие не могут его освоить, поэтому рассуждения о «мышлении безопасника» часто открываются с истории о том, как кто-то провалил рассуждение о противниках, и кто-то другой провёл умную атаку, прошедшую через возведённую защиту.

Надо освоить два способа думать, и есть много народу, освоившего первый, но не второй. Один из способов описать более глубокий навык – это умение видеть, что надёжность системы основывается на истории о том, почему она надёжна. Мы хотим, чтобы эта история была настолько достоверна, насколько это возможно. Одно из следствий – надо основывать историю на как можно меньшем количестве допущений; как говорят, единственная шестерня, которая никогда не подведёт – та, которую выкинули из проекта механизма.

ЭМБЕР: Но разве нельзя получить лучший уровень надёжности, ещё и добавляя больше линий обороны? Не увеличивает ли это сложность истории, но и уровень надёжности?

КОРАЛ: Тут можно кое-что сказать о предпочтении в истории-надёжности дизъюнктивных рассуждений над конъюнктивными. Но важно осознать, что то, чего хочется на самом деле – это основная линия обороны, которая должна просто работать и быть непроницаемой, не набор слабеньких заборов, которые, ты думаешь, что может быть сработают. Кто-то, кто не понимает криптографию, может составить двадцать умно-выглядящих новичковых шифров и применить их по очереди, думая, что даже если какой-то один окажется взламываемым, то уж точно не все. Тогда АНБ передаст этот могучий заслон новичкового шифрования стажёру, и стажёр взломает его за вечер.

Есть что сказать и про избыточность, и про запасные планы, на случай, если неприступная стена падёт; может быть мудро иметь дополнительные линии обороны, пока добавленная сложность не делает большую систему сложной для понимания и не увеличивает её уязвимую поверхность. Но в основе тебе нужна простая надёжная история о том, почему система надёжна, и хороший безопасник попробует избавиться от допущений, на которых стоит эта история, и усилить её основания, не только заблокировать ожидаемые атаки и предотвратить видимые риски.

Но, конечно, лучше использовать два истинных допущения, чем одно ложное, так что простота – не всё.

ЭМБЕР: Интересно, имеет ли этот вид мышления приложения за пределами компьютерной безопасности?

КОРАЛ: Думаю, да, как и намекает метафора про шестерёнки.

К примеру, немного выйду из образа персонажа, автор этого диалога несколько известен за обсуждения задачи согласования Сильного Искусственного Интеллекта. Он как-то говорил о попытках измерить скорость усовершенствований внутри растущей ИИ-системы, чтобы она не думала слишком много минуя людей, если в ней произошёл прорыв, пока она была запущена на ночь. Человек, с которым он говорил, ответил, что кажется маловероятным, что СИИ наберёт силу настолько быстро. На что автор ответил примерно это:

Не должно быть твоим делом предполагать, насколько быстро СИИ может улучшаться! Если ты написал систему, которая повредит тебе, если некоторая скорость самоулучшения окажется возможной, то ты написал неверный код. Код просто должен никогда тебе не повредить, независимо от истинного значения этого фонового параметра.

Лучшим способом настроить СИИ было бы измерять то, насколько он усовершенствовался, и если более, чем на X, то приостановить систему, пока программист не проверит уже произошедший прогресс. Тогда даже если улучшение произошло за миллисекунду, то всё в порядке, пока система работает как предполагается. Может, система не работает, как предполагается из-за какой-то другой ошибки, но лучше волноваться об этом, чем о системе, которая повредит тебе даже если она работает как предполагается.

Аналогично, ты хочешь спроектировать систему так, что если она откроет новые восхитительные способности, то она подождёт оператора, чтобы тот разрешил их использование – не полагаться на то, что оператор увидит, что происходит и нажал кнопку остановки. Тебе не следует полагаться на то, что время открытия или время катастрофы будут не меньше времени реакции оператора. Нет нужды принимать такое допущение, если ты можешь спроектировать всё так, чтобы система была надёжной и без него. К примеру, оперируя парадигмой дозволения методов из белого списка оператора, а не запрета методов из чёрного списка; требуя, чтобы оператор сначала сказал «Да», а не предполагая, что оператор на месте, обращает внимание, и может сказать «Нет» достаточно быстро.

ЭМБЕР: Ну, окей, но если мы защищаемся от ИИ-системы, открывающей космическую мощь за миллисекунду, это кажется мне не особо осмысленным беспокойством. Думаю, это отмечает меня как лишь обыденного параноика.

КОРАЛ: В самом деле, один из отличительных признаков специалистов по безопасности – это что они тратят много времени на беспокойство о крайних случаях, которые не тревожат обыденного параноика, потому что они не звучат как то, что противник, вероятно, сделает. Вот пример из блога «Freedom to Tinker»:

Этот интерес в «безвредных провалах» – случаях, когда противник может вызвать аномальный, но не напрямую вредный исход – другой характеристический признак мышления безопасника. Не все «безвредные провалы» приводят к большим проблемам, но удивительно, насколько часто умный противник может сложить набор кажущихся безвредными ошибок в опасную башню проблем. Безвредные провалы – плохая гигиена. Мы стараемся по возможности их искоренять…

Чтобы увидеть, почему, рассмотрим недавно пробежавшуюся по прессе историю с е-мейлами donotreply.com. Когда компании посылают коммерческий e-mail, и не хотят, чтобы получатель на него ответил, они зачастую используют в качестве адреса отправителя заглушку вроде donotreply@donotreply.com. Умный парень зарегистрировал домен donotreply.com и стал получать все е-мейлы, адресованные туда. Это включало «отражённые» ответы на е-мейлы, посланные по неправильному адресу, некоторые из которых содержали копии оригинального письма, с информацией вроде реквизитов банковских аккаунтов, информации о военных базах в Ираке, и так далее…

Люди, поместившие адрес donotreply.com в свои письма, должны были знать, что они не контролируют домен donotreply.com, так что, должно быть, они подумали об ответных письмах, направленных туда, как о безвредном провале. Зайдя так далеко, есть два способа избежать проблем. Первый – тщательно подумать о траффике, который может отправиться к donotreply.com, и осознать, что его часть может быть опасной. Второй способ – подумать: «Это кажется безвредным провалом, но стоит всё равно его избежать. Ничего хорошего из него не выйдет.» Первый способ защитит вас, если вы умны, второй защитит всегда.

«Первый способ защитит вас, если вы умны, второй защитит всегда.» Это, в общем-то, вторая половина мышления безопасника. Это то, что имел в виду автор эссе, говоря о согласовании СИИ, построенном на белом списке, а не на чёрном: не следует предполагать, что вы достаточно умно подумали о том, как быстро СИИ-система может открывать способности, вам следует иметь систему, которая не будет использовать пока что не внесённые в белый список способности, даже если они открыты очень внезапно.

Если ваш СИИ повредил бы вам, если бы получил тотальную космическую мощь за миллисекунду, это означает, что вы создали когнитивный процесс, который в каком-то смысле пытается вам навредить, и не делает это только из-за нехватки способностей. Это очень плохо, и вам следует проектировать какую-то другую СИИ-систему. СИИ-система должна никогда не выполнять поиск, который вам навредит, если вернёт непустой результат. Вам не следует пытаться исправить это, удостоверяясь, что поиск вернёт пустой результат благодаря вашим умным защитам, отрезающим от СИИ умные способы вам навредить. Вам следует исправить это, удостоверившись, что такой поиск никогда не будет запущен. Глупо тратить на такое вычислительную мощность, стоит потратить её на что-то другое.

Возвращаясь к обычной компьютерной безопасности, если вы пытаетесь создать замок с семью ключами, спрятанными в разных местах, то вы в некотором роде выставляете свой ум против ума противника, пытающегося прочесть ключи. Обладатель мышления безопасника не хочет полагаться на то, что он выиграет состязание умов. Обыденный параноик, кто-то, кто может освоить тот вид паранойи-по-умолчанию, которой обладают многие умные программисты, посмотрит на donotreply@donotreply.com в поле «Отправитель» и подумает о том, что противник может зарегистрировать домен donotreply.com. Кто-то с мышлением безопасника подумает скорее о допущениях, а не о противниках, и подумает: «Ну, я предполагаю, что этот ответный е-мейл отправится в никуда, но, может, мне стоит спроектировать систему так, чтобы мне не надо было беспокоиться о том, и правда ли это так.»

ЭМБЕР: Потому что настоящий великий параноик знает, что то, что выглядит как смехотворно маловероятный способ атаки, иногда в конце концов оказывается не таким уж смехотворным.

КОРАЛ: Опять же, это не идеально правильная формулировка. Когда я не делаю так, чтобы е-мейл исходил из donotreply@donotreply.com, это не просто потому, что я оцениваю вероятность того, что противник зарегистрирует donotreply.com выше, чем представляет новичок. Насколько мне известно, если отражённый е-мейл послан в никуда, то может произойти всё что угодно! Может, это работает так, что е-мейл перенаправляется в странные места в поисках правильного адреса. Я не знаю, и я не хочу быть обязана это изучать. Вместо этого я спрашиваю себя: могу ли я сделать так, чтобы отражённый е-мейл не генерировался? Могу ли я сделать, чтобы он не содержал текста оригинального сообщения? Может, я могу запрашивать сервер электронной почты, чтобы удостовериться, что адрес верный, прежде, чем посылать сообщение? – хотя ещё могут быть автоматические ответы «я в отпуске», так что лучше я сама буду контролировать адрес отправителя. Если может быть очень плохо, что кто-то неавторизированный это прочитал, может это не стоит отправлять прямым текстом через е-мейл.

ЭМБЕР: То есть человек с настоящим мышлением безопасника понимает, что там, где есть одна проблема, продемонстрированная, как кажется, очень маловероятным мысленным экспериментом, могут быть и более реалистичные проблемы, которые противник действительно может использовать. То, что я считаю странными невероятными сценариями провала – это канарейки в угольной шахте, предупреждающие кого-то по-настоящему параноидального о более серьёзных проблемах.

КОРАЛ: Опять же, это не в точности верно. Человек с обыденной паранойей услышав про donotreply@donotreply.com может подумать что-то вроде «О, ну, не особо вероятно, что атакующий действительно зарегистрирует это домен. У меня есть более срочные проблемы, чтобы о них беспокоиться», потому что в этом режиме мышления он оббегает места, где может быть пожар, и вынужден приоритезировать те, где он более вероятен.

Если вы продемонстрируете странный мысленный эксперимент о крайнем случае кому-то с мышлением безопасника, то он не подумает, что там вероятнее проблемы. Он подумает: «О нет, моё убеждение, что отражённые е-мейлы идут в никуда было ЛОЖНЫМ!» Проект OpenBSD по созданию надёжной операционной системы также, по ходу дела, создал крайне устойчивую операционную систему, потому что по их точке зрения любой баг, потенциально приводящий к вылету системы, считался критической дырой в безопасности. Обыденный параноик видит ввод, который приводит к выводу системы и думает: «Вылет – это не так плохо, как если бы кто-то украл мои данные. Если ты не продемонстрируешь мне, как этот баг может быть использован противником, чтобы украсть данные, он не особо критичен». Кто-то с мышлением безопасника думает «Ничто внутри этой подсистемы не должно вести себя так, чтобы ОС вылетала. Какой-то раздел кода ведёт себя не так, как моя модель этого кода. Кто знает, что таам происходит? Система не должна вылетать, так что её вылет демонстрирует, что мои убеждения о том, как она работает, ошибочны.»

ЭМБЕР: Буду честна. Бывало, что меня поражало, что люди, называющие себя профессионалами в области безопасности, казались очень обеспокоенными тем, что для меня казалось крайне маловероятными сценариями. Вроде того, что кто-то забудет проверить конец буфера, а противник вкинет туда длинную строку символов, которые перепишут конец стека адресом возврата и перепрыгнут в раздел кода где-то ещё в системе, делающий то, что нужно противнику. Насколько вероятно, что это действительно будет проблемой? Я подозреваю, что в реальном мире куда вероятнее, что кто-то назначит своим паролем «пароль». Не следует ли скорее защищаться от этого?

КОРАЛ: Нужно делать и то, и то. В этой игре нет утешительных призов. Если ты хочешь, чтобы твоя система выдерживала атаку со стороны государств, тебе нужно действительно сделать её чертовски надёжной. Тот факт, что некоторые пользователи могут попробовать назначить своим паролем «пароль» не отменяет того факта, что нужно защищаться и от переполнений буфера.

ЭМБЕР: Но даже когда операционную систему проектирует кто-то с мышлением безопасника, всё равно зачастую в конце концов её успешно атакуют, верно? Так если эта глубокая паранойя не искореняет вероятность багов, то стоит ли она на самом деле дополнительных усилий?

КОРАЛ: Если созданием твоей операционной системы не руководит кто-то, думающий таким образом, то у неё нет шансов на то, что она не провалиться немедленно. У людей с мышлением безопасника иногда не получается создать надёжную систему. У людей без мышления безопасника никогда не получается создать надёжную систему, если она хоть сколько-нибудь сложна. Этот тип мышления даёт тебе шанс на то, что система простоит больше суток, пока её не взломают.

ЭМБЕР: Звучит довольно радикально.

КОРАЛ: История показывает, что реальность не волнует, что ты считаешь «радикальным», и поэтому твои лампочки с доступом к Wi-Fi – часть русского ботнета.

ЭМБЕР: Смотри, я понимаю, что тебе хочется, чтобы все крохотные кусочки системы были в точности правильными. Мне тоже нравятся чистые изящные штуки. Но давай будем рассудительнее; мы не всегда получаем что хотим.

КОРАЛ: Ты думаешь, что торгуешься со мной, но на самом деле ты торгуешься с законом Мёрфи. Я боюсь, что мистер Мёрфи на самом деле не слишком рассудителен в своих запросах и довольно непростителен по отношению к тем, кто отказывается их выполнять. Я не агитирую тебя за план действий, просто рассказываю тебе, что произойдёт, если ты не будешь ему следовать. Может, ты думаешь, что не особо плохо, если твоя лампочка выполняет DoS-атаку на магазин матрасов в Эстонии. Но если ты хочешь, чтобы система была надёжной, то надо делать некоторые вещи, и это скорее закон природы, чем требование, по которому можно торговаться.

ЭМБЕР: Нельзя торговаться, ха? Готова поспорить, ты бы сменила своё мнение, если бы кто-то предложил тебе двадцать тысяч долларов. Но всё же, я удивлена, что ты не упомянула ту часть, что люди с мышлением безопасника всегда сдают свою идею на коллегиальное исследование и принимают то, что другие люди о ней высказывают. Мне нравится, как это звучит, это кажется очень кооперативным и скромным.

КОРАЛ: Я бы сказала, что это часть обыденной паранойи, которая есть у многих программистов. Суть выставления идей на анализ других не так сложно понять, хотя, конечно, есть многие, кто не делает и этого. Если бы у меня были какие-нибудь оригинальные идеи, как вложиться в хорошо исследованную тему компьютерной безопасности, то я бы оформила их как советы мудрым параноикам, но, конечно, люди, которым они были бы нужны ещё больше – это счастливые простаки.

ЭМБЕР: Счастливые простаки?

КОРАЛ: Люди, лишённые даже обыденной паранойи. Счастливые простаки склонны рисовать в своём воображении то, как их система работает, но вовсе не спрашивают себя, как их система может провалиться, пока кто-то им это не посоветует, и даже тогда у них не получается. По крайней мере, таков мой опыт и опыт многих других в этой профессии.

Есть одна невероятно ужасная криптографическая система, эквивалент детского мата в шахматах, к которой иногда приходят совсем полные новички, а конкретно Fast XOR. Это значит выбрать пароль, повторить его много раз, и XOR-нуть данные с строкой из повторённого пароля. Человек, изобретающий такую систему, может быть вовсе не способен представить точку зрения противника. Он хочет, чтобы его чудесный шифр был невзламываемым, и он не может по-настоящему войти в состояние разума кого-то, кто хочет, чтобы его шифр был взламываемым. Если ты попросишь его «Пожалуйста, попробуй представить, что может пойти не так», он может сказать: «Ну, если пароль утерян, то данные будут навеки невосстановимы, потому что мой алгоритм шифрования слишком силён; я полагаю, это считается за то, что что-то пошло не так.» Или «Может, кто-то проведёт диверсию над моим кодом», или «Если настаиваешь, чтобы я изобретал неестественные сценарии, то, может быть, компьютер спонтанно решит не подчиняться моей программе.» Конечно, любой обыденный параноик попросит наиболее способных людей, каких только сможет найти, посмотреть на его умную идею и попробовать её обвалить, потому что другие разумы могут посмотреть с другого ракурса и знать другие техники. Но другая причина, почему мы говорим «Не заводи свою криптовалюту!» и «Дай эксперту по безопасности посмотреть на твою умную идею!» – надежда достучаться до многих людей, которые вообще не могут инвертировать полярность своих целей – они не думают таким образом сами, а если заставить их это сделать, то их мысли идут в непродуктивных направлениях.

ЭМБЕР: Это вроде… того, как Правые/Левые кажутся совершенно неспособны выйти за пределы своей драгоценной точки зрения, чтобы пройти Идеологический Тест Тьюринга Левых/Правды.

КОРАЛ: Я не знаю, в точности ли это та же самая ментальная способность, но сходство определённо есть. Кто-то, лишённый обыденной паранойи, не может представить точку зрения кого-то, кто хочет, чтобы Fast XOR взламывался и пройти Идеологический Тест Тьюринга противника, который хочет взломать Fast XOR.

ЭМБЕР: Не может или не представляет? Ты, кажется, говоришь об этом так, будто это врождённые необучаемые способности.

КОРАЛ: Ну, по меньшей мере, есть разные степени талантливости, как обычно в профессиях. И, тоже как обычно, талант сильно растёт от тренировки на практике. Но да, иногда мне кажется, что тут есть что-то вроде качественного скачка, что некоторые люди могут сдвинуть точку зрения и представить противника, который действительно хочет взломать их код… или реальность, которая не болеет за то, чтобы их план сработал, или инопланетян, у которых эволюционировали другие эмоции, или ИИ, который не хочет завершать свои рассуждения «А потом люди должны жить долго и счастливо», или вымышленного персонажа, который верит в идеологию Ситхов, и всё же не думает, что он плохой парень.

Мне иногда кажется, что некоторые люди попросту не могут так сдвинуть точку зрения. Может, не то чтобы у них действительно чего-то не хватало, но есть инстинктивный политический выключатель этой способности. Может, им страшно отпустить свои ментальные якоря. Но снаружи это выглядит всё так же: некоторые люди так делают, а некоторые нет. Некоторые спонтанно инвертируют полярность своих целей и спрашивают, как их шифр может быть взломан и находят продуктивные направления атаки. Другие ждут, пока им не предложат поискать недостатки в их шифре, или требуют, чтобы ты спорил с ними, и ждут, пока ты не выдашь аргументы, которые их удовлетворят. Если ты попросишь их предсказать, что ты можешь счесть недостатком, они скажут странные вещи, которые и близко не подойдут к прохождению твоего Идеологического Теста Тьюринга.

ЭМБЕР: Тебе, кажется, нравятся качественные разделения. Есть ли обыденные параноики получше и похуже? Есть ли спектр между «счастливым простаком» и «настоящим глубоким мышлением безопасника»?

КОРАЛ: Один очевидный количественный уровень таланта, входящего в обыденную паранойю – это насколько сильно ты можешь исказить свою точку зрения, чтобы посмотреть на вещи – креативность и эффективность атак, которые ты изобретёшь. Вроде этих примеров от Брюса Шнайера:

Uncle Milton Industries продаёт детям муравьиные фермы с 1956. Помню, несколько лет назад мы с другом распаковывали такую. В коробке не было муравьёв. Вместо этого там была карточка, в которую можно было внести свой адрес, и компания пришлёт тебе муравьёв. Мой друг удивился, что можно получить муравьёв по почте.

Я ответил: «Что действительно интересно, так это то, что эти люди пошлют банку с живыми муравьями любому, кто попросит.»

Работа в безопасности требует определённого типа мышления. Профессионалы по безопасности – по крайней мере, хорошие – видят мир по-другому. Они не могут зайти в магазин, не замечая, как бы они могли что-то украсть. Они не могут использовать компьютер, не задумываясь об уязвимостях. Они не могут голосовать, не пытаясь сообразить, как проголосовать дважды. Они ничего не могут с этим сделать.

SmartWater – это жидкость с уникальным идентификатором, привязанным к конкретному владельцу. «Идея в том, что я намажу это на свои ценные вещи как доказательство, что я их владелец», написал я, когда впервые узнал об этой идее, «Я думаю, идея получше – намазать её на чужие ценные вещи и позвонить в полицию.»

Серьёзно, ничего не можем с этим сделать.

Такой вид мышления неестественен для большинства людей. Он неестественен для инженеров. Хорошая инженерия включает рассуждения о том, как можно заставить вещи работать; мышление безопасника включает рассуждения о том, как можно заставить вещи провалиться…

Я часто раздумывал о том, насколько это врождённое, а насколько обучаемое. В общем, я думаю, это определённый способ смотреть на мир, и куда проще обучить кого-то знаниям в области – криптографии, компьютерной безопасности, взлому сейфов или подделке документов – чем мышлению безопасника.

Для ясности, разделение между «просто обыденной паранойей» и «полным мышлением безопасника» моё собственное; я думаю, стоит разделять спектр выше счастливых простаков на два уровня, а не ограничиваться одним, и лучше говорить: «Рассматривать мир под странными ракурсами – это только половина того, чему тебе надо научиться, причём простая половина.»

ЭМБЕР: Может, сам Брюс Шнайер не понимает то, что ты имеешь в виду, говоря «мышление безопасника», и ты просто украла его термин, чтобы называть им свою собственную отдельную идею!

КОРАЛ: Нет, штука с нежеланием рассуждать о том, что кто-то может когда-то зарегистрировать donotreply.com, а просто исправить это – методология недоверия тому, что ты умно поймёшь, какие проблемы всплывут – это точно часть того, что реальные профессионалы по безопасности имеют в виду под «мышлением безопасника», и это точно часть второй, более глубокой половины. Единственная необычная вещь в моём представлении – это что я формализую промежуточный навык «обыденной паранойи», заставляющий парировать воображаемую атаку, зашифровав файл с паролями и спрятав ключ шифрования в отдельной части кода файловой системы. Я подозреваю, что прийти к идее хэширования паролей – это качественно отдельный навык, действующий в пространстве твоих собственных рассуждений, а не пространстве объектного уровня систем и противников. Хоть невежливо такое говорить, и это могут воспринять как попытку прихватить себе статуса, но мой опыт с другими укоренёнными в рефлексивности навыками подсказывает, что многие люди, возможно, включая тебя, совершенно неспособны так мыслить.

ЭМБЕР: Это действительно кажется мне ужасно невежливым.

КОРАЛ: Это в самом деле может быть невежливо; не отрицаю. Ошибочно ли это – отдельный вопрос. Причина, почему я это говорю – поскольку я хочу, чтобы обыденные параноики пытались переходить на более глубокий уровень паранойи, я также хочу, чтобы они были в курсе, что это может просто оказаться не для них, в каком случае, они должны просить о помощи и слушать, что им советуют. Им не стоит считать, что раз они смогли заметить возможность посылания муравьёв не туда, то они также могут заметить и проблему с donotreply@donotreply.com.

ЭМБЕР: Может, тебе стоит называть это «глубокой надёжностью», чтобы отличать от того, что Брюс Шнайер называет «мышлением безопасника».

КОРАЛ: «Мышление безопасника» есть «обыденная паранойя» плюс «глубокая надёжность»? Я не уверена, что это очень хорошая терминология, но не буду против, если ты будешь использовать эти термины так.

ЭМБЕР: Предположим, я с этим соглашусь. Ранее ты описывала, что может пойти не так, когда счастливые простаки безуспешно пытаются быть обыденными параноиками. Что происходит, когда обыденные параноики пытаются сделать что-то, что требует навыка глубокой надёжности?

КОРАЛ: Они верят, что мудро определили, что реальная проблема, которую надо решить – это плохие пароли, и тратят всё своё время на всё более и более умные проверки на плохие пароли. Они очень впечатлены тем, как много усилий они потратили на детектирование плохих паролей, и как сильно они продемонстрировали свою заботу о надёжности системы. Они становятся жертвой стандартного когнитивного искажения, чьё название я не могу припомнить, того, когда люди пытаются решить задачу одним большим усилием или парочкой больших усилий, и потом прекращают, и больше не пытаются, поэтому люди не устраивают убежища от ураганов, когда закончили закупать запас бутилированной воды. Заплати им за то, чтобы они «попытались посильнее», и они спрячут семь ключей шифрования к файлу с паролями в семи разных местах, или построят всё более и более высокие башни в местах, где успешный противник очевидно просто обойдёт башни вокруг, если вообще будет там проходить. Что у этих идей общего – то, что они в некотором смысле «поверхностные». Они прямолинейно устроены как попытки парировать конкретные классы предвиденных атак. Они дают тебе удовлетворяющее чувство тяжёлого сражения с воображаемой проблемой – а потом они не работают.

ЭМБЕР: Ты говоришь, что проверять, не «пароль» ли пароль пользователя – не хорошая идея?

КОРАЛ: Нет, поверхностные защиты зачастую тоже хорошие идеи! Но даже тогда, кто-то с более высоким навыком попробует взглянуть на вещи более систематично; они знают, что зачастую можно найти более глубокие способы смотреть на задачу, и попробуют их найти. К примеру, крайне важно, чтобы твоя проверка паролей не отвергала пароль «правильно лошадь батарея скоба», требуя, чтобы пароль содержал хотя бы одну заглавную букву, строчную букву, цифру и знак пунктуации. На самом деле ты хочешь измерить энтропию пароля. Не провалиться, умно пресекая чью-то попытку сделать пароль «rainbow», заставляя вместо этого ввести «rA1nbow!».

Ты хочешь, чтобы у поля ввода пароля была галочка, позволяющая показать пароль в открытую, потому что твои попытки парировать воображаемый провал, когда какой-то злодей подсматривает из-за плеча пользователя, могут встать на пути того, чтобы пользователь ввёл высокоэнтропийный пароль. А пользователь вполне способен ввести свой пароль в адресной строке сверху, чтобы потом его скопировать и вставить – посылая таким образом пароль тому, кто занимается умным поиском из адресной строки. Если тебя действительно беспокоит, что какой-то злодей подсматривает из-за плеча, может, тебе стоит посылать подтверждение на телефон, а не заставлять пользователя вводить пароль в ближайшее текстовое поле, из которого он действительно может читать. Скрывая одно текстовое поле без переключателя, чтобы защититься от этой одной плохой вещи, которую ты воображаешь, выстрелив себе в ногу в других вещах и не особо то и защитившись от плохой штуки – вот беда поверхностных защит.

Архетипичный персонаж «обыденный параноик, который думает, что очень сильно старается, но на самом деле лишь городит гору поверхностных предосторожностей» – это Грозный Глаз Грюм из Гарри Поттера, у которого была целая комната Детекторов Тьмы, и которого в итоге заперли на дне чьего-то сундука. Кажется, Грозный Глаз Грюм был слишком занят покупкой ещё одного Детектора Тьмы для уже полной комнаты, и не изобрёл предосторожности достаточно глубокой и общей, чтобы она покрывала непредвиденный вектор атаки «кто-то пытается заменить меня с помощью Оборотного Зелья».

И решение – не просто добавить специальное антиоборотное зелье. В смысле, если оно у тебя есть, хорошо, но большая часть доверия системе должна браться не из этого. Первые линии обороны должны ощущаться глубокими, общими. Хэшировать файлы с паролями, а не прятать ключи; думать, как измерить энтропию пароля, а не требовать хотя бы одной большой буквы.

ЭМБЕР: Опять же, мне кажется, что это скорее количественная разница того, насколько идеи умные, а не два разных режима мышления.

КОРАЛ: Категории реального мира зачастую расплывчаты, но мне кажется, что это всё же два разных режима мышления. Моя догадка – что человек, популяризировавший требование смеси букв, чисел и символов, рассуждал не так, как человек, думающий об измерении энтропии пароля. Но назовёшь ли ты разделение качественным или количественным, оно есть. Глубокие и общие идеи – такие, которые на самом деле упрощают и усиливают обоснования надёжности системы – изобретаются реже и более редкими людьми. Чтобы создать систему, которая может сопротивляться или даже замедлить атаку нескольких противников, некоторые из которых умнее или опытнее нас самих, нужен уровень профессионально-специфического мышления, которого не стоит ожидать от каждого программиста – даже от тех, кто может представить точку зрения одного равно умного противника. Чего стоит просить у обыденного параноика – это признания того, что более глубокие идеи существуют, и старания изучить стандартные уже известные глубокие идеи; чтобы они знали, что их собственный навык – не верхний предел возможного, и чтобы они просили профессионалов проверять их рассуждения. А потом действительно слушать.

ЭМБЕР: Но если люди могут думать, что их навыки выше, чем на самом деле, то как ты можешь знать, что ты – одна из тех редких людей и правда обладающих глубоким мышлением безопасника? Не может ли твоё высокое мнение о себе быть вызвано эффектом Даннинга-Крюгера?

КОРАЛ: … Окей, это напомнило мне дать ещё одно предостережение.

Да, встречаются простаки, которые не могут поверить, что есть талант «паранойи», которого им недостаёт, и которые выдадут тебе странную имитацию паранойи, если ты попросишь их больше беспокоиться о недостатках их гениальных идей шифрования. Ещё это будут читать люди с серьёзными случаями социальной тревожности и неуверенности в себе. Читатели, способные на обыденную паранойю и даже на мышление безопасника, которые могут не попытаться развить в себе эти таланты, потому что ужасно беспокоятся, что они могут быть как раз людьми, лишь воображающими, что таланты у них есть. Что ж, если вам кажется, что вы можете почувствовать различие между глубокими и поверхностными идеями безопасности, то вам стоит хотя бы то и дело пробовать генерировать собственные мысли, которые будут соотноситься так же.

ЭМБЕР: Но не поощрит ли такое отношение сверхуверенных людей думать, что они могут быть параноидальными, хотя на самом деле не могут, в результате чего они будут слишком впечатлены своими суждениями и идеями?

КОРАЛ: Я сильно подозреваю, что они так будут делать в любом случае. Простое личное согласие быть скромным на самом деле не продвигает никакую хорошую выгодную всем коллективную практику. Сверхуверенным всё равно, что ты решишь. И если ты не беспокоишься о недооценивании себя в точности так же, как о переоценивании, если твои страхи о залезании выше, чем положено, несимметричны страхам потерянного потенциала и упущенных возможностей, то, вероятно, перед тобой стоит эмоциональная проблема, а не строгая забота о хорошей эпистемологии.

ЭМБЕР: Если у кого-то есть талант к глубокой надёжности, как его можно натренировать?

КОРАЛ: … Это чертовски хороший вопрос. Для обыденной паранойи разработаны некоторые интересные методы тренировки, вроде занятий, где ученики должны сообразить, как можно атаковать повседневные системы вне контекста информатики. Один профессор выдавал тест, в котором один из вопросов был «Первые сто цифр числа пи?» – суть была в том, что нужно найти какой-нибудь способ сжульничать, чтобы его пройти. Сначала следует натренировать такую обыденную паранойю, если это ещё не сделано.

ЭМБЕР: А потом? Как ты перейдешь от обыденной паранойи к глубокой надёжности?

КОРАЛ: … Пробовать находить более общие защиты вместо блокирования конкретных атак? Признавать, когда ты строишь всё более высокие версии башен, которые противник может просто обойти? Эх, нет, это слишком похоже на обыденную паранойю – особенно если ты начинаешь только с ней. Дай подумать.

Окей, у меня есть странноватый совет, который скорее всего не сработает. Напиши историю надёжности, на которой основывается твоё убеждение в надёжности системы. Затем спроси себя, действительно ли были включены все эмпирические допущения. Затем спроси себя, веришь ли ты на самом деле этим эмпирическим допущениям.

ЭМБЕР: То есть, вроде того, что если я создаю операционную систему, то я записываю «Допущение о надёжности: система авторизации сдерживает атакующих»—

КОРАЛ: Нет!

Эмм, нет, извини. Как обычно, кажется, что то, что я считаю «советом» опускает все важные части, которые нужны, чтобы кто-то и правда ему последовал.

Это не то, что я имела в виду, говоря «эмпирические допущения». Ты не хочешь предполагать, что часть системы «преуспела» или «провалилась» – это не тот язык, на котором это должно быть записано. Ты хочешь, чтобы элементы истории были строго фактическими, не… ценностными, целе…ориентированными? Там не должно быть рассуждений, явно упоминающих, что ты хочешь, чтобы произошло или не произошло, только язык, нейтрально описывающий фоновые факты о вселенной. Для целей брейншторма ты можешь записать «Никто не может угадать пароль какого-нибудь пользователя с опасными привилегиями», но это лишь прото-утверждение, которое нужно разложить на более базовые.

ЭМБЕР: Не думаю, что поняла.

КОРАЛ: «Никто не может угадать пароль» означает, что «Противник не сможет угадать пароль». Почему ты в это веришь?

ЭМБЕР: Понятно, ты хочешь, чтобы я переделывала сложные допущения в системы простых допущений. Но если ты продолжаешь спрашивать «почему ты в это веришь», то однажды мы дойдём до Большого Взрыва и законов физики. Откуда мне знать, где остановиться?

КОРАЛ: Надо попытаться редуцировать историю за пределы разговоров о целях вроде «противник не сможет» и вместо этого говорить о нейтральных фактах, на которых это основывается. Пока что просто ответь: Почему ты веришь, что противник не сможет угадать пароль?

ЭМБЕР: Потому что пароль слишком сложен, чтобы его можно было угадать.

КОРАЛ: Словосочетание «слишком сложен» – про цели; твои собственные желания касательно системы определяют, что такое «слишком сложен». Если не использовать язык или концепции, отсылающие к тому, что ты хочешь, какое нейтральное, фактическое описание того, что делает пароль слишком сложным для угадывания?

ЭМБЕР: Энтропия пароля достаточно высока, чтобы атакующий не смог предпринять достаточно попыток, чтобы его угадать.

КОРАЛ: Мы продвигаемся, но, опять же, термин «достаточно» связан с целями. Твои собственные желания определяют, что такое «достаточно». Можешь сказать что-то вместо этого?

ЭМБЕР: Энтропия пароля столь велика, что—

КОРАЛ: Я не имею в виду найти синоним для «достаточно». Я имею в виду, использовать другие, не связанные с целями, концепты. Это подразумевает изменение смысла того, что ты записываешь.

ЭМБЕР: Извини, видимо, я не слишком в этом хороша.

КОРАЛ: По крайней мере, пока. Может и вовсе, но это неизвестно, и не надо делать это заключение на основе одной неудачи.

В общем, я надеялась на пару заявлений вроде «Я верю, что пароль обязательно будет иметь минимум 50 бит энтропии» и «Я верю, что никакой атакующий не сможет сделать более триллиона попыток угадать какой-нибудь пароль». Где суть написания «Я верю» – это заставить себя приостановиться и задуматься, и правда ли ты в это веришь.

ЭМБЕР: Говорить, что никакой атакующий не «сможет» сделать триллион попыток – это разве само по себе не связано с целями?

КОРАЛ: В самом деле, может понадобиться разбить это предположение и дальше на «Я верю, что система отвергает попытки ввода пароля, менее чем через секунду после предыдущей, я верю, что атакующий будет делать это не больше месяца, и я верю, что атакующий будет использовать менее 300000 одновременных подключений». И тут опять же суть в том, чтобы посмотреть на написанное и сказать: «Я и вправду в это верю?». Для ясности, иногда ответ будет «Да, я точно в это верю!». Это не социальное упражнение на скромность, где ты показываешь свою способность на мучительные сомнения, а потом всё равно делаешь то же самое. Суть в том, чтобы понять, во что ты веришь, и во что тебе надо верить, и проверить, надёжно ли это.

ЭМБЕР: И это тренирует глубокое мышление безопасника?

КОРАЛ: … Мооожет быыыыть? Я навскидку предполагаю, что это может работать. Это может заставить тебя думать в терминах историй и предположений о паролях и противниках, а это помещает твой разум в состояние, которое, я думаю, по крайней мере, часть этого навыка.

На самом деле, настоящая причина, почему автор указывает эту методологию – он сейчас пытается делать что-то похожее с задачей согласования Сильного Искусственного Интеллекта, и он хочет продвинуться дальше, чем «Я верю, что Мой СИИ не убьёт всех», куда-то в сторону записывания утверждений, вроде «Хоть пространство потенциальных весов этой рекуррентной нейросети и содержит комбинации весов, которые бы сообразили, как убить программистов, я верю, что градиентный спуск на функции потерь L приведёт только в подпространство Q с свойствами P, и я верю, что пространство с свойствами P не включает комбинаций весов, таких, что нейросеть с ними сообразит, как убить программистов.»

Хотя это само по себе не по-настоящему редуцированное утверждение, и в нём всё ещё слишком много языка целей. Реалистичный пример вывел бы нас за пределы основной темы этого эссе. Но автор надеется, что практика такого способа мыслить может помочь людям создавать более твёрдые истории про надёжные системы, если у них уже есть обыденная паранойя и некоторые таинственные врождённые таланты.

Продолжение: Мышление Безопасника и Логистическая Кривая Успеха

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 3.5 (4 votes)

Наука выигрывания в повседневной жизни

Фрагменты цепочки от Люка Мелхаузера, которая обобщает основанные на научных данных советы для «выигрывания» в повседневной жизни. Цепочка посвящена повышению работоспособности, улучшению отношений, работе с эмоциями и так далее.

Автор: 
Люк Мелхаузер

Научные основы самопомощи. Что мы о них знаем?

Люк Мюльхаузер

Примечание редактора: Эта статья была написана в 2011 году. С тех пор могли появиться новые исследования, о которых автор статьи знать не мог.

Некоторые читатели предположили, что сообщество Less Wrong улучшало бы инструментальную рациональность участников эффективнее, если бы оно сначала освоило имеющуюся научную литературу по продуктивности и самопомощи, а затем сподвигло читателей сознательно тренировать навыки самопомощи и применять изученное в реальной жизни.

Мне нравится эта идея. Эта статья представляет из себя краткий обзор самопомощи с научной точки зрения — профессионалы называют соответствующую область «психологией адаптации». Сначала я опишу состояние индустрии самопомощи и научной литературы, затем я вкратце изложу доступные научные данные по трём темам самопомощи: методы обучения, продуктивность и счастье.

Индустрия самопомощи и научная литература

Как вы наверное знаете, большая часть индустрии самопомощи — это фикция, над которой можно лишь посмеяться. Большинство книг о самопомощи написаны, чтобы их можно было продать, а не для помощи людям. Популярная психологияскорее миф, а не что-то реальное. Как пишет Кристофер Бакли(Buckley, 2009): «Чем больше люди читают [книг о самопомощи], тем больше они думают, что им нужны эти книги… Это больше напоминает зависимость, чем на союз».

Где вы сможете найти надёжный и подтверждённый эмпирически совет по самопомощи? Несколько ведущих психологов-терапевтов (например, Альберт Эллис, Арнольд Лазарус, Мартин Селигман) написали книги о самопомощи, основанные на десятках исследований, но даже в этих книгах зачастую даются рекомендации, которые всё ещё спорны, потому что они пока не являются частью устоявшейся науки.

Клейтон Такер-Ладд исследовал самопомощь всю жизнь. Несколько десятков лет он писал и правил «Психологическую самопомощь» (pdf). Эта книга является обзором, что учёные знают и не знают о методах самопомощи (на 2003 год), однако, в ней более 2000 страниц и большая их часть содержит скорее научные мнения, а не экспериментальные результаты, потому что по многим вопросам экспериментальных результатов пока нет. Существует интернет-сообщество, в котором люди делятся, какие приёмы из этой книги у них работают, а какие нет.

Быстрее принесёт пользу «59 секунд» Ричарда Вайсмана. Вайсман - экспериментальный психолог и исследователь паранормальных явлений. Он собрал научно-обоснованную часть исследований самопомощи и оформил её в короткую, весёлую и полезную книгу в стиле Малкольма Гладуэлла. Следующая по хорошести популярная книга о самопомощи в целом - это, скорее всего, «Что вы можете изменить и чего вы не можете» Мартина Селигмана.

Есть две большие книги, в которых оцениваются сотни популярных книг по самопомощи, исходя из мнения профессиональных психологов, и даются советы, как выбрать книгу по самопомощи. К сожалению, их ценность невысока, поскольку мнения даже профессиональных психологов часто расходятся с эмпирическими данными. Подробно об этом можно прочитать в работах Скотта Лилиенфельда и других: «Наука и псевдонаука в клинической психологии» и «Navigating the Mindfield». По этим двум работам можно оценить, что известно и что неизвестно согласно эмпирическим исследованиям (а не по мнению экспертов). Лилиенфельд к тому же является редактором полезного журнала «Scientific Review of Mental Health Practice». Также он собрал список вредного психологического лечения. Ещё можно посмотреть «A guide to treatments that work» Натана и Гормана, «What works for whom?» Рота и Фонаджи, и, более общую, «Как думать прямо о психологии» Становича.

Много книг самопомощи написаны как «один размер подходит для всех», но конечно же это редко применимо в психологии, что приводит к разочарованию читателя (Norem & Chang, 2000). Но психологи проверили эффективность чтения отдельных проблемо-ориентированных книг самопомощи («библиотерапии»)1. Например, судя по всему, чтение «Хорошего самочувствия» Дэвида Бёрнса помогает при депрессии в той же степени, что и индивидуальная или групповая терапии. Результаты варьируются от книги к книге.

Есть как минимум четыре университетских учебника, которые учат базовой научной самопомощи. Первый - это Psychology Applied to Modern Life: Adjustment in the 21st Century by Weiten, Dunn и Hammer. Он дорогой, но можно предварительно просмотреть его здесь. Остальные - это Human Adjustment by Santrock, Psychology for Living by Duffy и Psychology and the Callenges of Life by Nevid & Rathus.

Если бы вы могли прочесть только одну книгу о самопомощи, я бы порекомендовал Psychology Applied to Modern Life: Adjustment in the 21st Century by Weiten, Dunn и Hammer2. К сожалению, как и в случае «Психологической самопомощи» Такер-Ладда, многие главы этой содержат обзор научного мнения, а не экспериментальные результаты. Слишком мало было поставлено экспериментов!

В личной переписке со мной Вейтон заметил:

Ты пытаешься что-то найти примерно посреди чёрной дыры эмпирических исследований… В сущности, почти всё написанное по этой теме подчёркивает полное отсутствие свидетельств.

Наверное, я слишком циничен, но я подозреваю, что эмпирических проверок нет, потому что авторы книг о самопомощи и тайм-менеджменте сильно сомневаются, что получат благоприятные результаты. Следовательно, им не интересно настаивать на таких исследованиях, ведь они могут подорвать их продажи и лишить возможности написать следующую книгу. Другая причина в том, что у большинства авторов таких книг мало или совсем нет исследовательского опыта. Если рассуждать менее цинично, другая причина в том, что при необходимом исследовании возникли бы такие же огромные сложности, которые появляются, когда мы оцениваем эффективность различных подходов к терапии. Правильно оценивать эффективность разных видов терапий чрезвычайно сложно, и потому такие исследования требуют очень больших денег.

Когда я связывался с другими ведущими исследователями в психологии адаптации, они высказывали примерно такое же мнение.

Некоторые научные советы

Тем не менее, какие-то полезные советы психология как наука дать может. Я сосредоточусь на двух областях, которые особо интересны сообществу Less Wrong — учёбе и продуктивности, — а также на одной области, интересной всем — счастье.

Методы обучения

Когда вы хотите что-то выучить, упорядочивайте информацию, например, составляйте конспект (Einstein & McDaniel 2004; Tigner 1999; McDaniel et al. 1996). Зубрёжка не работает (Wong 2006). Составьте себе расписание, по которому вы будете учиться (Allgood et al. 2000). Проверяйте усвоение материала (Karpicke & Roediger 2003; Roediger & Karpicke 2006a; Roediger & Karpicke 2006b; Agarwal et al. 2008; Butler & Roediger 2008) и делайте это периодически, с перерывом между сеансами обучения 24 часа и более (Rohrer & Taylor 2006; Seabrook et al 2005; Cepeda et al. 2006; Rohrer et al. 2005; Karpicke & Roediger 2007). Проще говоря: используйте Anki.

Чтобы хранить в памяти изученное более эффективно, попробуйте акростихи (Hermann et al. 2002), метод ссылок (Iaccino 1996; Worthen 1997) и метод локусов (Massen & Vaterrodt-Plunnecke 2006; Moe & De Beni 2004; Moe & De Beni 2005).

Продуктивность

К сожалению, эксперименты в области продуктивности и тайм-менеджмента проводились реже, чем в области обучения. Если вы хотите получить обзор научных мнений о продуктивности, я рекомендую страницы 121-126 в Psychology Applied to Modern Life. Согласно этим страницам, профессионалы сходятся примерно на следующем:

  • Решать правильные задачи гораздо важнее, чем решать задачи эффективно. Более того, главная причина прокрастинации — это излишняя концентрация на повышении эффективности. Говорите «нет» чаще и используйте время для задач, которые действительно важны.
  • Делегируйте ответственность как можно чаще. Выкидывайте ненужные задачи и вещи.
  • Записывайте, как используете время. (Quantified Self может помочь.)
  • Записывайте свои цели. Разбивайте их на цели поменьше, и разбивайте те на выполнимые задачи. Планируйте эти задачи в календаре.
  • Проверяйте заметки и почту один раз. Выполняйте одну задачу за раз и группируйте похожие задачи вместе.
  • Используйте время простоя (полёты, проезды в автобусе, ожидание в очереди к доктору). В наше время многие из задач могут быть решены на смартфоне.

Почему исследований продуктивности так мало? Ведущий исследователь в этой области, Пирс Стил, в личной переписке объяснил мне так:

Наука обычно развивается от описания к экспериментам, и исследования прокрастинации находятся лишь на начальной стадии. Конкретно о прокрастинации работ почти нет, но есть много работ по более широкой области самоконтроля… многие результаты должны сохраниться, так как основы у этих явлений совпадают. Например, я совершенно уверен, что постановка целей работает, поскольку существуют около тысячи исследований об этом в области мотивации (не только конкретно прокрастинации). С другой стороны, мы строим поведенченскую лабораторию, так что мы можем проверить многие из этих техник в лоб, что несомненно нужно сделать.

Стил написал на эту тему книгу «Уравнение прокрастинации», которую я очень рекомендую.

Счастье

Существует множество исследований о факторах, которые коррелируют с субъективным благополучием (личной оценкой человека своего счастья и довольства жизнью).

Факторы, которые слабо коррелируют со счастьем включают в себя: возраст3, пол4, наличие детей5, интеллект6, физическую привлекательность7 и богатство8 (пока вы выше черты бедности). Факторы, средне коррелирующие со счастьем, включают в себя: здоровье9, социальную активность10 и религиозность11. Факторы, сильно коррелирующие со счастьем: генетика12, удовлетворённость любовью и отношениями13, удовлетворение работой14.

Для многих из этих факторов с некоторой достоверностью продемонстрирована и причинно-следственная связь, но это слишком сложная история для этой статьи

Заключение

Многие профессионалы построили свою карьеру после призыва Джорджа Миллера «выпустить психологию» в массы для улучшения благополучия людей. В результате, чтобы проверить, какие методы самопомощи работают, а какие нет, были проведены сотни экспериментов. Мы можем использовать это знание для достижения своих целей.

Но впереди остаётся ещё много работы. Многие особенности человеческой психологии и поведения изучены недостаточно хорошо. Многие методы самопомощи, описанные в научно-популярной и академической литературе, пока не проверены экспериментально. Если вы рассматриваете психологию как карьеру и (1) вы хотите улучшить благополучие людей, (2) получить финансирование исследований, (3) изучить область, которая недостаточно разработана, и (4) получить шанс написать книгу-бестселлер о самопомощи, когда вы закончите исследование, тогда пожалуйста, рассмотрите карьеру в экспериментальной проверке различных методов самопомощи. Человечество скажет вам за это спасибо.

Список литературы

Abdel-Khalek (2006). «Happiness, health, and religiosity: Significant relations.» Mental Health, 9(1): 85-97.

Agarwal, Karpicke, Kang, Roediger, & McDermott (2008). «Examining the testing effect with open- and closed-book tests.» Applied Cognitive Psychology, 22: 861-876.

Allgood, Risko, Alvarez, & Fairbanks (2000). «Factors that influence study.» In Flippo & Caverly, (Eds.), Handbook of college reading and study strategy research. Mahwah, NJ: Erlbaum.

Argyle (1999). «Causes and correlates of happiness.» In Kahneman, Diener, & Schwartz (Eds.), Well-being: The foundations of hedonic psychology. New York: Sage.

Argyle (2001). The Psychology of Happiness (2nd ed.). New York: Routledge.

Buckley (1998). God is My Broker: A Monk-Tycoon Reveals the 7 1/2 Laws of Spiritual and Financial Growth. New York: Random House.

Butler & Roediger (2008). «Feedback enhances the positive effects and reduces the negative effects of multiple-choice testing.» Memory & Cognition, 36(3).

Chida, Steptoe, & Powell (2009). «Religiosity/Spirituality and Mortality.» Psychotherapy and Psychosomatics, 78(2): 81-90.

Cepeda, Pashler, Vul, Wixted, & Rohrer (2006). «Distributed practice in verbal recall tasks: A review and quantitative synthesis.» Psychological Bulletin, 132: 354-380.

Diener, Sandvik, Seidlitz, & Diener (1993). «The relationship between income and subjective well-being: Relative or absolute?» Social Indicators Research, 28: 195-223.

Diener, Wolsic, & Fujita (1995). «Physical attractiveness and subjective well-being.» Journal of Personality and Social Psychology, 69: 120-129.

Diener, Gohm, Suh, & Oishi (2000). «Similarity of the relations between marital status and subjective well-being across cultures.» Journal of Cross-Cultural Psychology, 31: 419-436.

Diener & Seligman (2002). «Very happy people.» Psychological Science, 13: 80-83.

Diener & Seligman (2004). «Beyond money: Toward an economy of well-being.» Psychological Science in the Public Interest, 5(1): 1-31.

Diener, Kesebir, & Tov (2009). «Happiness» In Leary & Hoyle (Eds.), Handbook of Individual Differences in Social Behavior (pp. 147-160). New York: Guilford.

Einstein & McDaniel (2004). Memory Fitness: A Guide for Successful Aging. New Haven, CT: Yale University Press.

Frey & Stutzer (2002). «What can economists learn from happiness research?» Journal of Economic Literature, 40: 402-435.

Hermann, Raybeck, & Gruneberg (2002). Improving memory and study skills: Advances in theory and practice. Ashland, OH: Hogrefe & Huber.

Iaccino (1996). «A further examination of the bizarre imagery mnemonic: Its effectiveness with mixed context and delayed testing. Perceptual & Motor Skills, 83: 881-882.

Inglehart (1990). Culture shift in advanced industrial society. Princeton, NJ: Princeton University Press.

Johnson & Krueger (2006). «How money buys happiness: Genetic and environmental processes linking finances and life satisfaction.» Journal of Personality and Social Psychology, 90: 680-691.

Judge & Klinger (2008). «Job satisfaction: Subjective well-being at work.» In Eid & Larsen (Eds.), The science of subjective well-being (pp. 393-413). New York: Guilford.

Kahneman, Krueger, Schkade, Schwarz, & Stone (2006). «Would you be happier if you were richer? A focusing illusion.» Science, 312: 1908-1910.

Kasser (2002). The high prices of materialism. Cambridge, MA: MIT Press.

Kasser, Ryan, Couchman, & Sheldon (2004). «Materialistic values: Their causes and consequences.» In Kasser & Kanner (Eds.), Psychology and consumer culture: The struggle for a good life in a materialistic world. Washington DC: American Psychological Association.

Karpicke & Roediger (2003). «The critical importance of retrieval for learning.» Science, 319: 966-968.

Karpicke & Roediger (2007). «Expanding retrieval practice promotes short-term retention, but equally spaced retrieval enhances long-term retention.» Journal of Experimental Psychology: Learning, Memory, and Cognition, 33(4): 704-719.

Lucas & Diener (2008). «Personality and subjective well-being.» In John, Robins, & Pervin (Eds.), Handbook of personality: Theory and research (pp. 796-814). New York: Guilford.

Lyubomirsky, Sheldon, & Schkade (2005). «Pursuing happiness: The architecture of sustainable change.» Review of General Psychology, 9(2), 111-131.

Lykken & Tellegen (1996). «Happiness is a stochastic phenomenon.» Psychological Science, 7: 186-189.

Lykken (1999). Happiness: The nature and nurture of joy and contentment. New York: St. Martin’s.

Massen & Vaterrodt-Plunnecke (2006). «The role of proactive interference in mnemonic techniques.» Memory, 14: 189-196.

McDaniel, Waddill, & Shakesby (1996). «Study strategies, interest, and learning from Text: The application of material appropriate processing.» In Herrmann, McEvoy, Hertzog, Hertel, & Johnson (Eds.), Basic and applied memory research: Theory in context (Vol 1). Mahwah, NJ: Erlbaum.

Miller (1969). «On turning psychology over to the unwashed.» Psychology Today, 3(7), 53–54, 66–68, 70, 72, 74.

Moe & De Beni (2004). «Studying passages with the loci method: Are subject-generated more effective than experimenter-supplied loci?» Journal of Mental Imagery, 28(3-4): 75-86.

Moe & De Beni (2005). «Stressing the efficacy of the Loci method: oral presentation and the subject-generation of the Loci pathway with expository passages.» Applied Cognitive Psychology, 19(1): 95-106.

Myers (1992). The pursuit of happiness: Who is happy, and why. New York: Morrow.

Myers & Diener (1995). «Who is happy?» Psychological Science, 6: 10-19.

Myers & Diener (1997). «The pursuit of happiness.» Scientific American, Special Issue 7: 40-43.

Myers (1999). «Close relationships and quality of life.» In Kahnemann, Diener, & Schwarz (Eds.), Well-being: The foundations of hedonic psychology. New York: Sage.

Myers (2008). «Religion and human flourishing.» In Eid & Larsen (Eds.), The science of subjective well-being (pp. 323-346). New York: Guilford.

Nickerson, Schwartz, Diener, & Kahnemann (2003). «Zeroing in on the dark side of the American dream: A closer look at the negative consequences of the goal for financial success.» Psychological Science, 14(6): 531-536.

Nolen-Hoeksema (2002). «Gender differences in depression.» In Gotlib & Hammen (Eds.), Handbook of Depression. New York: Guilford.

Proulx, Helms, & Cheryl (2007). «Marital quality and personal well-being: A Meta-analysis.» Journal of Marriage and Family, 69: 576-593.

Roediger & Karpicke (2006a). «Test-enhanced learning: Taking memory tests improves long-term retention.» Psychological Science, 17: 249-255.

Roediger & Karpicke (2006b). «The power of testing memory: Basic research and implications for educational practice.» Perspectives on Psychological Science, 1(3): 181-210.

Riis, Loewenstein, Baron, Jepson, Fagerlin, & Ubel (2005). «Ignorance of hedonic adaptation to hemodialysis: A study using ecological momentary assessment.» Journal of Experimental Psychology: General, 134: 3-9.

Rohrer & Taylor (2006). «The effects of over-learning and distributed practice on the retention of mathematics knowlege. Applied Cognitive Psychology, 20: 1209-1224.

Rohrer, Taylor, Pashler, Wixted, & Cepeda (2005). «The Effect of Overlearning on Long-Term Retention.» Applied Cognitive Psychology, 19: 361-374.

Ross & Van Willigen (1997). «Education and the subjective quality of life.» Journal of Health & Social Behavior, 38: 275-297.

Seabrook, Brown, & Solity (2005). «Distributed and massed practice: From laboratory to class-room.» Applied Cognitive Psychology, 19(1): 107-122.

Solberg, Diener, Wirtz, Lucas, & Oishi (2002). «Wanting, having, and satisfaction: Examining the role of desire discrepancies in satisfaction with income.» Journal of Personality and Social Psychology, 83(3): 725-734.

Stubbe, Posthuma, Boomsa, & De Geus (2005). «Heritability and life satisfaction in adults: A twin-family study.» Psychological Medicine, 35: 1581-1588.

Tigner (1999). «Putting memory research to good use: Hints from cognitive psychology.» College Teaching, 47(4): 149-151.

Van Boven (2005). «Experientialism, materialism, and the pursuit of happiness.» Review of General Psychology, 9(2): 132-142.

Warr (1999). «Well-being and the workplace.» In Kahneman, Diener, & Schwartz (Eds.), Well-being: The foundations of hedonic psychology. New York: Sage.

Wong (2006). Essential Study Skills. Boston: Houghton Mifflin.

Worthen (1997). «Resiliency of bizarreness effects under varying conditions of verbal and imaginal elaboration and list composition. Journal of Mental Imagery, 21: 167-194.

  • 1. Прочитайте хороший обзор литературы в книге Бергсма, «Do Self-Help Books Help?» (2008).
  • 2. Я рекомендую 10-е издание, в котором по сравнению с 9-м внесли значительные улучшения, в том числе 4500 новых ссылок.
  • 3. Возраст и счастье не связаны между собой(Lykken 1999), влияние возраста на счастье людей составляет меньше 1% (Inglehart 1990; Myers & Diener 1997).
  • 4. Несмотря на то, что женщины вдвое чаще болеют депрессией, чем мужчины(Nolen-Hoeksema 2002), женщины оценивают своё благополучие не хуже, чем мужчины (Myers 1992).
  • 5. Поскольку люди с детьми и бездетные одинаково счастливы (Argyle 2001), судя по всему, радости и стрессы родительства уравновешивают друг друга.
  • 6. Судя по всему, ни IQ, ни успехи в учёбе не влияют на счастье(Diener et al. 2009; Ross & Van Willigen 1997).
  • 7. У людей с красивой внешностью есть много преимуществ, но они не оценивают своё счастье выше, чем другие (Diener et al. 1995).
  • 8. Корреляция между доходами и счастьем удивительно мала (Diener & Seligman 2004; Diener et al. 1993; Johnson & Krueger 2006). Возможно, проблема в том, что высокие доходы способствуют большему материализму, который мешает счастью (Frey & Stutzer 2002; Kasser et al. 2004; Solberg et al. 2002; Kasser 2002; Van Boven 2005; Nickerson et al. 2003; Kahneman et al. 2006).
  • 9. Люди с инвалидностью счастливее, чем вы могли бы подумать (Myers 1992; Riis et al. 2005; Argyle 1999).
  • 10. Те, кого устраивает их социальная жизнь, в среднем более счастливы, чем другие (Diener & Seligman 2004; Myers 1999; Diener & Seligman 2002).
  • 11. Религиозность коррелирует со счастьем (Abdel-Kahlek 2005; Myers 2008), хотя, возможно, причина здесь не в религиозных убеждениях, а религиозных сообществах(Chida et al. 2009).
  • 12. Счастье в будущем легче всего прогнозировать, опираясь на счастье в прошлом(Lucas & Diener 2008). Счастья удивительно сложно лишить внешними факторами(Lykken & Tellegen 1996), поскольку генетика отвечает примерно за 50% различия в уровне счастья (Lyubomirsky et al. 2005; Stubbe et al. 2005).
  • 13. Люди в браке счастливее одиноких и разведённых (Myers & Diener 1995; Diener et al. 2000), и по удовлетворению браком можно предсказывать счастье (Proulx et al. 2007).
  • 14. Отсутствие работы делает людей очень несчастными (Argyle 2001), а удовлетворение от работы сильно коррелирует со счастьем (Judge & Klinger 2008; Warr 1999).
Перевод: 
SamMetalWorker, Alaric
Оцените качество перевода: 
Средняя оценка: 4.3 (7 votes)

Как перестать откладывать дела

Люк Мюльхаузер

Введение

«Ибо не понимаю, что делаю: потому что не то делаю, что хочу, а что ненавижу, то делаю» — апостол Павел, послание к Римлянам, 7:15.

Когда вы понимаете, как использовать байесианское мышление, возникает соблазн решать все привычные задачи «с нуля» только при помощи новых навыков рациональности. Но часто более эффективно будет воспользоваться вашей эрудицией и по меньшей мере сначала определить, что же вы точно знаете о предмете проблемы.

Сегодня, я хочу решить проблему прокрастинации путем подытоживания того, что мы о ней знаем и как с ней бороться.

Позвольте мне начать с описания трёх типичных ситуаций…

Эдди посетил курсы по продажам, прочёл все книги и повторил перед зеркалом этим утром все обязательства для себя. Теперь ему нужно совершить первую продажу. Один отказ за другим деморализуют его. Он переставляет вещи на столе, бродит по сайтам Интернета и откладывает холодные звонки до тех пор, пока потенциальные клиенты не уйдут с работы домой.

Три кадра подряд Валери сидит, уставившись на пустой документ в Microsoft Word. Ей нужно завтра сдать это отупляюще скучное сочинение по муниципальной политике. Она решает, что ей нужен перерыв, переписывается с друзьями, смотрит ТВ-шоу, после чего обнаруживает, что мотивации писать стало ещё меньше. В 10 вечера она наконец ныряет в работу, но результат соответствует затраченному времени: он ужасен.

В квартире ниже этажом Том готовится заранее. Он получил визу, купил билеты на самолёт и заказал себе отдых на время отпуска в Доминиканской республике. Ему осталось ещё зарезервировать комнату в отеле, но это можно сделать в любое время. Том всё переносит это дело на следующий день недели, а в итоге и вовсе о нём забывает. Собирая вещи, он вспоминает, что надо заказать комнату, но к этому моменту уже нет ничего вблизи пляжа. Прибыв на место, он обнаруживает, что его комната находится в 10 кварталах от пляжа и украшена дохлыми комарами.

Эдди, Валери и Том стали жертвами склонности откладывать дела на потом, но она по-разному у них проявилась1.

Проблема Эдди — заниженные ожидания. Он рассчитывает лишь на провал. Эдди имеет заниженный уровень ожидания успеха от того, что он сделает следующий «холодный» звонок. Результаты 39-и исследований прокрастинации показывают, что низкий уровень ожиданий это основная причина прокрастинации. Вы сомневаетесь в своей способности следовать диете. Вы не думаете, что получите работу. Вам следует чаще выходить наружу и встречаться с девушками, чтобы учиться флиртовать, но вы настроены на то, что они откажут и поэтому вы откладываете. Вы научились быть беспомощными.

Проблема Валери в том, что её задача имеет для неё низкую ценность. Все мы откладываем то, что нам не нравится. Легко пойти на встречу с друзьями чтобы выпить или пойти поиграть в видеоигру; не так легко начать выполнять свои обязанности. Это не только очевидно, но и подтверждено рядом научных исследований. Мы откладываем те вещи, которые не хотим делать.

Но наиболее надёжным признаком склонности откладывать дела на потом является проблема Тома: импульсивность. Для Тома было бы легко забронировать отель, но он предпочел отвлечься на более срочные или интересные вещи и даже не помнил о бронировании отеля до последнего момента, что оставило его с весьма бедным выбором комнат. Научные исследования показали, что прокрастинация тесно связана с импульсивностью.

Импульсивность сочетается с более общим компонентом склонности откладывать дела на потом: временем. Влияние события на наши решения снижается по мере увеличения расстояния до него во времени. Нас меньше мотивируют отложенные награды, чем немедленные, и чем вы импульсивней, тем больше на вашу мотивацию влияют такие задержки.

Ожидания, ценность, задержка и импульсивность — это четыре основных компонента склонности откладывать дела на потом. Пирс Стил (Piers Steel), ведущий исследователь в этой области, объясняет:

Понизьте определённость или размер награды за выполнение задачи — т.е. ожидания или ценность — и вряд ли вам хватит энтузиазма её завершить. Увеличьте задержку до получения награды и нашу восприимчивость к такой задержке — импульсивность — и мотивация снова упадёт.

Уравнение прокрастинации

Из этого можно вывести «уравнение прокрастинации»: мотивация равняется ожиданиям умноженным на ценность, делённым на импульсивность и задержку.

Уравнение

И хотя изучение этого явления продолжается, уже сейчас есть уравнение прокрастинации, которое было получено из основных выводов о прокрастинации и опирается на наши лучшие текущие теории о мотивации.

Увеличьте размер награды за решение задачи (включая как удовольствие работы над задачей, так и величину постэффектов), и ваша мотивация вырастет. Увеличьте предполагаемые шансы на награду и мотивация тоже вырастет.

Как вы могли уже заметить, часть уравнения, касающаяся влияния размера награды и шансов её получить, представляет собой одно из основных уравнений теории ожидаемой полезности, лежащей в основе современной экономики. Но одним из важнейших аргументов против стандартной экономической теории является то, что она не учитывает время. Например, в 1991 году Джордж Акерлоф (George Akerlof) заметил, что мы иррационально считаем текущие издержки более важными, чем будущие издержки. Это привело к расцвету поведенческой (бихевиористской) экономики, учитывающей время (помимо прочего).

Следовательно, знаменатель, который дает такой эффект для нашей мотивации делать задачу — это время. Чем больше промежуток между нами и ожидаемой наградой за решение задачи, тем меньше нам хочется делать эту задачу. Негативный эффект этой задержки, влияющий на нашу мотивацию, усиливается нашим уровнем импульсивности. Для очень импульсивных людей, задержки наносят очень большой ущерб их мотивации.

Уравнение прокрастинации в действии

В качестве примера рассмотрим студентку колледжа, которая должа написать статью на заданную тему. Однако к сожалению для нее, колледжи создали идеальный шторм компонентов прокрастинации. Во-первых, хотя значение статьи для ее оценки может быть высоким, непосредственная оценка этого значения может быть в данной момент низкой, особенно если ей так же, как и многим студентам, не хочется писать статьи. Более того, скорее всего вряд ли она ожидает высокую оценку. Измерить производительность тяжело, и нередко если эссе проверяют два разных профессора, они могут поставить весьма разные оценки: эссе на четверку может получить пятерку, если повезет, или тройку, если не повезет. Также присутствует и большая задержка во времени, поскольку статья нужна к концу семестра. Если наша студентка имеет импульсивный характер, отрицательный эффект этой задержки на ее мотивацию писать статью значительно усиливается. Написание статьи — тяжелое занятие (низкая оценка), результаты неопределенные (малые ожидания) и срок сдачи далеко (большая задержка).

И это еще не все. Аудитории колледжа и комнаты кампуса в общем, можно назвать самыми отвлекающими местами на земле. Всегда есть возможности повеселиться (клубы, вечеринки, отношения, игры, встречи, алкоголь) что всегда под рукой и доступны. Неудивительно, что задача написания статьи не может конкурировать. Эти потенциальные помехи усиливают отрицательный эффект задержки награды за выполнение задачи и отрицательный эффект импульсивности студентки.

Как побороть склонность откладывать дела на потом

Хотя уже много известно о явлениях нейробиологии, стоящих за прокрастинацией, я не буду здесь этого касаться. Вместо этого, давайте перейдем прямо к вариантам решения нашей проблемы с прокрастинацией.

Теперь, когда вы знаете уравнение прокрастинации, наша общая стратегия очевидна. Так как обычно вы мало что можете сделать с задержкой награды за выполнение задачи, мы сконцентрируемся на трех частях уравнения прокрастинации, над которыми мы имеем контроль. Чтобы побороть прокрастинацию нам нужно:

  1. Повысить ожидание успеха
  2. Повысить ценность задачи (сделать её более приятной и поощряющей)
  3. Понизить импульсивность

Вы можете подумать, что эти вещи вовсе не под вашим контролем, однако исследователи нашли несколько полезных методов реализации этих задач.

Большинство советов ниже взято из лучшей доступной книги о прокрастинации, «Уравнение прокрастинации» Пирса Стила, в которой эти методы объяснены более подробно.

Оптимизация оптимизма

Если вы не думаете, что можете преуспеть, у вас мало мотивации делать то, что нужно. Скорее всего вы слышали совет «Будь позитивней!» Но как? К настоящему времени исследователи выявили три основных методики увеличения оптимизма: спирали успеха, заместительная победа, мысленное сравнение.

Спирали успеха

Одним из способов построить свой успешный оптимизм является использование спиралей успеха. Достигая одну стимулирующую цель за другой, вы, разумеется, набираетесь уверенности в своей способности добиваться успеха. Итак: задайте себе серию значимых, трудных, но достижимых целей и выполните их! Настройте себя на успех, снова и снова делая то, в чём вы можете преуспеть, чтобы поддерживать уверенность в себе на высоком уровне.

Стил рекомендует это для новичков: «зачастую лучше всего — иметь цели процесса или обучения, а не цели продукта либо результата. То есть цели приобретения или оттачивания новых навыков либо этапов (процесса), нежели цели победить или получить максимальный счёт (результат)».

Туристические курсы и похожие виды спорта (сплав по горным рекам, скалолазание, палаточный туризм и т.п.) — великолепный выбор для этого. Выучите новый навык, будь это кулинария или карате. Возьмите на себя больше ответственности на работе или в своём сообществе. Продвиньте любимое хобби на более высокий уровень. Главное — достигать одну цель за другой и уделять внимание своим успехам. Ваш мозг наградит вас увеличением ожидания успеха, а значит — повышением способности справляться со склонностью откладывать дела на потом.

Заместительная победа

И пессимизм, и оптимизм заразны. Где бы вы ни были, у вас, вероятно, есть доступ к сообществам, отлично подходящим для повышения позитива: мастера тостов, клубы «ротари» (по одному представителю от разных свободных профессий), фонды популяризации знаний («лоси»), религиозные общины и прочие. Рекомендую посетить 5-10 подобных групп в вашей местности и присоединиться к наилучшей из них.

Также можно увеличить оптимизм, просматривая вдохновляющее кино, читая вдохновляющие биографии и слушая мотивирующих ораторов.

Мысленное сравнение

Многие популярные книги по помощи себе советуют творческую визуальзацию — методику регулярно и наглядно представлять себе то, чего хотите достичь: машину, карьеру, достижения. Удивительным образом, исследования показали, что этот метод на самом деле может понизить вашу мотивацию.

Но это если не добавить другой важный шаг: мысленное сравнение. Представив себе то, чего хотите достичь, мысленно сравните это с тем, в каком положении находитесь сейчас. Представьте свою старую ржавую машину и свой маленький счёт в банке. Это обозначит текущую ситуацию как препятствие, которое нужно преодолеть, чтобы осуществить свои мечты, что стимулирует процесс планирования и приложения усилий.

Предостережение против чрезмерного оптимизма

И наконец, должен заметить, что избыток оптимизма тоже может быть проблемой, хоть и встречается реже. Например, избыточный оптимизм в оценке того, сколько времени займёт выполнение задачи, может привести к тому, что вы будете её откладывать до последней минуты, когда выяснится, что уже слишком поздно. Нечто вроде книги «Секрет» Ронды Бирн (Rhonda Byrne) может быть чересчур оптимистичным.

Как себя защитить от избытка оптимизма? Планируйте с учётом худшего, но надейтесь на лучшее. Уделяйте внимание тому, как именно вы откладываете дела на потом, стройте запасные планы на случай провала, но используйте описанные в этой главе способы, чтобы достичь как можно большего успеха.

Увеличение ценности

Трудно быть мотивированным что-то сделать, что не имеет особой ценности для нас — или ещё хуже, просто неприятно. Хорошая новость в том, что эта ценность в некоторой степени искусственная и относительная. Эластичность ценности — это хорошо изученная область, называемая психофизикой, и у исследователей есть несколько советов, как добавить ценность в необходимые задачи.

Поток

Если задача, которую вы избегаете, скучна, постарайтесь сделать её более трудной, настолько, чтобы уровень трудности соответствовал вашим текущим навыкам, и вы достигнете состояния «потока». Это то, что делали полицейские в фильме «Суперполицейские»: они придумывали странные игры и задачи, чтобы сделать скучную работу выполнимой. Миртл Янг сделала свою работу на фабрике картофельных чипсов более интересной и сложной, выискивая чипсы, похожие на знаменитостей, и откладывая их с конвейера.

Значение

Также помогает, если вы убедитесь, что задачи связаны, хотя бы через цепь событий, с чем-то, что для вас важно: вы читаете книгу, чтобы сдать экзамен, чтобы получить диплом, чтобы получить желаемую работу и реализоваться в карьере. Разрыв цепи делает задачу ощущаемой как бесполезная.

Энергия

Очевидно, что задачи трудней выполнять, когда у вас мало энергии. Беритесь за них тогда, когда вы в наилучшей форме. Это зависит от вашего суточного ритма, но у большинства людей максимум энергии приходится на период, начинающийся через несколько часов после того, как они проснулись, и длящийся 4 часа. Также следите, чтобы высыпаться и регулярно делать физические упражнения.

Также многим людям помогает следующее:

  • Пить много воды.
  • Перестать потреблять пищу, содержащую пшеницу и другие злаки.
  • Принимать лекарства (особенно модафинил), если необходимо.
  • Раз в неделю недолго, но интенсивно заниматься спортом.
  • Когда устали, можно ополоснуть лицо холодной водой, либо принять душ, либо сделать «разножку» (прыжки на месте с переменой положения рук и ног) или пробежку.
  • Слушать музыку, повышающую настроение.
  • Понизить хаотичность своей жизни, так как обработка хаотичной информации истощает ваш мозг весь день напролёт.

Награды

Ещё один очевидный способ повысить ценность задачи — наградить себя за её завершение.

Также, можно сочетать горькое лекарство со сладким мёдом. Объединяйте долгосрочные интересы с краткосрочными удовольствиями. Найдите партнёра для совместной работы, чья компания вам приятна. Угостите себя особым кофе за выполнение задач. Я себя подкупаю замороженным йогуртом «Pinkberry» для выполнения задач, которые я ненавижу делать.

Страсть

Конечно, самый мощный способ увеличить ценность задачи — везде, где можно, концентрироваться на тех делах, которые вы любите делать. Мне не требуются особой мотивации, чтобы делать исследования в метаэтике или писать научные статьи по помощи себе: это то, что я люблю делать. Некоторые люди, любящие играть в видеоигры, сделали на этом карьеру. чтобы выяснить, какая карьера может требовать именно тех задач, которые вы любите делать, можете попробовать пройти личностный тест RIASEC. В США есть O*NET, который может помочь найти работу, пользующуюся спросом и соответствующую вашей личности.

Управление импульсивностью

Импульсивность, в среднем, это фактор, который более всего влияет на величину прокрастинации. Здесь приведены два метода Стила, которые помогают немного справиться с импульсивностью.

Самоограничение на данный момент

Одиссей сумел проплыть мимо прекрасных поющих сирен не с помощью своей силы воли. Напротив, он знал о своей слабости и заранее подготовился: буквально привязал себя к мачте корабля. Некоторые формы самоограничения полезны при управлении импульсивностью.

Первый способ — «выбросить ключ»: закройте привлекательные альтернативы. У многих людей повысилась результативность, когда они решили не допускать наличия телевизора в своём доме; у меня его нет уже много лет. Но сейчас ТВ становится всё более доступным через Интернет. Чтобы заблокировать его, вам может понадобится инструмент вроде RescueTime. Или просто отключите роутер от розетки, когда у вас есть дела.

Другой способ — сделать провал воистину болезненным. Вебсайт «stickK» позволяет вам отложить деньги, которые вы потеряете, если не выполните цель, и обеспечивает, чтобы у вас был сторонний судья, который решит, выполнили вы цель или нет. Чтобы «поднять ставки», сделайте так, чтобы ваши деньги в случае вашего провала ушли в организацию, которые вы ненавидите. И попросите выбранного судью опубликовать подробности вашего благотворительного взноса в Фейсбуке, если вы не выполните цель.

Постановка целей

Сотни книг рекомендуют постановку целей по системе SMART: цели должны быть конкретными, измеримыми, достижимыми, реалистичными и привязанными ко времени. Эти рекомендации подкреплены хорошими исследованиями? Не особо. Во-первых, заметим, что достижимость перекрывается реалистичностью, а конкретность перекрывается измеримостью и привязанностью ко времени. Во-вторых, отсутствуют важные концепции. Выше мы уже подчёркивали важность того, чтобы цели были трудными, но интересными (и вели к состоянию «потока») и значимыми (связанными с тем, что вы хотите).

Также важно разделять задачи на множество мелких подзадач, которые проще достичь и у которых более близкие сроки выполнения. Например, часто ставят задачи на день, но также может помочь постановка цели на «прямо сейчас», чтобы прорваться через порог «включения в работу». Первой целью может стать «Написать письмо продюсеру», а следующей — задача дня. После выполнения первой 5-минутной задачи вы, вероятно, уже окажетесь на пути к выполнению большей по объёму задачи дня, даже если она требует 30 минут или 2 часа.

Ещё: у ваших задач измеряются затраты или результаты? Ваша задача — потратить 30 минут на дело Х или получить конечный результат Х? Попробуйте оба способа для разных задач и выясните, какой лучше работает для вас.

Поскольку мы существа с привычками, помогает вхождение в рутинный процесс. Например: делайте упражнения в одно и то же время каждый день.

Заключение

Подведем итоги. Чтобы побороть прокрастинацию, вам нужно увеличить вашу мотивацию для каждой задачи, которую вы склонны откладывать. Чтобы сделать ее, вы можете (1) оптимизировать ваш оптимизм, что вы сможете ее сделать, (2) сделать выполнение задачи интересным и приятным занятием и (3) предпринять шаги по уменьшению вашего уровня импульсивности. Для реализации этих вещей используйте методы, объясняемые выше (постановка целей, самоограничение, использование спиралей успеха и так далее)

Предупреждение: не пытайтесь быть идеальными. Не пытайтесь полностью исключить склонность откладывать дела на потом. Будьте реалистичны. Чрезмерное регулирование сделает вас несчастливым. Вам нужно найти баланс.

Итак, теперь у вас есть нужные инструменты. Выясните, какие переменные уравнения склонности откладывать дела на потом больше всего влияют на вашу ситуацию и какие методы изменения этих переменных лучше всего работают для вас. А затем давайте и сделайте себя сильней, выполните эту работу и помогите спасти мир!

(А также прочтите книгу «Уравнение прокрастинации» (English), если хотите узнать обо всём этом подробней, чем я написал здесь).

  • 1. Это вымышленные персонажи, используемые для иллюстрации уравнения.
Перевод: 
Knivy, Remlin
Оцените качество перевода: 
Средняя оценка: 3.8 (32 votes)

Как быть счастливым

Люк Мелхаузер

Как-то сотрудник сказал мне: «Люк! Ты, кажется, самый счастливый человек из всех, кого я знаю! Как тебе удается быть таким счастливым все время?»

Скорее всего это был риторический вопрос, однако у меня есть достаточно подробный ответ. Видите ли, я был несчастлив большую часть своей жизни и даже несколько раз задумывался о самоубийстве. Тогда я потратил два года на изучение науки счастья. Теперь счастье является моим естественным состоянием. Я не могу припомнить в последнее время такого, чтобы я был несчастлив больше чем 20 минут.

Это изменение не произойдет само собой со всеми, или даже со многими (за исключением некоторых), но это стоит попробовать!

Мы все хотим быть счастливы, и счастье полезно для многих вещей. К примеру, счастье улучшает физическое состояние, повышает креативность, и даже позволяет вам принимать лучшие решения. (Труднее быть рациональным, когда вы несчастливы.) Так что, как часть цепочки о том, как выигрывать в жизни с наукой и рациональностью, давайте рассмотрим науку счастья.

Влияние на счастье

Раньше я заметил, что существует множество исследований тех факторов, которые связаны с субъективным благополучием (собственные оценки счастья и удовлетворенности жизнью человека).

К факторам, которые особо не связаны со счастьем, относят: возраст, пол, наличие детей, интеллект, физическая привлекательность и деньги (до тех пор, пока вы находитесь выше черты бедности). Факторы, которые умеренно связаны со счастьем: здоровье, социальная активность и религиозность. Факторы, значительно влияющие на счастье: генетика, любовь и удовлетворенность от отношений и работы.

Но одной взаимосвязи не достаточно. Мы хотим знать что является причиной счастья. И это понятие является более сложным для оценки. Но мы действительно кое-что об этом знаем.

Счастье, личность и навыки

Гены служат причиной около 50 % отклонений состояния счастья. Даже победители лотерей и недавно парализованные не замечают таких значительных изменений счастья, как вы можете ожидать. Предположительно, гены формируют счастье, формируя ваши личностные черты, которая, как известно, является наследственной.

Итак, какие же черты личности склонны больше всего влиять на счастье? Экстравертность является одним из лучших показателей счастья, так же как сознательность, уступчивость, чувство собственного достоинства и оптимизм.

Что если вам не присущи эти черты? Во-первых, надо отметить, что они могут быть присущи вам, но вы об этом не знаете. Интравертность, к примеру, может усиливаться из-за нехватки социальных навыков. Если вы решили выучить и практиковать социальные навыки, можете выяснить, что у вас есть гораздо больше экстравертности, чем вы думали раньше! (Так случилось со мной.) Тоже самое подходит и для сознательности, уступчивости, самоуважения и оптимизма — они только частично связаны с личностью. Они относятся к тем навыкам, которым в определенной степени можно научится, и их изучение (или даже притворство, что научились) может увеличить счастье.

Во-вторых, недостаточность каких-либо из этих черт конечно же не обрекают вас на несчастье.

Счастье является субъективным и относительным понятием

Счастье определяется не объективными факторами, а вашим отношением к ним.

Счастье также относительно: вы, вероятно, будете счастливее, зарабатывая 25000 долларов в год на Коста Рике (где ваши соседи будут получать 13000 долларов в год), чем если будете зарабатывать 80000 долларов в год в Беверли Хиллз (где ваши соседи будут получать 130000 долларов в год).

Счастье является относительным понятием и в другом смысле: по отношению к вашим ожиданиям. Мы достаточно слабо можем спрогнозировать силу наших эмоциональных реакций на будущие события. Мы переоцениваем страдания, которые можем познать после разрыва романтических отношений, невозможность получить повышение, или даже подхваченную болезнь. Также мы переоцениваем радость, которую можем ощутить от покупки новой машины, получения повышения или поездки в милый прибрежный город. Потому снижайте ваши ожидания об удовольствии, которое вы получите от расходов такого рода.

Поток и внимательность

Вы, должно быть, слышали об известном исследовании, которое показывает, что люди становятся счастливее, когда они находятся в состоянии «потока». Это такое состояние, в котором вы полностью поглощены своей целью, которая интересна, сложна, и действительно полезна для вас. Это опыт «растворения в моменте» или, как говорят спортсмены, «нахождение в своей стихии».

Обретение потока в значительной мере связано с выполнением тех задач, которые соответствуют уровню вашей квалификации. Когда задание выходит далеко за рамки ваших способностей, вы будете чувствовать себя побежденным. Если задание слишком простое, вам будет скучно. Только когда задание сложное, но приемлемое, вам будет нравиться его выполнять. Мне вспомнилось состояние полицейских из фильма «Суперполицейские», которые придумывали странные игры и проблемы, чтоб сделать свою работу терпимой. Миртл Янг свою скучную работу на фабрике картофельных чипсов делала более интересной и сложной, выискивая картофельные чипсы похожие на знаменитостей, и забирала их с конвейерной ленты в свою коллекцию.

Если вы испытываете трудности с негативными эмоциями, достижение потока, возможно, будет лучшим лекарством. В противовес популярному мнению, позитивное мышление, для которого нужно прилагать усилия, часто делает вещи хуже. Пытаться не думать о расстраивающей мысли Х дает тот же эффект, что и попытка не думать о розовом слоне: вы ничего не можете сделать, а все равно думаете о розовом слоне.

В то время как пребывание «потерянным в моменте» может дать вам несколько лучших моментов в жизни, исследование также показало, что когда вы не в потоке, то попытка сделать перерыв и практиковать осознанность — то есть уделить внимание окружающей ситуации, вашим действиям и вашим ощущениям — может уменьшить хроническую боль и депрессию, уменьшить стресс и усталость, и дает целый ряд других положительных эффектов.

Как быть счастливее

Итак, счастье — это весьма сложная штука. Хуже того, мы должны помнить разницу между опытом счастья и воспоминаниями о нем. Я могу только слегка коснуться темы исследования счастья в этом крошечном посте. Вкратце, не существует простого способа исправить несчастье; не существует прямого пути к блаженству.

Более того, счастье по разному достигается разными людьми. Человек, страдающий от депрессии, вызванной химическим дисбалансом, получит больше пользы от таблетки, нежели от улучшения навыков социального взаимодействия. Здоровая, приятная, ответственная женщина-экстраверт все равно может быть несчастной, если она в ловушке неудачного замужества. Некоторые люди были воспитаны родителями, чей стиль воспитания не способствовал развитию здоровой самооценки, и нужно приложить значительные усилия, чтобы скомпенсировать этот недостаток. Для некоторых дорога к счастью длинна. Для остальных — коротка.

Ниже я рассматриваю ряд методов для того, чтобы стать счастливее. Некоторые из них я рассмотрел выше, многие — нет.

Эти методы грубо рассортированы в порядке убывания важности и эффективности, основываясь на моем читательском опыте. Вы должны подумать о том, кто вы, что делает вас счастливым, а что — несчастным, и чего вы можете достигнуть, чтобы определить какой из нижеописанных методов нужно попробовать первым. Еще, использование какого-либо из этих методов может потребовать от вас сначала достигнуть некоторых успехов в борьбе с откладыванием дел.

Итак, вот несколько методов для того, чтобы стать счастливее:

  1. Если вы страдаете серьезной болезнью, депрессией, тревожностью, паранойей, шизофренией или другими серьезными проблемами — прежде всего обратитесь к врачу. Вот так.
  2. Если даже вам не нужна профессиональная помощь, вы можете получить выгоду от определенного самоизучения и начальные рекомендации от опытного психолога-консультанта, как Том Кларк.
  3. Развивайте навыки и привычки, связанные с экстраверсией. Для начала, купите одежду поприличнее и научитесь носить ее правильно. Почитайте книги на эту тему. Потом изучите базовые социальные навыки, включая язык тела. Если вы ярко выраженный интроверт, сначала попрактикуйтесь в общении на форумах и чатах. Далее, тратьте больше времени на небольшие разговоры с людьми. Ходите на встречи и мероприятия клуба «CouchSurfing». Практикуйте ваши навыки пока они не станут более естественными, и вы обнаружите, что вы наслаждаетесь пребыванием в компании других людей. Научитесь быть смешным и практикуйте это тоже.
  4. Повышайте свою самооценку и развивайте оптимизм. Это непросто. Во-первых, слишком высокая самооценка может вести к ужасному нарциссизму. Во-вторых, неясно, может ли рационалист использовать некоторые стандартные методы повышения самооценки (корыстная предвзятость, упоение своей славой, само-гандикап), поскольку они связаны с самообманом и анти-эпистемологией. Однако есть несколько безопасных путей для повышения самооценки и оптимизма. Используйте спирали успеха, заместительную победу и умственный контраст, как описано в статье «Как перестать откладывать дела».
  5. Улучшайте вашу способность понимать других. Проще говоря, это в основном значит: улучшайте свою эмпатию. К сожалению, мало известно (в научном смысле) о том, как улучшать эмпатию. Стандартный совет состоит в том, чтобы стараться видеть вещи с точки зрения другого человека и больше думать о тех людях, которым повезло меньше чем вам и что вы можете для них сделать. Несколько хороших советов может дать организация «Roots of Empathy».
  6. Улучшайте свою добросовестность. Она включает в себя ряд направлений: полезную организацию, сильную рабочую этику, надежность, планирование заранее и т. д. Каждому из этих отдельных навыков можно научиться. Здесь могут пригодится методы борьбы с откладыванием дел на потом. Некоторые люди сообщают, что книги, наподобие «Getting Things Done», помогли им стать организованней и ответственней.
  7. Развивайте привычку быть благодарным. Наслаждайтесь хорошими моментами на протяжении каждого дня. Проводите время думая о счастливых воспоминаниях. И в конце каждого дня пишите по пять вещей, за которые вы благодарны: за крышу над головой, вашу хорошую судьбу родиться в богатой стране, существование сайта Less Wrong, вкус шоколада, ощущение оргазма….что угодно. Это звучит по-детски, но работает.
  8. Найдите свою цель и следуйте за ней. Одно из преимуществ религии в том, что она дает людям чувство смысла и цели. Однако даже без волшебного божества, которое даст вам цель, вы можете найти себе цель которая будет вести вас. Это может занять много времени, и, может быть, вам придется перепробовать множество областей перед этим. Но однажды вы найдете путь, который значительно мотивирует вас и даст ощущение полноты жизни. (Конечно вы можете найти не одну цель, а множество.) Сильное ощущение осмысленности и цели имеет множество положительных эффектов. Рекомендация «найди цель» также предлагает иллюстрацию того, как методы могут отличаться по важности для людей. Данной рекомендации не всегда придается значение в литературе по счастью, но я предполагаю, что для нашего мозга мотивирующие цели делают больше, нежели любые другие методы из данной статьи.
  9. Найдите приносящую удовлетворение работу. Немногие люди делают то, что им нравится. Принять данную точку зрения может быть сложно и трудно. Вы можете обнаружить что выполнение десяти других рекомендаций из данного списка — это первое что нужно чтобы получить хороший шанс на получение приносящей удовлетворение работы. Чтобы определить какая работа даст вам возможность делать то, что вам нравится, вам может помочь тест личности RIASEC. В США, O*NET может помочь вам найти работу, которая востребована и отвечает вашим способностям.
  10. Улучшайте ваши отношения с вашим партнером, или найдите другого. Точно так же как с поиском подходящей работы, это сложно, однако дает сильный эффект. Если вы знаете, что ваши отношения никуда не движутся, то вы можете захотеть прекратить их и потратить больше времени на саморазвитие, что поможет улучшить будущие отношения. Если же вы достаточно серьезно относитесь к своему партнеру, есть множество вещей, что вы можете сделать для улучшения отношений. Хотя широко рекламируется «активное слушание», оно не всегда предвещает успех в отношениях. Опробованные советы для улучшения шансов на успех в отношениях и удовлетворение ими включают в себя:
    1. почаще занимайтесь с партнером чем-то новым и захватывающим,
    2. говорите партнеру что-то позитивное и положительное (о нем в том числе) в пять раз чаще, нежели негативное,
    3. каждую неделю пишите, чем ваши отношения лучше, нежели у тех людей, которые вы знаете,
    4. разбавляйте любую критику партнера упоминанием одного или двух его положительных качеств, и
    5. почаще смотрите друг другу в глаза.
  11. Чаще выходите наружу и побольше двигайтесь. Это улучшит ваше внимание и самочувствие.
  12. Проводите больше времени в потоке. Оставьте невыполнимые задачи в пользу задач, которые находятся на грани ваших возможностей. Выполнение легких и скучных задач будет более увлекательным если выполнять их в виде игры или ставя вызовы для себя в виде этих задач.
  13. Регулярно практикуйте осознанность. Если вы не в потоке, то не замыкайтесь в себе, а обратите внимание на то, как вы ведете себя, как функционируют ваши эмоции и как ваши текущие действия продвигают вас к вашим целям. В этом может помочь медитация.
  14. Избегайте потребительства. То, чем вы владеете, в некотором смысле владеет вами. Потребительство ведет к тому, что вы становитесь несчастны. К сожалению, скорее всего вы с рождения запрограммированы смотреть сквозь линзы потребительства. Одним из способов избавиться от этих программ, является просмотр документального фильма о преднамеренном изобретении потребительства от Эдварда Бернайса. После него вы можете захотеть продать или отдать много ваших вещей и, что более важно, кардинально измените ваши покупательские шаблоны.

Замечу, что стремление к счастью, как к конечной цели, может оказаться непродуктивным. Многие люди отмечают, что постоянные попытки проверить счастливы ли они, на самом деле только понижают уровень счастья — эти слова вполне соответствуют данным по исследованию состояния потока. Лучше стремиться достигать поставленных целей, а счастье будет побочным эффектом.

Помните: счастье не наступит в результате чтения статей в интернете. Счастье придет, когда вы выполните рекомендации этого исследования.

Удачи!

Перевод: 
Remlin
Оцените качество перевода: 
Средняя оценка: 3.3 (22 votes)

Выученное непонимание

Анна Саламон

Однажды у меня сломалась посудомоечная машина. Я позвала на помощь Стива Рейхока, потому что он «хорошо разбирается в технике».

«Слив засорился», — сказал он.

«Как ты это понял?» — спросила я.

Он указал на оставшуюся грязную воду.

«Вода не уходит».

Мы прочистили засор, и посудомоечная машина заработала.

Я чувствовала себя глупо, потому что тоже могла бы до этого додуматься. Вода не уходила — возможно, потому что слив засорился. Базовая рациональность в действии.1

Но вместо того, чтобы подумать о проблеме хотя бы десять секунд, я классифицировала проблему как «техническую». И вспомнила, что «не знаю, как работает техника» (кэшированная мысль). А потом под влиянием моей кешированной веры в то, что существует магический «способ заставить технику работать», о котором знают другие люди, но не знаю я, я вообще перестала пытаться думать на эту тему.

«Техника» была для меня ментальным стоп-сигналом — пустой областью, которая всегда оставалась пустой, потому что я никогда не задавала напрашивающихся следующих вопросов (например: «Замечаю ли я в посудомоечной машине что-то необычное? Почему на её дне вода?»)

Когда я преподавала математику, новые ученики вели себя так, будто формулы степеней (или любой другой изучаемый материал) упали с неба на каменных скрижалях. Они жёстко цеплялись за эти ниспосланные правила. Им не приходило в голову попытаться их понять или сымпровизировать. Студенты относились к математике так же, как я к сломанным посудомоечным машинам.

Чтобы описать состояние, при котором некто научился вести себя так, будто он беспомощен, Мартин Селигман когда-то ввёл термин «выученная беспомощность». Я думаю, что нам нужен термин для выученной беспомощности в мышлении. Мне нравится вариант «выученное непонимание»2 3. Люди, павшие жертвой выученного непонимания, всё ещё могут что-нибудь делать — мои ученики иногда повторяли формулы снова и снова, нанимали репетитора и так далее. Но в их исполнении это походило на ритуал поклонения неизвестному божеству — какая-то их часть прикладывала усилия, но их центр, отвечающий за понимание предмета, сдался.

На всякий случай подчеркну: вызвать сантехника и понять, что он знает больше, чем вы, зачастую очень хорошая идея. Однако нужно избегать ситуаций, в которых вы мысленно ограничиваете собственные способности, сохраняете какие-то куски вашей карты пустой, потому что решили, что некая область либо не подчиняется никаким законам, либо рассуждать о ней могут лишь люди, обладающие какими-то особыми навыками.

Обращайте внимание на собственное выученное непонимание

Выученное непонимание встречается часто. Предполагаю, что большинство из нас воспринимает почти всё вокруг как нечто совершенно непостижимое4. Чтобы увидеть собственное непонимание, попробуйте примерить на себя следующие примеры:

  1. Когда у Сандры ломается компьютер, она беспомощно бежит к своей соседке по комнате за помощью, ведь Сандра «не ладит с компьютерами». Её соседка, напротив, куда-то тыкает, что-то вводит, лезет в Google и находит решение.5

  2. Большинство ученых знают, что научный метод — это хорошо (и, например, что p-значения меньше 0,05 — это хорошо). Но многие не просто не понимают, почему научный метод (или подобные p-значения) хорош. Они не понимают, что могли бы это понять.

  3. Многие, сталкиваясь с вопросами о сознании, морали или Боге, ожидают, будто для таких ситуаций нужен какой-то особый способ рассуждений. Таким образом они не доверяют собственным впечатлениям и отгораживаются от них.

  4. Фред осознаёт, что интуитивно опасается развития нанотехнологий. Но на его карте интуиции соответствует пустое пятно: он может пойти на поводу у своей интуиции, может её проигнорировать, но он не в состоянии её исследовать6. Ему не приходит в голову изучить причины своих интуитивных представлений или оценить степень их точности.

  5. Мне трудно писать художественную литературу — впрочем, алкоголь помогает. Проблема в том, что, поскольку я не умею писать художественный текст и мне больно замечать собственное неумение, большая часть моего разума предпочитает либо вообще не писать, либо писать без энтузиазма, ковыряясь в мелких деталях. Точно так же многие специалисты по высшей математике избегают попыток попробовать себя в философии, социальных науках или других «грязных» областях знаний.

  6. У Боба есть смутное желание «победить» в жизни и смутное недовольство своей нынешней траекторией. Но он никогда не пытался сформулировать, что именно он подразумевает под «победой», или что ему нужно изменить, чтобы добиться её. Он даже не понимает, что он мог бы этим заняться.

  7. Сандра просто почти ни о чем не думает. Она ездит на работу в машине, которая работает «по волшебству», садится на своё место в офисе компании, которая приносит прибыль «по волшебству», и всерьёз думает лишь над своей работой. Затем она заказывает ланч, который ей «по волшебству» нравится, болтает с коллегами, используя «по волшебству» привычные шаблоны общения, работает ещё четыре часа и возвращается домой к отношениям, которые «волшебным» образом преуспевают или терпят крах.

Я не хочу сказать, что мы постоянно должны пересматривать вообще всё. Полезно уметь направлять своё внимание и сосредотачиваться на своей работе. Но обсуждаемое здесь «выученное непонимание» не связано с какой-то целью. Выученное непонимание — это не просто решение игнорировать некую область. Это вера в то, что данная область для вас недоступна. Это отстранение от тех частей вашего разума, которые могли бы разобраться в непонятном.

По аналогии: часто есть веские причины чего-нибудь не делать, например, не искать новую работу, нового романтического партнера, не осваивать новые навыки… Однако если человек всё это не делает из-за подавляющей выученной беспомощности, это плохо.

Как уменьшить выученное непонимание

Есть много причин, почему люди чувствуют себя беспомощными при попытке понять что-либо. Например:

  • А. Просто привычка. Вы не привыкли думать об этом. Поэтому автоматически вы об этом и не думаете;

  • Б. Желание избежать неминуемых поначалу грубых ошибок, которые поставят вас перед фактом вашей возможной некомпетентности (как, например, мой страх писать художественную литературу);

  • В. Избегание социальных конфликтов или претензий на статус. Если ваш начальник / супруг / супруга / кто угодно ещё расстроится от вашего несогласия, вам может быть выгодно «не разбираться» в некоей области.

Поэтому, если вы хотите уменьшить своё выученное непонимание, постарайтесь замечать области, которые вас волнуют, но которые вы при этом считаете «непостижимыми». Затем посейте в своём разуме мысли, касающиеся этой области: установите таймер на десять минут и напишите как можно больше вопросов на эту тему. Ещё лучше: пообщайтесь с людьми, для которых эта область не является непостижимой. Научитесь делать что-нибудь новое, чтобы лучше погрузиться в эту тему. Спросите, какие вспомогательные навыки могут вам помочь.

Если возникают страхи, такие как (Б) и (В), попробуйте спросить себя: «Интересно, что нужно сделать, чтобы [достичь моей цели]?». Например: «Интересно, что мне нужно, чтобы чувствовать себя комфортно, когда я танцую?» или «Интересно, что мне требуется, чтобы писать литературные тексты без страха?».

Вам даже не обязательно отвечать на эти вопросы. Если это тема, которой вы боялись, то просто спросите. Это даст вам толчок. Затем найдите ответы в Google, Wikipedia или How.com и наслаждайтесь получением компетенции.

  • 1. Ричард Фейнман в детстве удивлял других людей тем, что «чинил радиоприёмники, думая»[Это отсылка к знаменитой книге «Вы, конечно, шутите, мистер Фейнман» — Прим.перев.]. Судя по всему, люди часто не обращают внимание на то, что умение размышлять помогает в работе с машинами.
  • 2. Спасибо Стиву Рейхоку за этот термин. Также спасибо Люку Мюльхаузеру за помощь с этим эссе.
  • 3. В оригинале «learned blankness». — Прим.перев.
  • 4. Гарри Поттер Элиезера Юдковского предполагает, что для становления героем нужно, чтобы выученное непонимание не поглотила тебя целиком, то есть, чтобы твой мир не превратился в узенькие туннели мыслей, окружённые огромными пластами непостижимого. Цитирую:

    — Ну… — потянул Гарри. Вилка и нож в его руках нервно пилили отбивную на всё более тонкие ломтики. — По-моему, нетрудно сделать что-нибудь, если оно лежит в рамках привычного мира… Например, если от тебя ждут, что ты это сделаешь, или если у тебя уже есть необходимые для этого навыки, или ты выполняешь работу под наблюдением человека, который не даст тебе совершить ошибку и проследит, чтобы ты сделал свою часть. Но для таких ситуаций, скорее всего, уже есть готовые решения, а значит в них не нужны герои. Поэтому я считаю, что люди, которых мы называем «героями», редки, поскольку им приходится всё делать самостоятельно, а большинство чувствует себя неуютно в таких обстоятельствах.

  • 5. Спасибо Заку Дэвису за замечание о том, что навык «ладить с компьютерами», судя по всему, в значительной степени основывается на желании пробовать различные способы решения проблемы и разбираться, как всё устроено. Если вы хотели бы уменьшить количество выученного непонимания в своей жизни и пока не слишком ладите с компьютером, можете попробовать развить у себя этот навык в понимании Зака.
  • 6. Один из способов подступиться к причинам своей интуиции — это представить какой-нибудь другой сценарий и посмотреть, как на него отреагирует ваша интуиция. Фред мог бы спросить себя: «Предположим, нанотехнологии развились бы в результате Манхэттенского проекта. Насколько было бы всё плохо?» Или: «Предположим, Джон (от которого я всё это узнал) изменил бы своё мнение о вероятности катастрофы. Как бы это повлияло на мои взгляды?»
Перевод: 
Герман Васнецов, Alaric
Оцените качество перевода: 
Средняя оценка: 4.8 (12 votes)

Как осваивать "гибкие навыки"

Анна Саламон

Получение некоторых навыков в значительной степени связано с явной и умышленной передачей информации. Например, можно явным образом узнать название столицы Миссури, количество миль, которое можно проехать без дозаправки, или формулу нахождения корней квадратного уравнения.

Другие же навыки почти целиком опираются на полуинтуитивные, неявные шаблоны восприятия и поведения. К таким навыкам, например, относятся:

  • контроль эмоций и уровня энергии,
  • построение крепких отношений,
  • составление надёжных планов,
  • поиск подходов к математической задаче,
  • написание убедительных текстов,
  • умение непредвзято рассуждать на эмоционально важные для вас темы,

и так далее. Эксперты в этих навыках часто не в состоянии точно и подробно объяснить, как они делают то, что делают, однако это ничуть не умаляет их способностей.

Я бы хотела поделиться некоторыми идеями о том, как осваивать подобные «гибкие навыки».

Полезность ложных идей

Когда вы читаете учебник по химии, после каждого предложения имеет смысл задавать вопрос: «Правда ли то, что я узнал?». Если для значительного числа предложений ответом будет «нет», скорее всего, вам стоит отложить этот учебник и поискать другой, получше. Предполагается, что учебники по химии состоят из достоверных утверждений — утверждений, которые вы без колебаний можете добавить к своей коллекции «достоверных и недвусмысленных утверждений» и благодаря этому стать лучше в химии. Если же книга не удовлетворяет этому критерию, её главная ценность теряется.

Однако, на мой взгляд, для гибких навыков это не так.

Можно проверять идеи в своём «внутреннем симуляторе»

«Внутренний симулятор» — это предложенный CFAR способ различать декларируемые убеждения и ожидания. По сути, «внутренний симулятор» — это та ваша часть, которая способна перемотать плёнку вперёд, чтобы определить, чего ждать дальше: «Успею ли я повернуть налево до того, как эта машина достигнет меня?», «Как она отреагирует, если я подойду и скажу: „Привет“?». То есть, какую сцену мой внутренний видео-проигрыватель показывает следующей в фильме, где я подхожу к незнакомке и говорю: «Привет».

Скорее всего, в вопросах, где у вас есть богатый опыт — например, в вопросах социального взаимодействия или физических явлений, с которыми вы сталкиваетесь ежедневно — ваш «внутренний симулятор» гораздо точнее сформулированных явным образом моделей. Наверняка он хуже в тех областях, где вы достаточно начитаны — например, у вас может быть в голове точная модель «эффекта свидетеля», но в реальной ситуации у вас могут возникнуть неверные ожидания и вам придётся вносить поправки уже на уровне сознания. И на внутренний симулятор всегда должно «заземляться» обучение, направленное на изменение автоматических ответов системы 1 (такие как шаблоны восприятия или привычки «триггер-действие», столь важные во многих «гибких навыках»).

На мой взгляд, большинство книг о «гибких» навыках не ставят своей целью расширить ваш багаж «достоверных явно сформулированных утверждений». Вместо этого они пытаются спровоцировать вас на эксперименты в вашем внутреннем симуляторе, и тем самым дать вам какие-то идеи. Некоторые идеи в вашем внутреннем симуляторе будут выглядеть многообещающе, некоторые — нет. Лучшие вы сможете попробовать в реальной жизни.

Пример: Сосед

Чтобы понять, как это работает, представьте, что вы попали в неоднозначную социальную ситуацию. Предположим, что Фред, ваш сосед по совместно снимаемой квартире, легко раним и обидчив, а ещё оставляет после себя полный бардак на кухне. Вы перебрали какое-то число идей, как с ним можно было бы поговорить, но по вашим оценкам все они закончатся, скорее всего, плохо. И вот вы стоите в отделе «самопомощи» книжного магазина и ищите, собственно, помощи.

В ходе поисков вы натыкаетесь на множество советов, которые вы уже слышали. Например: «представьте ситуацию со стороны Фреда» или «объясните Фреду, в чём будет выгода для него, сошлитесь на его собственные интересы или сыграйте на его гордости». Согласитесь, до многих из этих советов можно дойти своим умом. Тем не менее, в случае с Фредом большую их часть вы так и не опробовали. При этом вам хочется их применить — истории из книг действительно мотивируют посмотреть на ситуацию глазами Фреда, и вы спонтанно начинаете представлять, что, возможно, чувствует он. Между делом вы также обнаруживаете в своей голове новые идеи, как можно начать разговор. Отчасти они появились благодаря прочитанным историям, и некоторые из них очень даже ничего.

Некоторые из книг при этом содержат утверждения, которые, с вашей точки зрения, являются полной чушью. Например, одна из них сообщает, что все ваши конфликты с Фредом вызваны тем, что его или вас недостаточно хвалили в детстве. Вы примеряете и такую точку зрения, но вам от неё становится не по себе, никаких новых озарений не происходит, поэтому вы переходите к следующей главе.

В этом примере, книги выполняют роль не столько источника достоверных знаний, сколько подспорья для вашего собственного процесса восприятия, трактовки, целеполагания и планирования. И в этом смысле такая литература полезна.

Пример 2: Чтение хорошей книги, посвящённой построению отношений

Пока я читала «Узы, которые освобождают»1, я встретила много явных утверждений, с которыми полностью не согласна (например, утверждения о христианском боге). Я воспринимала их как поэзию: я пыталась представить себе мир, в котором живет автор, и как бы я выглядела в этом мире, то есть лучше разобраться, как автор понимает людей и их взаимоотношения.

В книге также было много историй, каждая из которых внутри моей симуляции была «похожа на правду» (соответствовала миру в той степени, в какой я его понимаю). И вместе эти истории наталкивали меня на новые закономерности. По мере чтения я чувствовала, как меняется моя интуиция в описываемых вопросах — я стала замечать в историях типичные детали, которые раньше проходили мимо моего внимания, а сейчас их удалось вынести на сознательный уровень.

Благодаря этой книге, я изменила своё представление о том, как рационализация влияет на близкие отношения, и улучшила навык отстраняться от своих рационализаций, чтобы лучше понимать близких мне людей. Также мне стало легче игнорировать обвинения со стороны «общества»2. И эти изменения произошли не потому, что я доверяла автору и слушала его советы. А потому, что я посмотрела на мир с его точки зрения, и те закономерности, на которые он указывал, вписались в мою картину мира.

Попробуйте!

То, о чём я пишу, можно попробовать, читая книги. Но поскольку полезность книг кроется не только в их точности, есть и другой путь (возможно, не менее эффективный): взять и написать собственную книгу — или, по крайней мере, 5 минут от этой книги. Можете воспринимать это упражнение как способ отвлечь Систему 1 от привычных шаблонов.[1]

Засеките 5 минут (I):

Выберите гибкий навык Х, который вы хотели бы прокачать. Затем засеките 5 минут (в буквальном смысле, с настоящим таймером — подумать «примерно 5 минут» гораздо менее эффективно). В течение этих 5 минут письменно объясните себе, как делать Х.

Например, вы выбрали «нетворкинг на конференциях». Тогда эти 5 минут вы можете выписывать варианты, что именно в нём самое сложное и как с этими сложностями справляться. Скажем: «Я не знаю, как завязать разговор. Поэтому на конференции я могу понаблюдать за другими людьми и запомнить, как начинают разговор они. Ещё я могу попробовать просто начать с: „Здравствуйте, меня зовут Анна“, или: „О, вы же доктор Такой-то? Мне очень понравилась ваша работа о том-то и том-то“. Этот вариант, кстати, ничего. Мне стоит перед конференцией почитать абстракты и загуглить хотя бы некоторые статьи…»

Засеките 5 минут (II):

Это упражнение придумал Зак Вэнс, и оно мне очень нравится. Оно действительно стоит своих 5 минут. Снова выберите гибкий навык Х (например «нетворкинг на конференциях»), который вы хотели бы прокачать. Затем выберите другой навык Y, которым вы уже хорошо владеете (например, «программирование» — Y может быть любым навыком, не обязательно гибким). Теперь засеките 5 минут, и объясните (письменно или вслух другу) почему Х ничем не отличается от Y, в смысле, что человек, овладевший Y, уже знает все необходимое, чтобы преуспеть в Х, — нужно лишь приложить Y к Х. (Ваша цель: составить очень короткое руководство, позволяющее всем овладевшим Y заложить основу для обучения Х). Мой собственный пример (выросший из идеи «нетворкинг на конференциях ничем не отличается от программирования» можно увидеть по сноске [2].

При этом, конечно, важно не верить вообще всему, что вы сгенерировали за это упражнение — в конце концов, всё это написал втайне новичок в навыке Х. Однако, повторюсь, вы можете использовать написанное как отправную точку для экспериментов и тем самым помочь Системе 1 выбраться из локального оптимума в пространстве вариантов поиска новых идей, где она могла застрять.

Некоторые книги по прокачке «гибких навыков», которые стоит посмотреть

  • Terry Warner, «Bonds that Make Us Free»;
  • Далай-Лама, «Открытое сердце»;
  • Дэвид Бернс, «Ругаться нельзя мириться»;
  • Брайан Трейси, «Оставьте брезгливость, съешьте лягушку»;
  • Дейл Карнеги, «Как завоёвывать друзей и оказывать влияние на людей»;
  • Джей Уорли, «Селф-терапия»;
  • Юджин Джендлин, «Фокусирование» (аудиокнига гораздо лучше, на мой взгляд);
  • Элиезер Юдковский, Основные цепочки LessWrong.

Также можно сходить в книжный, посмотреть там новые книги по гибким навыкам и полистать какие-нибудь — возможно, некоторые из них с вами «срезонируют». Литературу такого рода можно найти в разделах про бизнес, самопомощь, континентальную философию, эзотерику, а также в узко специализированных разделах, посвящённых конкретным гибким навыкам, таким как писательство или решение проблем.

Во время чтения:

Во время чтения книги (или плодов своих пятиминуток), возможно, стоит задать про каждый параграф следующие вопросы:

  • Правда ли это? Можно ли использовать эту информацию для обновления моей явной модели навыка Х? (Да, явные модели все ещё кстати!)
  • Даже если эта информация неверна, — есть ли в ней или рядом хоть что-то похожее на правду?
  • Если, начиная с этого места, я дам волю своим ассоциациям, обретёт ли что-то из моего прошлого опыта новый смысл?
  • Что практично/любопытно в этой новой идее? А в идеях, которые могут прийти мне в голову во время свободных ассоциаций? Улучшают ли эти идеи мое неявное пространство гипотез?
  • Во время чтения, могу ли я представить, как я выполняю навык Х каким-то новым и, главное, полезным образом? Чувствую ли я, как развивается моя интуиция?
  • Как мне наиболее тщательно погрузиться в тот контекст, то чувство, настроение или мировоззрение, которые породили эту книгу? И когда я этого достигну, получу ли я новое озарение?

Буду рада увидеть ваши любимые книги или стратегии для их чтения в комментариях!

[1] Кажется, Система 1 почти всегда застревает на привычных шаблонах. Например, я регулярно набираю текст и вожу машину, однако оба этих навыка за последние несколько лет практически не улучшились. Мое умение разговаривать улучшилось гораздо заметнее, но всё же и оно подвержено этой склонности «делать одно и то же снова и снова». Поэтому даже случайный шум может помочь как отправная точка для обучения чему-то новому.

Выученное непонимание»3, судя по всему, из той же серии, — человек застревает на уровне онтологии. Обычно книги по гибким навыкам нужны именно для того, чтобы помочь читателю перейти этот барьер.)

[2] Мой пример, придуманный за полторы минуты:

Нетворкинг на конференциях ничуть не отличается от программирования. Три добродетели программиста — лень, нетерпеливость и высокомерие, — а также аналитическое мышление и навык повторного использования кода позволят вам достичь тех же высоких результатов.

Re: Лень: Многие, попав на конференцию, начинают знакомиться изо всех сил и заставляют себя разговаривать со всеми подряд. Однако, вообще-то очевидно, что одни беседы гораздо полезней других. Будьте ленивы — ещё в самолёте (или во время скучного разговора) продумайте план, с кем и о чём вы хотите поговорить, а потом позиционируйте себя соответственно.

Также, приближаясь к новому человеку, смотрите на это как на возможность попрактиковать и отладить собственное приветствие, таким образом рассматривая его как модуль кода, который будет использован неоднократно, а не одноразовое задание, которое можно выполнить и забыть. А после бегло просмотрите свои воспоминания и подумайте, нельзя ли улучшить процесс.

Во время отладки вы можете искать «тестовые примеры» — например, подходить к людям, о репутации которых вам уже известно, или к людям, с которыми уже беседовали ваши друзья, чтобы понять, похоже ли ваше взаимодействие с ними на то, что вы слышали. Благодаря таким «тестовым примерам» вы можете сравнивать свои результаты с результатами других людей, что поможет вам в отладке собственных рутин.

Напомню, что текст выше я написала за 90 секунд, которые я отвела себе на это упражнение. Это не какой-то специально подобранный пример. И уж точно не стоит его считать проверенным руководством по нетворкингу. Тем не менее, возможно, он позволяет понять, как рационализация(!) может запустить процесс обучения.

  • 1. Речь идёт о книге C. Terry Warner, «Bonds That Make Us Free: Healing Our Relationships, Coming to Ourselves». На русский язык не переводилась. — Прим.перев.
  • 2. Англ. social shame. — Прим.перев.
  • 3. Англ. learned blankness. По ссылке речь идёт о ситуациях, в которых человек считает себя заведомо неспособным к решению задач в некоторой области, и поэтому даже не пытается задуматься, как их решить. — Прим. перев.
Перевод: 
Евгений Миньков, Alaric
Оцените качество перевода: 
Средняя оценка: 5 (5 votes)

Мышление Безопасника и Логистическая Кривая Успеха

Элиезер Юдковский

Это продолжение текста Мышление Безопасника и Обыденная Паранойя.

(Через два дня Эмбер возвращается с другим вопросом.)

ЭМБЕР: Эмм, Корал, скажи, насколько важно мышление безопасника, когда ты создаёшь систему совсем нового вида, скажем, подверженную потенциально неблагоприятным оптимизационным давлениям, если ты хочешь, чтобы она имела некоторое устойчивое свойство?

КОРАЛ: Насколько система оригинальна?

ЭМБЕР: Очень оригинальна.

КОРАЛ: Настолько оригинальна, что тебе приходится изобретать свои собственные лучшие практики, а не узнавать существующие?

ЭМБЕР: Верно.

КОРАЛ: Дело серьёзное. Если ты создаешь очень простую соединённую с Интернетом систему, то, может, умный обыденный параноик может посмотреть на то, как мы обычно защищаемся от противников, использовать столько готового проверенного настоящими специалистами по безопасности софта, сколько возможно, и справиться не слишком ужасно. Но если ты делаешь что-то качественно новое и сложное, что должно быть устойчивым перед лицом неблагоприятной оптимизации, ну… в целом, я думаю, что ты действуешь на почти что до невозможности опасной территории, и я бы посоветовала тебе сообразить, что делать после того, как первая попытка провалится. Но если ты хочешь и впрямь преуспеть, то обыденной паранойи совершенно точно не хватит.

ЭМБЕР: Другими словами, проекты создания оригинальных критических систем обязаны иметь советников с полноценным мышлением безопасника, чтобы советник мог говорить, что создатели системы должны сделать, чтобы обеспечить надёжность.

КОРАЛ: (грустно усмехается)  Нет.

ЭМБЕР: Нет?

КОРАЛ: Давай для конкретики скажем, что ты хочешь создать новую надёжную операционную систему. Это не то, что ты можешь сделать, назначив одного советника с мышлением безопасника и ограниченным политическим капиталом, который он может использовать, чтобы убеждать людей что-то сделать. В качестве метафоры на ум приходит «Строить дом, когда тебе разрешено касаться кирпичей только пинцетом». Тебе понадобятся опытные специалисты по безопасности, работающие на полную ставку и обладающие абсолютным авторитетом. Три, один из которых – сооснователь. Иначе мы всё равно можем оказаться на территории Парадокса Дизайна Пола Грэхэма.

ЭМБЕР: Парадокс Дизайна? Что это?

КОРАЛ: Парадокс Дизайна Пола Грэхэма заключается в том, что люди с хорошим вкусом на интерфейсы могут сказать, проектируют ли другие люди хорошие интерфейсы, но большинство директоров больших компаний хорошего вкуса лишены, и не могут сказать, у кого он есть. И поэтому большие компании не могут просто нанимать людей, талантливых как Стив Джобс, чтобы они создавали для них красивые штуки, хоть Стив Джобс точно не был лучшим дизайнером на планете. Apple существует из-за удачно сложившихся обстоятельств, что Стив Джобс оказался главным. Samsung никак не может нанять кого-то с такими же талантами, потому что Samsung просто получит какого-то парня в костюме, который хорошо будет притворяться Стивом Джобсом перед директорами, которые не увидят разницу.

Аналогично, люди с мышлением безопасника могут заметить, когда у других людей его нет, но я беспокоюсь, что обыденный параноик с трудом заметит разницу, так что ему сложно будет нанять по-настоящему компетентного советника. И, конечно, много людей в большой социальной системе, стоящей за технологическими проектами, лишены даже обыденной паранойи, которой обладают многие хорошие программисты, так что они просто оказываются с костюмами, много говорящими про «риски» и «надёжность». Другими словами, если мы говорим о чём-то настолько сложном, как создание надёжной операционной системы, и твой проект изначально не возглавляется кем-то с полноценным мышлением безопасника, то у тебя проблемы. Говоря «проблемы», я имею в виду «тотально непоправимо обречены».

ЭМБЕР: Смотри, ух, есть некоторый проект, в который я вкладываюсь, собравший сотню миллионов долларов на создание торговых дронов.

КОРАЛ: Торговых дронов?

ЭМБЕР: Ну, есть много стран с плохой рыночной инфраструктурой, и идея в том, что мы сделаем дронов, которые будут летать, покупать и продавать вещи, и они будут использовать машинное обучение, чтобы понять, какие устанавливать цены, и всё в таком роде. Это не только ради денег, мы думаем, что это принесёт этим странам огромную экономическую пользу, действительно поможет их развитию.

КОРАЛ: Боже мой. Окей. Ваша компания в точности про две штуки: надёжность системы и договоры с регулирующими органами. Ну, и ещё маркетинг, но он не считается, потому что каждая компания про маркетинг. Было бы серьёзной ошибкой представлять, что ваша компания про что-то другое, вроде железа дронов или машинного обучения.

ЭМБЕР: Ну, настроения внутри компании такие, что время, чтобы начать думать о законах и надёжности будет, когда мы докажем, что можем создать прототип, и у нас будет запущен хоть небольшой пилотный рынок. В смысле, пока мы не узнаем, как люди используют систему, и как работает софт, сложно представить, что мы можем продуктивно, а не чисто умозрительно, думать о надёжности или регулировании.

КОРАЛ: Ха! Ха, хахаха… о боже мой, ты не шутишь.

ЭМБЕР: Что?

КОРАЛ: Пожалуйста, скажи мне, что то, что ты на самом деле имела в виду – это что у вас есть дорожная карта по надёжности и регулированию, согласно которой вы будете делать некоторую работу позже, но которая явно указывает, какая работа должна быть сделана, когда вы начнёте её делать, и когда должна быть достигнута каждая веха. Конечно, ты не буквально имела в виду, что вы намерены начать думать об этом потом?

ЭМБЕР: Мы много раз на ланче говорили о том, как нас раздражает, что нам надо будет иметь дело с регуляциями и как лучше было бы, если бы государства были более либертарианскими. Это считается за «думать об этом», верно?

КОРАЛ: Боже мой.

ЭМБЕР: Я не понимаю, как мы можем иметь план надёжности, когда мы не точно знаем, надёжности чего. Не окажется ли он попросту ошибочным?

КОРАЛ: Все бизнес-планы стартапов оказываются ошибочными, но они всё равно нужны – и не просто как литературные произведения. Они отображают в письменной форме ваши нынешние убеждения и ключевые допущения. Записывание вашего бизнес-плана проверяет, могут ли ваши нынешние убеждения в принципе быть непротиворечивыми, и подсказывает, какие критические убеждения проверить первыми, и какие результаты должны быть тревожащими, и когда вы опускаетесь ниже ключевых порогов выживания. Идея не в том, что вам нужно придерживаться бизнес-плана; она в том, что бизнес-план (а) проверяет, кажется ли успех вообще возможным любыми способами, и (б) сообщает, когда одно из ваших убеждений опровергнуто, чтобы вы могли явно изменить план и адаптироваться. Иметь записанный план, который вы намерены быстро корректировать при появлении новой информации – одно. НЕ ИМЕТЬ ПЛАНА – другое.

ЭМБЕР: Штука в том, что я несколько обеспокоена, что глава нашего проекта, Мистер Топаз, не особо уделяет внимания возможности, что кто-то обманом заставит дроны отдавать деньги, когда они не должны это делать. В смысле, я пыталась поднять эту тему, но он сказал, что конечно мы не собираемся программировать дроны выдавать деньги кому попало. Может, ты можешь дать ему пару советов? В смысле, о том, когда наступает время начинать думать о надёжности.

КОРАЛ: Ох. Ох, дорогая, милое, милое дитя. Извини. Я ничего не могу для тебя сделать.

ЭМБЕР: А. Но ты даже не взглянула на нашу прекрасную бизнес-модель!

КОРАЛ: Я думала, что, может быть, у вашей компании просто безнадёжный случай недооценённых сложностей и неправильно расставленных приоритетов. Но сейчас это выглядит, будто ваш лидер даже не использует обыденную паранойю, и со скептицизмом на неё реагирует. Называть этот случай «безнадёжным» было бы преуменьшением.

ЭМБЕР: Но провал надёжности был бы очень плох для стран, которым мы пытаемся помочь! Им нужны надёжные торговые дроны!

КОРАЛ: Тогда им нужны дроны, созданные каким-нибудь проектом, которым руководит не мистер Топаз.

ЭМБЕР: Но это очень сложно устроить!

КОРАЛ: …Я не понимаю, как то, что ты говоришь, должно противоречить тому, что я говорю.

ЭМБЕР: Слушай, не судишь ли ты о мистере Топазе слишком быстро? Серьёзно.

КОРАЛ: Я его не встречала, так что возможно, что ты создала у меня неправильное о нём представление. Но если ты правильно отобразила его отношение? То да, я посудила быстро, но это чертовски хорошая догадка. Мышление безопасника уже априори редко встречается. «Я не планирую делать так, чтобы мои дроны отдавали деньги случайным людям» означает, что он представляет, как его система будет работать, как задумано, вместо того, чтобы представлять, как она может работать не как задумано. Если кто-то даже не демонстрирует обыденную паранойю, спонтанно, по своей собственной инициативе, без внешнего толчка, то такой человек не может заниматься безопасностью, точка. С негодованием реагировать на предположение, что что-то может пойти не так – за пределом даже этого уровня безнадёжности, который уже был достаточно безнадёжен.

ЭМБЕР: Слушай… ты можешь просто пойти к мистеру Топазу и попробовать сказать ему, что ему надо сделать, чтобы добавить его дронам немного надёжности? Просто попробовать? Потому что это супер-важно.

КОРАЛ: Я могу попробовать да. Я не могу преуспеть, но попробовать могу.

ЭМБЕР: О, но, пожалуйста, будь осторожна, не будь с ним сурова. Не фокусируйся на том, что он делает неправильно – и попробуй ясно показать, что эти проблемы не слишком серьёзные. Ему надоел алармизм в медиа про апокалиптические сценарии с армиями злых дронов, заполняющих небо, и мне было непросто убедить его, что я не просто ещё один алармист с фантастическими катастрофическими сценариями дронов, отвергающих собственные программы.

КОРАЛ:

ЭМБЕР: И, может, попробуй не касаться в вводном разговоре того, что может прозвучать безумными крайними случаями, вроде того, что кто-то забыл проверить конец буфера, а противник закинул туда огромную строку символов, переписавших конец стека адресом возврата, перенаправляющим в раздел кода где-то ещё, где система делает то, что надо противнику. В смысле, ты убедила меня, что об этих притянутых за уши сценариях стоит волноваться, даже если они лишь канарейки в угольной шахте более реалистичных провалов. Но мистер Топаз думает, что это немного глупо, и я не думаю, что тебе стоит пытаться объяснять ему на мета-уровне, почему это не так. Он скорее всего подумает, что ты снисходительно говоришь ему, как думать. Особенно если ты просто занимаешься операционными системами, и не имеешь опыта создания дронов, и не видишь, что на самом деле заставляет их ломаться. В смысле, я думаю, что он скажет тебе что-то такое.

КОРАЛ:

ЭМБЕР: Ещё, давая советы, начни с самых дешёвых исправлений. Я не думаю, что мистер Топаз хорошо отреагирует, если ты скажешь ему, что надо начать всё заново на другом языке программирования, или организовать ревизионную комиссию для всех изменений кода, или что-то такое. Он беспокоится о том, что конкуренты выйдут на рынок первыми, так что он не хочет делать что-то, что его замедлит.

КОРАЛ:

ЭМБЕР: Э, Корал?

КОРАЛ: … замедлит его оригинальный проект, в новой области, занимающийся не в точности тем, что кто-то уже делал, с оригинальными критически важными подзадачами, для которых нет ни стандартизированных лучших практик безопасности, ни какого-либо понимания, что делает систему устойчивой или неустойчивой.

ЭМБЕР: Верно!

КОРАЛ: И сам мистер Топаз, кажется, не слишком ужасается этой ужасающей задачей, которая перед ним стоит.

ЭМБЕР: Ну, его беспокоит, что кто-то другой сделает торговых дронов первым и злоупотребит этой ключевой экономической инфраструктурой в плохих целях. Это по сути та же штука, верно? Вроде, это демонстрирует, что его может что-то беспокоить?

КОРАЛ: Это абсолютно другое. Обезьяны, которые могут бояться, что другие обезьяны доберутся до бананов первыми, встречаются куда чаще, чем обезьяны, беспокоящиеся, что бананы проявят странное поведение системы перед лицом неблагоприятной оптимизации.

ЭМБЕР: Ох.

КОРАЛ: Я боюсь, что то, что мистер Топаз пересмотрит для себя принципы создания устойчивого софта, лишь немногим вероятнее, чем что Луна спонтанно превратится в органически выращенный козий сыр.

ЭМБЕР: Я думаю, ты с ним слишком сурова. Я знаю мистера Топаза, и он кажется мне довольно умным.

КОРАЛ: Опять же, при условии, что ты точно его описала, мистер Топаз кажется лишённым того, что я называю обыденной паранойей. Если у него и есть эта когнитивная способность, как у многих умных программистов, то, очевидно, он не склонен применять эту паранойю к ключевым параметрам своего проекта дронов. Ещё, кажется, мистер Топаз не осознаёт, что есть навык, которого он лишён, и был бы оскорблён таким предположением. В голову приходит история про фермера, которого проезжающий водитель спросил дорогу до Пункта Б, на что фермер ответил «Если бы я пытался попасть в Пункт Б, я бы точно не начинал отсюда.»

ЭМБЕР: Мистер Топаз значительно продвинул прогресс технологий дронов, так что он не может быть глупым, верно?

КОРАЛ: «Мышление безопасника» кажется мне когнитивным талантом, отдельным от g-фактора и даже от способностей к программированию. На самом деле, кажется, нет такого уровня человеческой гениальности, который гарантировал бы хотя бы способность к обыденной паранойи. Это заставляет некоторых специалистов по безопасности, включая меня, чувствовать себя несколько странно – так же, как многим программистам сложно понять, почему не кто угодно может научиться программировать. Но, кажется, наблюдения говорят о том, что и обыденная паранойя, и мышление безопасника – это штуки, которые могут быть отделены от g-фактора и способностей к программированию – и что если бы это было бы не так, то Интернет был бы куда надёжнее, чем на самом деле.

ЭМБЕР: Как ты думаешь, помогло бы, если бы мы поговорили с другими вкладчиками, финансирующими этот проект, и убедили бы их попросить мистера Топаза назначить Специального Советника по Устойчивости, докладывающего напрямую Главному Техническому Директору? Мне это кажется политически сложным, но возможно, мы могли бы такое провернуть. Когда пресса начала делать предположения о восстающих дронах, может быть, собирающихся в больших роботов с лазерами в глазах в духе Вольтрона, мистер Топаз сказал вкладчикам, что он очень обеспокоен этикой безопасности дронов, и что у него было много долгих разговоров об этом в обеденные часы.

КОРАЛ: Тут я выхожу немного за пределы своей области профессионализма, которая не включает саму по себе корпоративную политику. Но предполагаю, что для подобного пытающегося войти в новую область проекта человек с мышлением безопасника должен иметь как минимум статус сооснователя, и ему должны лично доверять все сооснователи без этого навыка. Это не может быть приведённый вкладчиками чужак с ограниченным политическим капиталом и необходимостью выигрывать спор каждый раз, когда надо убедить не держать все сервисы удобно включёнными по умолчанию. Я подозреваю, что вашим стартапом просто руководит не тот человек, и что эту проблему нельзя исправить.

ЭМБЕР: Пожалуйста, не сдавайся так просто! Даже если всё настолько плохо, как ты говоришь, просто увеличение вероятности того, что наш проект будет надёжным с 0% до 10% было бы очень ценно с учётом всех тех людей во всех тех странах, которым нужны торговые дроны.

КОРАЛ: …смотри, в какой-то момент надо попробовать отсортировать наши приложенные усилия и сдать те, которые нельзя вытащить. Ты знаешь, что зачастую вероятность успеха меняется по логистической кривой? Расстояния измеряются в мультипликативных шансах, не аддитивных процентах. Ты не можешь взять такой проект и допустить, что, приложив некую тяжёлую работу, ты можешь увеличить его абсолютный шанс успеха на 10%. Скорее, шансы провала к шансам успеха этого проекта изначально 1,000,000:1, и если мы будем очень вежливо обхаживать ощущение мистера Топаза, что его статус выше нашего, и сможем объяснить ему пару советов, ни в какой момент не звуча так, будто мы думаем, что знаем что-то, чего не знает он, то мы сможем упятерить его шансы на успех, и они станут 200,000:1. Что в мире десятых долей процентов означает повышение шансов с 0.0% до 0.0%. Это один из способов думать о «законе продолжающегося провала».

Если бы у тебя был проект, где изначально получались, скажем 15% шансов успеха, то это была бы нужная часть логистической кривой, и в таком случае было бы весьма осмысленно искать способы повысить шансы до 30% или 80%.

ЭМБЕР: Смотри, я обеспокоена, что будет очень плохо, если мистер Топаз первым выйдет на рынок с ненадёжными дронами. Ну, я думаю, что эти дроны могли бы быть очень выгодны для стран без особой существующей рыночной основы, а при крупном провале – особенно, если у одного из потенциальных клиентов украдут деньги или вещи – то это отравит потенциальный рынок на годы. Это было бы ужасно! Серьёзно, по-настоящему ужасно!

КОРАЛ: Вау. Это уж точно звучит как не самый приятный сценарий, чтобы в нём оказаться.

ЭМБЕР: Но что нам делать сейчас?

КОРАЛ: Чёрт меня побери, если я знаю. Я подозреваю, что пока единственный способ победить – если кто-то вроде мистера Топаза создаст устойчивую систему, вы в заднице. Я полагаю, что вы могли бы попытаться обеспечить существование какого-нибудь другого проекта дронов, возглавляемого кем-то, про кого, скажем, Брюс Шнайер уверит всех, что этот человек необычайно хорош в мышлении безопасника, и, значит, может нанимать людей вроде меня и слушать все суровые вещи, которые эти люди будут говорить. Хотя надо признать, та часть, где по твоему мнению критически важно, чтобы надёжная система вышла на рынок раньше ненадёжной – ну, это звучит совершенно кошмарно. Вам потребуется намного больше ресурсов, чем есть у мистера Топаза, или какое-то ещё очень большое преимущество. Надёжность требует времени.

ЭМБЕР: Действительно ли настолько сложно добавить надёжности системе дронов?

КОРАЛ: Ты продолжаешь говорить про «добавление» надёжности. Устойчивость системы – не такое свойство, которое можно вписать в софт задним числом.

ЭМБЕР: Кажется, мне сложно увидеть, почему это настолько затратно. Ну, если кто-то сдуру создал ОС, которая даёт доступ кому угодно, то ты можешь навесить на неё систему паролей, используя твою умную схему, когда ОС хранит хэши паролей, а не их самих. Ты просто тратишь пару дней, переписывая все сервисы с доступом из Интернета, чтобы они спрашивали пароль, прежде чем предоставлять доступ. И тогда ОС становится надёжной! Верно?

КОРАЛ: НЕТ. Всё в твоей системе, что потенциально подвержено враждебному отбору вероятности странного поведения – уязвимость! Всё, открытое для атаки, и всё, с чем эти подсистемы взаимодействуют, и всё, с чем взаимодействуют те части! Всё это нужно сделать устойчивым! Если ты хочешь создать надёжную ОС, то тебе нужен целый специальный проект «создания надёжной операционной системы вместо ненадёжной операционной системы». А ещё тебе надо ограничить масштаб своих амбиций, и не делать всё, чего хочется, и подчиняться заповедям, которые для кого-то без полноценного мышления безопасника кажутся большими неприятными жертвоприношениями. OpenBSD не может делать и десятой доли того, что может Ubuntu. Разработчики не могут этого себе позволить! Тогда поверхность для атак была бы слишком велика! Они не могут проверять настолько много кода, используя специальный процесс, с помощью которого они разрабатывают надёжный софт! Они не могут держать в своих головах так много допущений!

ЭМБЕР: Должно ли это усилие тратить значительное количество дополнительного времени? Уверена ли ты, что этого нельзя сделать за ещё пару месяцев, если мы торопимся?

КОРАЛ: ДА. С учётом того, что это оригинальный проект в новой области, ожидай, что это займёт как минимум на два года или на 50% – что из этого меньше – больше времени – чем не заботящийся о надёжности проект с теми же инструментами, озарениями, людьми и ресурсами. И это очень, очень оптимистичная нижняя граница.

ЭМБЕР: Эта история, кажется, идёт в тревожном направлении.

КОРАЛ: Ну, извини, но создание устойчивых систем занимает больше времени, чем создание неустойчивых, даже если было бы по-настоящему экстраординарно плохо, если бы создание устойчивых систем занимало больше времени, чем создание неустойчивых.

ЭМБЕР: Не может ли быть так, что проекты с хорошими практиками надёжности делают всё настолько чище и лучше, что они могут выйти на рынок быстрее, чем любые ненадёжные конкуренты?

КОРАЛ: … Мне правда сложно увидеть, почему ты предпочитаешь рассматривать именно эту гипотезу. Устойчивость подразумевает процессы проверки, занимающие дополнительное время. OpenBSD не проходит строки кода быстрее, чем Ubuntu.

Но, что более важно, если у всех есть доступ к одним и тем же инструментам, озарениям и ресурсам, то необычайно быстрый метод делать что-то осторожно всегда может быть превращён в ещё более быстрый метод делать то же самое неосторожно. Не существует и никогда не будет существовать языка программирования, на котором хоть немного сложно писать плохие программы. Не существует и никогда не будет существовать методологии, которая делает само по себе написание ненадёжного софта медленнее, чем написание надёжного. Любой профессионал в области безопасности, услышав про твои светлые надежды, просто посмеётся. Спроси и их, если не веришь мне.

ЭМБЕР: Но не должны ли неосторожные инженеры быть попросту неспособны вовсе создавать софт из-за обычных багов?

КОРАЛ: Боюсь, что и возможно, и очень распространено на практике, что люди исправляют все баги, которые заставляют их системы вылетать в повседневном тестировании, используя методологии, действительно адекватные для исправления обычных багов, проявляющихся достаточно часто, чтобы это затрагивало значительную долю пользователей, а затем выпускают продукт. У них всё работает сегодня, и они не чувствуют, что у них есть резервы, чтобы задержать выпуск ещё больше, они и так отстают от плана. Они не нанимают особых людей, чтобы делать в десять раз больше работы, чтобы предотвратить появление в продукте дырок, которые проявляются только от неблагоприятного оптимизационного давления, их найдёт кто-то другой, а они узнают об этом лишь слишком поздно.

Это даже не ошибочное решение для продуктов, не соединённых с Интернетом, не имеющих достаточно пользователей, чтобы кто-то из них оказался враждебен, не оперирующих деньгами, не содержащих ценных данных и не делающих ничего, что может навредить людям, если что-то пойдёт не так. Если твой софт не уничтожает ничего важного, когда взрывается, то, наверное, лучшее использование ограниченных ресурсов – планировать исправлять баги, когда они будут показываться.

… Конечно, тебе нужна некоторая степень мышления безопасника, чтобы понять, какой софт на самом деле может уничтожить компанию, если он втихую испортит данные, и никто не заметит, пока не пройдёт месяц. Я не думаю, что в случае твоих дронов, они переносят лишь ограниченную долю всего доступного бюджета компании за день, и у вас всегда есть более чем достаточно денег, чтобы возместить ущерб всем клиентам, если все товары за день перевозок будут утеряны, с учётом того, покупок или продаж за него может быть куда больше, чем обычно? И что система генерирует внутренние бумажные квитанции, которые явно показываются клиенту и не-электронно согласуются раз в день, позволяя вам заметить проблему, пока не стало слишком поздно?

ЭМБЕР: Не-а!

КОРАЛ: Тогда, как ты и сказала, для мира было бы лучше, если бы ваша компания не существовала и не собиралась ворваться в эту новую область и отравить её впечатляющим провалом.

ЭМБЕР: Если я в это поверю… ну, мистер Топаз уж точно не остановит свой проект и не позволит кому-то ещё взять над ним контроль. Кажется, логическое следствие твоих слов – что я должна попробовать убедить венчурных капиталистов, которых я знаю, запустить более безопасный проект дронов с ещё большим финансированием.

КОРАЛ: Ух, извини за прямоту, но я не уверена, что у тебя есть достаточный уровень мышления безопасника, чтобы опознать исполнителя, который в нём значительно лучше, чем ты. Попытка получить достаточное преимущество по ресурсам, чтобы одолеть ненадёжный продукт на рынке – это лишь половина твоей задачи при запуске конкурирующего проекта. Вторая половина – одолеть априорную редкость людей с настоящим глубоким мышлением безопасника, и получить кого-то такого полностью посвящённого твоему делу в качестве главного. Или хотя бы получить его как высокодоверенного полностью посвящённого сооснователя без ограничений бюджета и политического капитала. Скажу это ещё раз: назначенного вкладчиками советника и близко недостаточно для подобного проекта. Даже если этот советник действительно хороший профессионал в области безопасности—

ЭМБЕР: Это всё кажется необоснованно сложным требованием. Можешь вернуться немного назад?

КОРАЛ: —человек во главе скорее всего попробует торговаться с реальностью в лице неприятного голоса специалиста по безопасности, у которого нет достаточного социального капитала, чтобы протолкнуть «необоснованные» меры. Что означает полностью автоматический провал.

ЭМБЕР: … Тогда что мне делать?

КОРАЛ: Я на самом деле не знаю. Но в запуске другого проекта дронов с ещё большим финансированием нет толка, если у него будет другой такой же мистер Топаз во главе. Что, по умолчанию, ровно то, что сделают твои друзья-венчурные капиталисты. Это просто создаст ещё большую конкурентную планку для любого, кто действительно попытается первым выйти на рынок с надёжным решением, да помилует Бог их души.

К тому же, если мистер Топаз подумает, что конкурент наступает ему на пятки и собирается вывести свой продукт на рынок, то его шансы на создание надёжной системы упадут в десять раз с 0.0% до 0.0%.

ЭМБЕР: Уж точно, мои друзья-венчурные капиталисты уже сталкивались с проблемами такого рода и знают, как опознавать и нанимать исполнителей, которые хорошо справляются с надёжностью?

КОРАЛ: … Если один из них – Пол Грэхэм, то, может быть, да. Но в среднем – НЕТ.

Если бы среднестатистический венчурный капиталист всегда уверялся, что у проекта, нуждающегося в надёжности, есть основатель или сооснователь с мышлением безопасника – если бы он был способен в этом увериться в тех случаях, когда решил, что хочет – Интернет, опять же, выглядел бы совсем по-другому. По умолчанию, твои друзья будут обдурены кем-то выглядящим очень трезвомысляще и много рассказывающим об ужасной обеспокоенности кибербезопасностью и о том, как система будет супербезопасной и отвергать более девяти тысяч часто встречающихся паролей, включая тридцать шесть паролей, перечисленных вот на этом слайде, и венчурные капиталисты заохают и заахают, особенно когда один из них поймёт, что на слайде есть его собственный пароль. Такой лидер проекта совершенно точно ничего не захочет от меня слышать – ещё меньше, чем мистер Топаз. Для него я – политическая угроза, которая может навредить его контакту с вкладчиками.

ЭМБЕР: Мне сложно поверить, что все эти умные люди могут на самом деле быть такими глупыми.

КОРАЛ: Ты сжимаешь своё внутреннее ощущение социального статуса и свою оценку того, как хороши конкретные способности конкретных людей в одно измерение. Это плохая идея.

ЭМБЕР: Я не говорю, что я думаю, что кто угодно с высоким статусом обязательно владеет навыком глубокой надёжности. Мне просто сложно поверить, что они не могут быстро ему научиться, если им сказать, или что они застрянут в неспособности опознать владеющих им хороших советников. Это бы означало, что они не могут знать что-то, что знаешь ты, причём что-то, что кажется важным, и это просто… как-то кажется неправильным. Получается, есть все эти успешные и важные люди, а ты говоришь, что ты лучше их, несмотря на всё их влияние, навыки ресурсы—

КОРАЛ: Смотри, тебе не надо верить мне на слово. Подумай о всех тех шикарно выглядящих сайтах, на которых ты была, через которые, может быть, проходили продажи на миллионы долларов, и на которых требовалось, чтобы твой пароль был смесью больших и маленьких букв и чисел. Другими словами, они хотят, чтобы ты ввела «Пароль1!» вместо «верно лошадь батарея скоба». Каждый из них делает то, что кажется смехотворно глупым любому обладателю полноценного мышления безопасника и даже любому, кто просто регулярно читает XKCD. Это говорит о том, что система безопасности была настроена кем-то, кто не знал, что делает, и просто слепо имитировал впечатляюще выглядящие ошибки, увиденные где-то ещё.

Ты думаешь, это производит хорошее впечатление на клиентов? Да, производит! Потому что клиенты разбираются не лучше. Ты думаешь, система авторизации производит хорошее впечатление на инвесторов, включая профессиональных венчурных капиталистов, и на, наверное, каких-нибудь ангелов с собственным опытом стартапов? Да, производит! Потому что венчурные капиталисты разбираются не лучше, и даже ангел не разбирается лучше, и они не осознают, что лишены важного навыка, и не консультируются у кого-нибудь, кто знает получше. Простаков впечатляет, если сайт требует смесь больших и маленьких букв и цифр и знаков препинания. Они думают, что люди, управляющие сайтом, должно быть реально обеспокоены безопасностью, раз они ввели столь необычное и неудобное требование. Управляющие сайтом люди тоже думают, что дело обстоит именно так.

Люди с глубоким мышлением безопасника редки и редко оценены по заслугам. Просто из системы авторизации можно понять, что никто из венчурных капиталистов, и директоров стартапа не подумал, что им надо проконсультироваться с настоящим профессионалом, или нанять настоящего профессионала, а не пустой костюм. Ясно видно, что в этой системе нет никого с необходимыми знаниями и достаточным статусом, чтобы прийти к генеральному директору и сказать «Ваша система авторизации – позорище, и вам надо нанять настоящего профессионала по безопасности». Или, если кто-то сказал это генеральному директору, то тот оскорбился и казнил гонца за недостаточно вежливые формулировки, или технический директор воспринял чужака как политическую угрозу и вывел его из игры.

Твоя гипотеза из вселенной как-должно-было-быть о том, что люди, способные прикоснуться к полноценному мышлению безопасника, чаще встречаются в экосистеме венчурных капиталистов и ангелов, попросту неверна. Обыденная паранойя, направленная на широко известные случаи, и так достаточно распространена в большой экосистеме, чтобы оказывать общее социальное влияние, хоть всё ещё комически недостаточна во многих отдельных случаях. Люди с полноценным мышлением безопасника слишком редки для такого же уровня присутствия. Это легко видимая истина. Ты можешь увидеть все эти системы авторизации, требующие знак пунктуации в пароле. Это не галлюцинации.

ЭМБЕР: Если всё это правда, то я попросту не вижу, как я могу выиграть. Может, мне стоит просто принять за данность, что всё, что ты говоришь, неверно, ведь, если оно верно, то моя победа выглядит крайне маловероятной – а значит, все мои победы будут в мирах с другими фоновыми допущениями.

КОРАЛ: … ты часто такое говоришь?

ЭМБЕР: Ну, я это говорю, когда моя победа начинает выглядеть значительно маловероятной.

КОРАЛ: Господи. Я могу, может быть, может быть, представить, как кто-то говорит это один раз за всю свою жизнь, для одного маловероятного условия, но делать это больше одного раза – чистое безумие. Я бы ожидала, что маловероятные условия будут накапливаться очень быстро, и очень быстро уронят вероятность твоего мысленного мира до практически нуля. Это соблазнительно, но сворачивать в свою собственную вселенную галлюцинаций, когда ты ощущаешь себя под эмоциональным давлением – плохая идея. Я убеждена, что независимо от сложностей, мы вероятнее всего придём к хорошему плану, если мы мысленно обитаем в реальности, а не где-то ещё. Если всё выглядит сложным, то нам надо столкнуться с трудностями лицом к лицу, чтобы составить решение, соответствующее тому, насколько ситуация действительно плоха, а не основываться на условии, что всё не так сложно, потому что это проще.

ЭМБЕР: Можешь хотя бы попробовать поговорить с мистером Топазом и посоветовать ему, как сделать всё понадёжнее?

КОРАЛ: Конечно. Пытаться легко, а я – персонаж в диалоге, так что мои альтернативные издержки малы. Я уверена, что мистер Топаз тоже пытается создать надёжные торговые дроны. Преуспеть – вот тяжёлая часть.

ЭМБЕР: Отлично, я посмотрю, смогу ли я устроить разговор с ним. Но, пожалуйста, будь вежлива! Если ты думаешь, что он что-то делает неправильно, постарайся указать на это аккуратнее, чем в разговоре со мной. Я думаю, что моего политического капитала достаточно, чтобы ввести тебя в дверь, но его не хватит надолго, если ты будешь грубой.

КОРАЛ: Знаешь, когда-то в мейнстримной компьютерной безопасности считалось традиционно и мудро, чтобы все собирались вокруг твоего нового предложения, как сделать систему понадёжнее, и старались придумать причины, почему твоя идея может не сработать. Понятно, что независимо от ума, большинство кажущимися умными идеи окажутся не без недостатков, и что тебе не стоит злиться на то, что люди пытаются с ними поспорить. Знаком ли мистер Топаз хоть немного с практиками из компьютерной безопасности? Многие программисты знакомы.

ЭМБЕР: Я думаю, что он бы сказал, что уважает область компьютерной безопасности саму по себе, но не считает, что создание надёжной операционной системы – та же задача, что и создание торговых дронов.

КОРАЛ: А если бы я предположила, что этот случай может быть похож на задачу создания надёжной операционной системы, и что в нём есть аналогичная нужда в более тщательной и осторожной разработке, требующей и (а) дополнительного времени, и (б) снабжения осторожностью от людей с необычным типом мышления за пределом обыденной паранойи, имеющих необычный навык распознавания сомнительных допущений в истории надёжности ещё до того, как обыденный параноик посчитает пожар достаточно срочным, чтобы заслуживать погашения, и способный одолеть проблему более глубокими решениями, чем обыденный параноик, который просто генерировал бы блоки против воображаемых атак?

Если бы я действительно предположила, что этот сценарий применим всегда, когда мы требуем устойчивости от сложной системы, подверженной сильным внешним или внутренним давлениям оптимизации? Давлениям, которые сильно продвигают вероятности некоторых положений дел с помощью оптимизационного поиска по большому и сложному пространству состояний? Давлениям, которые отбирают странные состояния и непредвиденные пути исполнения частей системы? Особенно, если какие-то из этих давлений могут быть в некотором смысле креативными и обнаруживать состояния системы или окружения, удивляющие нас или нарушающие наши поверхностные обобщения?

ЭМБЕР: Я думаю, он скорее всего подумал бы, что ты пытаешься выглядеть умной, используя слишком абстрактный язык в разговоре с ним. Или он бы ответил, что не видит, почему необходима большая осторожность, чем у него уже есть благодаря тестированию дронов, чтобы уверится, что они не разобьются и не выдадут слишком много денег.

КОРАЛ: Ясно.

ЭМБЕР: Ну что, пойдём?

КОРАЛ: Конечно же! Без проблем! Мне просто нужно встретиться с мистером Топазом и использовать словесное убеждение, чтобы превратить его в Брюса Шнайера.

ЭМБЕР: Вот это настрой!

КОРАЛ: Боже, как бы я хотела жить в территории, соответствующей твоей карте.

ЭМБЕР: Эй, да ладно. Серьёзно ли настолько сложно внушать людям необычайно редкие ментальные навыки, разговаривая с ними? Я согласна, что то, что мистер Топаз не показывает признаков желания приобрести эти навыки и не думает, что наш относительный статус достаточен, чтобы продолжить нас слушать, если мы скажем что-то, что он не хочет слышать – плохие знаки. Но это просто значит, что нам нужно умно сформулировать наш совет, чтобы он захотел его услышать!

КОРАЛ: Предполагаю, что ты могла бы модифицировать своё сообщение во что-то, что мистеру Топазу не было бы неприятно слышать. Что-то, что звучит связанным с темой надёжности дронов, но не слишком много ему стоит, и, конечно, не сделает его дронов по-настоящему надёжными, потому что это было бы весьма неприятно и дорого. Ты могла бы слегка свернуть от реальности в боковые улочки и убедить себя, что у тебя получилось переманить мистера Топаза на свою сторону, раз он звучит соглашающимся. Твоё инстинктивное желание иметь высокостатусную обезьяну на твоей политической стороне было бы исполнено. Ты смогла бы заменить неприятное ощущение от того, что дроны на самом деле не сделаны надёжными на ощущение решённости проблемы; смогла бы сказать себе, что обезьяна побольше позаботится обо всём, раз она теперь, кажется, на твоей приятной политической стороне. И ты была бы довольна. Пока дроны не выйдут на рынок, конечно, но это неприятное ощущение должно быть быстрым.

ЭМБЕР: Да ладно, у нас получится! Тебе надо смотреть на вещи позитивно!

КОРАЛ: … Ну, это хотя бы будет интересный опыт. Я никогда не пыталась сделать что-то настолько обречённое.

Перевод: 
Выменец Максим
Оцените качество перевода: 
Голосов пока нет

Нормальные распределения в предсказаниях

Жан Кристиан Рефсгаард

Предсказания - хорошая практика, особенно, если их записывать.

Однако мы часто делаем бинарные предсказания тогда, когда это вовсе не требуется:

  • Байден победит на всенародном голосовании: 91%
  • Число смертей от COVID в Дании перевалит за 10000 до конца года: 84%

Вместо этого мы можем делать предсказания, используя нормальные распределения:

  • Доля голосов за Байдена на всенародном голосовании ~ N(0.54, 0.03)
  • Число смертей от COVID в Дании до конца года ~ N(15000, 5000)
    („~“ означает „имеет распределение“)

Составление «нормальных» предсказаний может показаться запутанным, но этого эссе должно быть достаточно, чтобы понять основы и, самое главное, научиться отслеживать свою калибровку, что гораздо сложнее делать с бинарными предсказаниями.

Ключевые моменты:
1. Предсказывать по нормальным распределениям на удивление просто.
2. Для получения числа, показывающего насколько сильно вы пере/недо оцениваете свою уверенность, достаточно простой математики!
3. Нормальное распределение содержит больше информации, чем Бернулли (бинарный результат, как при бросании монетки) и, как следствие, позволяет сделать более точные выводы!

Вопросы, на которые ответит это эссе:
1. Как мне сделать «нормальное» предсказание?
2. Зачем мне это?
3. Как мне отслеживать свою калибровку?

Коротко о нормальном распределении

Нормальное распределение обычно записывается как N($\mu$,$\sigma$) и имеет 2 параметра:

Правило трёх сигм гласит:

  • 68% ваших предсказаний должны попадать в интервал $\mu\pm1\sigma$
  • 95% ваших предсказаний должны попадать в интервал $\mu\pm2\sigma$
  • 99.7% ваших предсказаний должны попадать в интервал $\mu\pm3\sigma$

График

50% предсказаний должны оказаться в пределах $0.674\sigma\approx\frac{2}{3}\sigma$ от среднего значения, это число можно использовать для быстрой проверки

Последняя мелочь, которую нам нужно помнить: дисперсия нормального распределения это просто $\sigma^2$:

$$
Var(N(\mu, \sigma)) = \sigma^2
$$

Как делать предсказания

Предсказание состоит из двух шагов: предсказание $\mu$ и использование правила трёх сигм, чтобы подобрать вашу неуверенность в $\mu$.

Я попытался спрогнозировать долю голосов за Байдена на выборах 2020 года. По результатам опросов я получил точечную оценку 54%, это $\mu$. Используем правило трёх сигм и посмотрим, что это будет означать для различных значений $\sigma$. Таблица для $\sigma$ от 2 до 5:

Таблица

$\sigma=2$ подразумевает шанс 97.5% (интервал 95% + половина остатка), что Байден получит более 50% голосов; я не был настолько уверен. $\sigma=4$ подразумевает шанс 84% (68% + 32%/2), что Байден получит более 50% голосов, и шанс 16% победы Трампа. Это я посчитал слишком высоким, поэтому остановился на $\sigma=3$.

Зачем это нужно

Байден получил 52% голосов, что было в пределах одной сигма от моего предсказания. Таким образом, я извлёк два слабых урока из ОДНОЙ точки данных:
1. Организаторы опросов облажались, так что мне следовало сместить $\mu$ в сторону среднего значения (50%), предсказав, например, 53% вместо 54%.
2. Реальное значение было ровно в $\frac{2}{3}\sigma$ от $\mu$, так что $\sigma$ оказалась на 50%/50% границе, как и ожидалось. Мне повезло, но это слабое свидетельство, что $\sigma$ была подобрана хорошо.

Представьте, что вместо этого я предсказал что Байден победит (на всенародном голосовании) с вероятностью 91%. Ну, он победил, так что я был прав… и на этом всё. Странно думать, что мне стоило предсказать 80%, так как организаторы опросов облажались, ведь это более слабое предсказание, а более сильное оказалось верным! Мне бы потребовалось предсказать результаты множества других выборов, чтобы заметить, что моя уверенность слишком низка или высока.

Как отслеживать свою калибровку

Замечание: В прошлом разделе мы использовали для предсказаний $\mu$ и $\sigma$. В этом разделе мы будем использовать $\mu_i$ и $\sigma_i$, где i это индекс (предсказание 1, предсказание 2… предсказание N). Мы воспользуемся $\hat{\sigma}_z$ для оценки точки калибровки; то есть $\hat{\sigma}_z$ это число, такое как 1.73. В следующем эссе в серии, мы будем использовать $\sigma_z$ для калибровочного распределения.

Я также сделал ужасное предсказание во время ранних дней локдауна в 2020. Я предсказал N(15000, 5000) смертей от COVID в Дании до начала 2022 года. Наблюдаемое значение составило 3 200, что находится на расстоянии $\frac{15000 - 3200}{5000}=2.36$ стандартных отклонений от моего предсказания, то есть за пределами 95% интервала!

В этом разделе мы приведём наши предсказания к общему виду, который называется стандартизированной или z-оценкой. Если все наши предсказания находятся на одной стандартной шкале, мы можем их сравнивать.

$$
z_{ideal} \sim N(0, 1) \
Var(z_{ideal}) = 1^2=1
$$

Обычно когда мы преобразуем к z-оценкам, мы используем саму информацию, чтобы рассчитать $\mu$ и $\sigma$, что гарантирует распределение N(0, 1). Сейчас мы воспользуемся нашими предсказанными $\mu$ и $\sigma$. Это означает, что между $z_{идеальное}$ и нашим $z$ будет расхождение. Это расхождение показывает, насколько мы недо/пере оцениваем предсказанные интервалы, а следовательно описывает нашу калибровку. То есть, например, если $\hat{\sigma_z} = 2$, то все наши интервалы должны быть в два раза шире, чтобы достигнуть $z_{перекалиброванное} \sim N(0, 1)$.

Сначала мы производим z-оценку наших предсказаний, рассчитывая, на сколько $\sigma$ они отличаются от наблюдаемых значений $x$ по этой формуле:

$$
z_i = \frac{\mu_i - x_i}{\sigma_i}
$$

Затем мы рассчитываем $\hat{\sigma}_z$ - среднее квадратичное отклонение от всех предсказаний:

$$
Var(z) = \sum_{i=0}^N Var(z_i) = \sum_{i=0}^N z_i^2
$$
$$
\hat{\sigma}_z = \sqrt{\frac{Var(z)}{N}}
$$

Давайте посчитаем $\hat{\sigma}_z$ для моих двух предсказаний. Сначала дисперсии:

  • $Var(z_1)=(\frac{54-52}{3})^2=\frac{4}{9}$
  • $Var(z_2)=(\frac{15000 - 3200}{5000})^2=5.57$

Затем считаем $\hat{\sigma}_z$:

$$
\hat{\sigma}_z = \sqrt{\frac{Var(z)}{N}} = \sqrt{\frac{\frac{4}{9} + 5.57}{2}} = 1.73
$$

Так что если учитывать только эти два моих предсказания, я должен расширить свой интервал на 73%. Другими словами, так как $\hat{\sigma}_z$ равна 1.73, а не 1, мои интервалы в 1.73 раза уже, чем должны быть. Если бы я получил $\hat{\sigma}_z<1$, например $\hat{\sigma}_z=0.5$, это было бы свидетельством того, что мои интервалы чересчур широки и должны быть сужены, путём умножения на 0.5.

Всё ещё не убеждены?

Вот несколько бонусных аргументов:
1. Слабые 50/50: Иногда мы действительно уверены в чём-то на 50%, как пример рассмотрим предсказание Скотта Александра о том, достигнет ли курс Биткоина 3000 в 2019; эти бинарные 50%/50% могут быть переформулированны как "Биткоин ~ N(3000, 1500)" так что цена в 10000 засчитывается против предсказания. Теперь даже слабые предсказания генерируют свидетельства для калибровки!
2. Завышение и занижение: Если бы Байден получил 20 или 80% голосов, оба исхода были бы сильными свидетельствами того, что моё предсказание неверно, тогда как бинарное предсказание может указать на ошибку в одном направлении.
3. Предсказания с высокой уверенностью проще калибровать: В бинарной стране предсказания с уверенностью 99% очень сложно откалибровать, потому что нам нужно сделать сотни таких предсказаний чтобы собрать достаточно информации (если, конечно, многие из них не окажутся ложными сразу). Соответствующее нормальное предсказание будет иметь маленькую $\sigma$ и, соответственно, давать нам столько же свидетельств для калибровки, как и 60% предсказание.
4. Правота по ошибке: N(50.67, 0.5), N(54, 3), N(58, 6) - все эти распределения дают Байдену 91% шанс на победу, но по совершенно разным причинам, каждое из них приведёт к разным изменениям калибровки после наблюдения $x=52$.

Продвинутые техники

Иногда ваши убеждения не следуют нормальному распределению. Например, предсказание курса Биткоина N(3000, 1500) подразумевает наличие шанса 2.5%, что цена станет негативной, что невозможно. Вот три решения этой проблемы в порядке возрастания навороченности:

  1. Своя $\sigma$ для каждого направления::

$$
Bitcoin \sim 0.5 HN(3000, \sigma_{up}=3000) + 0.5 HN(3000, \sigma_{down}=1500)
$$
(HN = Half Normal)

То есть если курс выше 3000, то $\sigma=3000$, а если курс ниже, то $\sigma=1500$. Если мы следуем этой схеме, то при калибровке можно использовать соответствующую сигму и игнорировать другую. Так что если курс Биткоина окажется $x=10.000$, то z станет $\frac{7}{3}$:

$$
z = \frac{3000 - 10000}{3000}=-\frac{7}{3}
$$

  1. Часто мы считаем, что что-то увеличивается или уменьшается в разы, как, например, удваивающийся или падающий в два раза Биткоин. Представим, что Скотт подумал, что курс Биткоина изменится менее чем в два раза с шансом 68%.

$$
\mu = log_{10}(3000) \approx 3.477 \
\sigma = log_{10}(2) \approx 0.301 \
log_{10}(Bitcoin) \sim N( 3.477, 0.301)
$$

z-оценка работает точно так же, то есть если курс Биткоина составил 10000:

$$
log_{10}(x) = log_{10}(10.000) = 4 \
z \approx \frac{3.477 - 4}{0.301} \approx -1.74
$$

  1. (Если эта часть непонятна, просто пропустите): Можно использовать и произвольное распределение, в этом случае сконвертируйте его в $U(0, 1)$ с помощью функции распределения, а затем преобразуйте к z-оценке, используя обратную к функции распределения. Полученную z-оценку можно использовать при калибровке.

Заключительные замечания

Давайте остановимся, чтобы оценить тот факт, что мы смогли получить конкретное значащее число после двух предсказаний, что практически невозможно при бинарных предсказаниях!

В заключение, имейте эти отличия в виду:
1. Если результат $x$ и предсказание $\mu$ близки, значит вы хороший предсказатель.
2. Если средняя ошибка предсказаний на z-шкале близка к 1, значит вы хорошо откалиброванный предсказатель.

Чтобы преуспевать в первом, необходимы обширные знания, относящиеся к каждому конкретному предсказанию, тогда как калибровка это общий навык, который относится сразу ко всем предсказаниям.

В этом эссе мы рассчитали точечную оценку $\hat{\sigma}_z=1.73$ на основании двух точек данных. В подобных оценках присутствует большая неточность, так что нам следует ожидать, что распределение калибровки вокруг $\sigma_z$ будет весьма широким. В следующем эссе мы разберёмся с этим, путём расчёта самого частого доверительного интервала для $\hat{\sigma}_z$ и Байесовской апостериорной вероятности для $\sigma_z$. Это позволит нам делать такие заявления, как: Я на 90% уверен, что $1<\sigma_z$, а значит, я скорее плохо откалиброван, чем неудачлив. Впрочем, по двум точкам сложно найти разницу с высокой степенью уверенности.

И, наконец, я хотел бы выразить признательность моим редакторам, Justis Mills and eric135, за то что сделали этот текст читабельным.

Перевод: 
QuasiStellar
Оцените качество перевода: 
Средняя оценка: 3.8 (5 votes)

Стратегическое мышление не свойственно нам по умолчанию

Анна Саламон

В ответ на запись Казус системной неэффективности.

Пользователь lionhearted пишет:

Большинство в целом умных людей тратят время на условно-продуктивные занятия, и не используют массу возможностей быть по-настоящему продуктивными.

Вот немного дурацкий пример: предположим, кто-то мечтает стать комиком, самым лучшим комиком в мире, и зарабатывать этим на жизнь. Ничего другого он не хочет, это его цель. И для того, чтобы усовершенствовать свой талант комика, он решает пересматривать старые мультики про Гарфилда и его друзей, которые показывали по телевизору в 1988-1995-х…

И я удивляюсь: почему так?

Почему случайно выбранный восьмилетка завалит экзамен по математическому анализу? Потому что большинство возможных ответов неверны, и никакая сила не направит его в сторону правильных. (Здесь нет необходимости ссылаться на «страх успеха»: большинство способов написать или не написать что-либо в ответ на тест ведут к провалу, так что и люди, и камни, заваливают его по умолчанию.)

Почему большинство из нас, как правило, выбирает «добиваться цели» путями намного менее эффективными, чем те, которые мы бы могли найти, если бы постарались? [1] Моё предположение — что, как и в случае с тестированием по математике, основная часть тех самых путей — неэффективна, и в прошлом не существовало достаточно сильного эволюционного или культурного давления, чтобы у нас выработались такие очень узкие поведенческие паттерны, которые бы действительно помогали добиться успеха.

Если конкретнее: в некотором ограниченном смысле у нас явно бывают цели. Мы: (1) говорим себе и другим, как мы стремимся добиться всяких «целей»; (2) ищем поведение, которое соответствует выбранной роли, которую мы себе присвоили («учить математику», «становиться комиком», «быть хорошим родителем»); и иногда даже (3) радуемся или разочаровываемся, когда поставленную «цель» удается или не удается достичь.

Но при этом существуют приемы, потенциально полезные для достижения целей (или важные для самого процесса целеполагания), которыми мы не пользуемся по умолчанию. Например:

  • (а) Спросить себя, чего мы пытаемся достичь;
  • (b) Спросить себя, как мы поймем, что цель достигнута («Как понять, что ты уже лучший комик?»), а также как отслеживать прогресс;
  • (с) Найти в себе сильную внутреннюю заинтересованность в любой информации, полезной для достижения цели;
  • (d) Собрать такую информацию (в том числе спрашивать, как другие достигали подобных или похожих целей; просчитать, какие стратегии были или не были действенными в прошлом);
  • (е) Систематически проверять различные теории касательно достижения наших целей, включая методы, которые нам непривычны, и параллельно отслеживать и отмечать, какие теории работают, а какие нет;
  • (f) Ту часть энергии, которая не занята поиском новых стратегий, сосредоточить на методах, которые лучше всего работают;
  • (g) Убедиться, что наша цель — действительно наша, мы сами к ней стремимся, и нас не сдерживает страх или неуверенность, стоит ли она наших усилий; что мы заранее продумали все вопросы и решения, которые окажутся на пути, чтобы они потом не отнимали у нас ресурсы;
  • (h) Использовать внешние триггеры и социальные ситуации, которые поддержат нашу мотивацию эффективно двигаться к цели, невзирая на периодические разочарования или искушения предпочесть осязаемый быстрый результат — неосязаемому в отделенном будущем.

Есть и множество других полезных техник. Но вместо того, чтобы ими пользоваться, мы просто делаем дела, как получается — действуем по привычке, импульсивно или исходя из соображений сиюминутного удобства; думая о цели, мы выбираем действия, которые просто с ней ассоциируются. Мы много чего делаем. Но у нас нет системного подхода к выбору алгоритма поступков, который бы эффективно оптимизировал достижение заявленных целей и вообще любых целей.

Почему так получается? В целом, потому что люди находятся только на пороге разумности. У 5% людей, может быть, достаточно развито абстрактное мышление, чтобы на словах понять вышеописанные приемы и оценить их потенциальную пользу. И это еще совсем не гарантирует способность их автоматически применять. Наш вербальный аппарат гораздо лучше справляется с абстрактными рассуждениями, чем механизмы мотивации, которые в итоге обуславливают наше поведение. Например, у меня достаточно развито абстрактное мышление, чтобы понимать, что стоять на стеклянном полу небоскреба безопасно, или что мороженое не слишком полезно для здоровья, или что регулярная физическая нагрузка способствует достижению моих целей… но награда за то, чтобы я руководствовалась этими соображениями, неосязаема, так что у меня автоматически не включается мотивация ими руководствоваться и соответственно менять свое поведение. Я могу настроить свои автопилоты — например, визуализировать как употребление мороженого закупоривает мои артерии, вообразить насколько это омерзительно; могу прогуливаться по страшному прозрачному полу, пока мозг не привыкнет думать, что я никуда не упаду… но автоматической привычки таким образом тренировать свои автопилоты у нас тоже нет. Так что совсем не удивительно, что большинство из нас не проводит такого рода работу над автоматическими реакциями ума, и большая часть наших действий по достижению целей также получается куда менее эффективной, чем возможно.

И все же, я хочу учиться. Я знаю людей, гораздо более стратегичных, чем я, и при этом мне видны способы развить стратегическое мышление еще лучше, чем у них. Похоже, что иметь цели, в более широком смысле, чем описано в (1)-(3), — часть рационального мышления как такового; это будет помогать нам получать в жизни то, что для нас важно. И этой теме на LW уделялось недостаточно внимания.

Подытоживая вопрос пользователя Lionhearted: насколько этот анализ выглядит верным? Кто-нибудь из вас пытался сознательно развить у себя стратегическое мышление или навыки достижения целей? Если да, то каким методом? Согласны ли вы с алгоритмами (a)-(h), описанными выше? Может, вы хотели бы что-то к ним добавить? Поделитесь идеями, как обучить себя такого рода алгоритмам.

[1] Например, почему многие люди долго учатся, чтобы «зарабатывать деньги», но при этом не потратят и пары часов, чтобы заранее сравнить потенциальную зарплату? Почему многие люди, которые ежедневно проводят часы за компьютерным набором текста, делают это двумя пальцами и не удосуживаются поставить себе программу по обучению десятипальцевому методу? Почему люди проводят субботы «отдыхая», но не потрудившись проследить, какие из привычных им видов рекреации конкретно им на самом деле нравятся? Почему даже люди, великолепно умеющие считать в уме, при этом боятся заболеваний, автокатастроф, приведений, и принимают меры защиты, но без учета статистики относительных рисков? Почему большинство из нас привыкает к единственному режиму того, как учиться, как писать тексты, как взаимодействовать с людьми и т.п., не рассматривая альтернативные варианты, которые могут оказаться гораздо эффективнее — даже поэкспериментировав и убедившись, что есть варианты значительно эффективнее?

Перевод: 
Alina1412, Pion, Berekuk, ouch_my_brain
Оцените качество перевода: 
Средняя оценка: 4.1 (22 votes)

Живя осознанно

Осознанность в том смысле, в каком я буду использовать этот термин, означает самоосмысление. Осознающий ум — тот, который, обладая чем-то, знает, чем он обладает. Это может быть эмоция, убеждение или иррациональное убеждение, предрасположенность, ощущение, воспоминание — все, что только может происходить или храниться в вашем мозге. Что творится в вашей голове? Ответ на этот вопрос — и важно, чтобы вы были точны — это то, что вы осознаете.

Материалы цепочки распространяются по лицензии CC BY-NC-SA 3.0

Ханна Финли
Remlin
http://lesswrong.com/lw/1xh/living_luminously/

Живя осознанно

Ханна Финли

Я взяла слово «осознанность» из книги «Знание и его пределы» Тимоти Уильямсона, но я вкладываю в него другой смысл. (Он употреблял его как «быть в состоянии знать», а не знать на самом деле, и это определение не ограничивалось ментальными состояниями и событиями.)

Осознанность в том смысле, в каком я буду использовать этот термин, означает самоосмысление. Осознающий ум — тот, который, обладая чем-то, знает, чем он обладает. Это может быть эмоция, убеждение или иррациональное убеждение, предрасположенность, ощущение, воспоминание — все, что только может происходить или храниться в вашем мозге. Что творится в вашей голове? Ответ на этот вопрос — и важно, чтобы вы были точны — это то, что вы осознаете. Возможно это прозвучит неожиданно, но многим людям довольно трудно ответить на подобный вопрос. Даже если они могут опознать появление отдельных ментальных событий, они с трудом могут воспроизвести свой мыслительный процесс в динамике по времени, объяснить, почему он разворачивается именно таким образом, или наблюдать, как он изменяется. При достаточном уровне осознанности вы можете проверять свой опыт, мнения и запасенные мысли. Вы можете наблюдать, как они взаимодействуют, и различать шаблоны в их поведении. Это позволяет вам предсказывать, что вы подумаете и в свою очередь — что вы сделаете в будущем при различных внешних обстоятельствах.

За последние несколько лет я сделала все для увеличения моей осознанности настолько, насколько это возможно. Хотя я (пока) не осознаю в совершенстве, я уже достигла заметных улучшений в таких вспомогательных навыках, как управление настроением, изучение систем, вызывающих несдержанность и другое непозволительное поведение, и просто стала больше понимать о том, почему я делаю и чувствую то, что делаю и чувствую. У меня есть основания верить, что я осознаю значительно больше, чем средний человек, поскольку я могу задать людям вопросы, которые кажутся мне невероятно простыми, о том, что они думают, и обнаружить, что они не могут ответить. В то же время я не верю только своему впечатлению, что я всегда права, когда рассуждаю о себе. Мои модели себя, после того как я заканчиваю их настройку и подгонку и решаю, что они более или менее верны, описывают большую часть моего поведения. Обычно они также совпадают с тем, что другие люди думают обо мне — по крайней мере на определенном уровне.

В этой цепочке я планирую поделиться некоторыми из техник для улучшения осознанности, которые я использовала. Я надеюсь, что по крайней мере часть из них будет кому-то полезна. Однако я могу сказать, что «результаты не типичны». Мои предыдущие попытки улучшения осознанности в других состоят в том, что я задавала индивидуально подобранные вопросы в реальном времени, и получалось довольно хорошо; осталось узнать, смогу ли я выделить основную идею, преобразовав ее в доступный большинству формат.

Я разбила цепочку на восемь постов, не считая этот, который служит введением и оглавлением. (Я буду обновлять заголовки в списке ниже ссылками на каждый написанный пост.)

«Возможно, вас съел монстр». Почему вы хотите быть осознающим? Что в этом хорошего, и как это работает?

«Да будет свет». Откуда брать предварительные данные, когда вы начинаете моделировать себя, если ваши существующие модели вероятно полны искажений?

«ЭПО — основы осознанности». Наиболее существенный шаг в изучении осознанности — это установление соотношения ваших эмоций, поведения и обстоятельств.

«Свет, камера, мотор!». Осознанность не случается сама по себе — вам необходимо практиковаться в ней и наблюдать за ключевыми ментальными объектами.

«Луч света». Не делайте самоанализ статичным. Мысли могут ускользать. Отмечайте и систематизируйте все, что только найдете в своем сознании.

«Блики и тени». По мере того как вы открываете и понимаете новые вещи в себе, полезно подтверждать или отказываться от ваших подкомпонентов, соответствующим образом поощряя их или препятствуя им.

«Город огней». Удобным приемом работы с напряжениями в себе является представление себя как мультиагентной системы.

«Тени от лампы». Когда у вас есть модели, тестируйте их — и меняйте результаты ваших экспериментов!

Бонусные посты!
«Урешику Наритай»: история о том, как я использовала осознанность, чтобы поднять мою планку счастья до нужного уровня.
«Как получать удовольствие от неприятной компании». Основанная на осознанности модель того, как сознательно испытывать симпатию.
«Семь сияющих историй»: конкретные художественные описания техник осознанности из этой цепочки в действии. (Примечание: некоторые люди отмечают, что «ССИ» значительно улучшили их понимание этой цепочки. Возможно, стоит читать каждую «Сиящую Историю» вместе с соответствующим постом. «Сияющие истории» открываются вместе с ссылками к соответствующим частям, и апофения комментаторов позволяет разместить истории под основными статьями.)

Я уже написала все посты в этой цепочке, хотя я могу позднее внести правки в более поздние статьи в ответ на обратную связь, и возможно, что мне зададут вопрос, в ответ на который я добавлю еще пост. Я буду это делать по мере получения отзывов сообщества.

Перевод: 
Remlin
Оцените качество перевода: 
Средняя оценка: 2.6 (27 votes)

Вас может съесть гру

Ханна Финли

Осознанность — забавная, полезная для остальных и важная для саморазвития вещь. Вы узнаете об этом из данной цепочки.

Осознанность? Ха! Да кому это надо?

Это понятный вопрос. Типичный человек проходит сквозь жизнь с удивительно малой долей самоанализа и еще меньшей долей самоанализа точного и осторожного. Наши модели самих себя иногда даже хуже наших моделей других людей — у нас больше данных, но также больше искажений, которые перегружают наши размышления помехами. Большую часть времени большинство людей действуют напрямую согласно своим эмоциям и убеждениям, без попыток рассмотреть этот процесс осознанно. И непохоже, чтобы из-за этого как-то страдали или умирали — когда вы в последний раз видели на могиле эпитафию «Здесь лежит наш дорогой Тейлор, который мог бы быть с нами сегодня, если бы только лучше осознавал природу поиска в памяти»? Абсурд. Если Тейлору надо что-то помнить, то это либо проявляется, либо нет, и если у него хронические проблемы с памятью, то он может просто записывать воспоминания на внешнем носителе. Осознание того, как воспоминания сохраняются изначально и настройка этого процесса не обладают высоким приоритетом в списке дел.

Тем не менее, я думаю, что стоит потратить немало времени и усилий для улучшения осознанности. Я приведу три причины для этого.

Во-первых, вы — интереснейшее существо. Это попросту весело и захватывающе — копаться в своем сознании. Люди в большинстве своем — это сложнейшие и самые интригующие явления в мире. И вы тоже. Вы наблюдали множество мгновений. Начиная с исходной конструкции, которая уже является совершенно особенной, вы накопили сложный набор фильтров, через который вы интерпретируете то, что воспринимаете — вспоминаемое прошлое, переживаемое настоящее, ожидаемое будущее. Вам что-то нравится, чего-то вы хотите, во что-то верите, чего-то ожидаете, что-то чувствуете. В закоулках вашего мозга полно всяческих вещей. Разве вам не хочется узнать, что же там? Это же вы. Для многих людей разговор о себе — излюбленная тема. Вы исключение? (Есть только один путь выяснить это…)

Во-вторых, точная модель себя может помочь вам иметь дело со всеми остальными наилучшим образом. Прямо сейчас они, вероятно, используют неуклюжие нагромождения своих проекций, стереотипов и автоматически сделанных предположений, которые они могут не обновлять, даже если узнают вас лучше. Я не думаю, что вы окружили себя ужасными людьми, которые используют точные данные о вас, чтобы навредить или манипулировать вами, но если это так, будет в таком случае разумно не распространять всю информацию, которую вы осознаете. Что касается остальных, то более полная модель вас поможет обеим сторонам избежать множества проблем. Я приведу себя в качестве примера: я ненавижу сюрпризы. Зная это и будучи способной рассказать полную и достоверную историю о том, как это работает, я могу объяснить людям, которые могут захотеть обменяться подарками, почему им не следует дарить мне что-то завернутое, чтобы избежать моего раздражения. Большинство людей вокруг меня не совершают тех действий, которые, как они знают, будут раздражать меня; но без подробного объяснения о том, насколько необычны мои предпочтения, они слишком легко возвращаются к своей основной модели стандартного человека.

В-третьих — и это наиболее подходящая остальным постам в данной цепочке причина — лучшее представление о том, кто вы и на что способен ваш мозг, скоро принесет вам веские плоды в том, что касается приемов для изменения себя. Если вы постоянно двигаетесь от точки А до точки Z, но не знаете ничего о пути между ними, тогда есть только один метод избежать Z — попытаться остановиться сразу перед тем, как это случится. Если вы сможете пронаблюдать процесс с начала и определить, какому шаблону ваше сознание следует сквозь алфавит по пути к Z, вы сможете узнать, что можно с легкостью заменить G на Q и больше никогда не иметь дела с Z. Аналогично этому, если вы пытаетесь дойти от альфы до омеги, но постоянно терпите неудачу, как вы собираетесь определить, где же вы встречаете препятствия, пока вы не рассмотрите ситуацию в целом? Это может быть какой-то банальной проблемой в середине пути, которую вы исправите практически мгновенно, если только будете знать о ней. Вдобавок ваши неправильные модели себя уже меняют вас посредством такого чудесного явления как когнитивный диссонанс. Пока вы не поймете, как это происходит, вы упускаете возможность наблюдать и управлять процессом.

Аналогия: вы ждете, что вас заберут из аэропорта. Назначенное время уже прошло, а вы сидите на багажной стойке с чемоданами у ног, смотрите на часы, хмуритесь. Человек, который должен был вас забрать из аэропорта, не появился! Это полный провал! Но если вы позвоните ему и начнете кричать: «Аэропорт, придурок! Я в аэропорту! Почему тебя тут нет?» — вряд ли это улучшит положение вещей, если только человек не забыл про вас. Если же он стоит в пробке или ищет объезд из-за ремонта дороги, или заблудился, или его приняли за террориста службы безопасности аэропорта, то крик вам не поможет. И пока вы не поймете, что его задержало, вы не сможете помочь. Вы должны знать, где он, чтобы рассказать, как избежать пробок; вы должны знать, где проходит ремонт, чтобы рассказать, как его объехать; вы должны знать местные ориентиры, которые он может увидеть, чтобы понять, где вы; вы должны знать, следует ли вам идти к охране и извиняться за непонимание. Без определенных, особых данных о том, что именно пошло не так, вы не сможете это исправить.

В следующих постах цепочки я собираюсь проиллюстрировать некоторые методы, которые помогли мне узнать о себе больше и изменить в себе то, что мне не нравилось. При удачном стечении обстоятельств они помогут вам осуществить те изменения, к которым я постаралась подготовить вас в этой статье.

Примечание переводчика. Название является отсылкой к известному мему.

Перевод: 
Remlin, timur.perevos
Оцените качество перевода: 
Средняя оценка: 5 (2 votes)

Да будет свет

Ханна Финли

Вы можете начать с психологических исследований, личностных тестов и обратной связи от знакомых людей, когда вы изучаете себя. Тогда вы можете отбросить плохое, оставить хорошее и двигаться далее.

Понять эту статью гораздо лучше Вам поможет первая из «Семи Сияющих Историй».

Где вам брать предварительную информацию, когда вы начинаете моделировать себя всерьез вместо того, чтобы полагаться в этом деле на интуицию?

Ну, одно можно сказать уверенно: не стоит начинать с уровня самоанализа. Если вы провели хоть сколько-нибудь времени на этом сайте, вы знаете, что люди пронизаны искажениями и механизмами самообмана, которые систематически вводят нас в заблуждение относительно нас самих. («Я великолепен и замечателен! А последние пятьсот раз когда я делал что-то невеликолепное и незамечательное — это просто случайности!») Людям многое плохо удается, и следование эдикту «Познай самого себя!» не является исключением.

У взгляда со стороны дурная репутация, однако я собираюсь защищать его — как отправную точку — когда буду наполнять копилку инструментов осознанности. Существует большое количество литературы, объясняющей, что же творится внутри наших голов. Это психология, и у нее довольно внушительный послужной список. Для примера, знание об эвристике и искажениях позволяет распознать, как они действуют в вас самих. Во многих случаях я понимаю, что попала под действие эффекта наблюдателя («Кто-то сидит на середине дороги. Может, позвонить 911? Хотя люди вокруг не волнуются, скорее всего мне тоже не о чем беспокоиться…»); я достигла определенного прогресса в уменьшении степени обобщений, которые делаю, исходя из одного примера («Как люди не сходят с ума от брызг масла на плите?»); и я настораживаюсь, когда думаю, что я лучше большинства, но не имею информации, подтверждающей это («Теперь я могу быть уверена, что у меня хорошо выходит решать проблемы такого рода, — я ответила на все вопросы, а большинство людей не могут, так говорит кто-то, кто вряд ли будет лгать!»). И даже если вы обычный человек с нормальной психикой, вы, конечно, не собираетесь соответствовать всем психологическим исследованиям. Эти открытия даже между собой не особо комбинируются. Но контроль за существенными, очевидными особенностями, например, за какой-то психической болезнью, это неплохо для начала.

Чтобы определить свои не самые типичные реакции, вы можете попробовать личностные тесты, такие как тест Майерса-Бриггса или «Большая пятерка». Это не очень надежные источники, но некоторые из них в какой-то мере соответствуют реальности. Соответственно, проникайтесь теми данными, которые получаете. Отбирайте то, что звучит верно («Да, я предполагаю, что склонен больше, чем другие, беспокоиться о беспорядке вокруг»), и выбрасывайте оставшееся («Что? Я не люблю эксперименты! Я даже улиток не буду пробовать никогда!») — хотя это грубые данные первого приближения, не основанные на опыте, с которыми надо на самом деле работать, но вы можете позволить себе такие неточности в начале игры. Когда пройдете тесты, подумайте немного над вашим типом интеллекта, определите, к какой категории относится ваш язык любви1 — все, что определяет вас и делает частью чего-либо.

Кроме того, если у вас есть честные друзья или родственники, просите их о помощи. Заметим, что даже у самых честных из них может быть чересчур радужное представление о вас: вы для них близкий человек, так что они, возможно, не обращают внимания на ваши недостатки и могут преувеличивать ваши добродетели относительно гипотетического мнения нейтрального наблюдателя. И они не находятся рядом с вами постоянно, что ограничивает обстоятельства, в которых их модель тестируется; влияние на вас их присутствия искажает эту модель. Но взгляд с их стороны имеет важное значение.

(Советы по получению обратной связи от родственников/друзей: я обнаружила, что думать о себе вслух полезно для получения некоторых основных входящих данных. Некоторых друзей я могу спросить в упор, хотя это помогает только в определенных ситуациях («Думаешь, я просто устал?» «Я был последователен в той ситуации?»), а не при обсуждении свойств характера, когда ответ может оказаться слишком категоричным («Я сволочь?» «Я использую людей?»). Когда вы общаетесь письменно и сохраняете переписку, вы можете посылать людям отрывки из диалогов (когда это допустимо по отношению к вашему исходному собеседнику) и спрашивать, что ваш консультант об этом думает. Если вы не помните каких-то событий или внушили себе, что не помните, тогда тот, кто был с вами, поможет вам рассмотреть событие со своей точки зрения — этот процесс автоматически покажет, как вы вели себя в глазах свидетеля.)

Если во время охоты на предварительную информацию что-то покажется вам неправильным, будет ли это результат теста или общая характеристика группы, которая подходила вам в остальных случаях, то это здорово! Теперь вы можете что-то исключить. Подумайте: что делает модель неправильной? Когда происходит то, что опровергает ее? (Причем лучше точное «как в тот раз на прошлой неделе», нежели смутное «в восемьдесят девятом, вроде бы в январе».) Что можно изменить в минимальной степени, чтобы сделать модель правильной?(«Сменить слово «быстрый» на «тщательный» — и это буду один в один я!») Если это поможет, разбивайте собираемую вами информацию на небольшие порции. Тогда вы сможете проверять их по одной за раз вместо того, чтобы целиком принять или отвергнуть то, что тест говорит о вас.

Если что-то звучит правильно, то это тоже круто! Задайтесь вопросом: как эта идея может предсказать ваше познание и поведение? («При встрече с высоким темноволосым незнакомцем вы быстро определите его характер по невербальным знакам.») Как можно протестировать её и уточнить модель? (Где водятся высокие брюнеты?) Если вы вели себя в прошлом не в соответствии с моделью, о каких исключениях из правила это говорит, и как можно их лаконично, в духе бритвы Оккама, обобщить? («Именно тот высокий темноволосый незнакомец носил очень клевую футболку, которая скрывала характеристики тела.»)

Обратите внимание: возможно, вы проявите склонность отметать результаты исключительно потому, что они звучат плохо («Я не могу быть нарциссом! Я никогда о себе так не скажу!»), а не потому что они звучат неправильно, и сохранять результаты, которые звучат хорошо («Ага, я смешной и умный!»), а не те, что звучат правильно. Повторите литанию Тарского несколько раз, если это поможет: если у вас есть особенность, то вы хотите верить, что она у вас есть. Если у вас нет особенности, то вы хотите верить, что вы её не имеете. Да не пристанут к вам убеждения, которых вы не хотите. Знание о том, что у вас есть плохие свойства, не сделает их хуже — но поможет вам исправить их, обойти или смягчить. Если вам не хватает хороших свойств характера, не обманывайте себя, они не появятся — но самообман может лишить вас возможности развить их на самом деле. Если вы не можете ответить на вопрос: «Когда вы делали то, что опровергает эту модель?» или перечислить случаи, когда вы вели себя в соответствии с данной моделью, вы скорее всего обманываете себя. Попытайтесь снова. Думайте лучше. Нет гарантий, что вы правы, но цель — именно оказаться правым.

  • 1. Выглядит глупо, но я обнаружила, что ответы на эти вопросы очень полезны в качестве первой, приблизительной оценки того, как нужно вести себя с людьми.
Перевод: 
Remlin, timur.perevos
Оцените качество перевода: 
Средняя оценка: 4.2 (6 votes)

ЭПО — основы осознанности

Ханна Финли

Эмоции, поведение и обстоятельства взаимодействуют друг с другом. Эти взаимодействия образуют информационные шаблоны, которые вам надо опознать и использовать для развития своей осознанности.

Понять эту статью гораздо лучше Вам поможет вторая из «Семи Сияющих Историй».

Самое эффективное, что можно сделать в поисках осознанности — это понять, как соотносятся ваши ЭПО, собрать данные о том, как эти три взаимосвязанных элемента влияют друг на друга и появляются вместе или по отдельности.

«Э» означает «эмоции». Эмоции — это то, что вы чувствуете, и то, что у вас в голове. Это может быть куда сложнее, чем «да, я в отличном состоянии» или «сегодня мне грустно». В вас помещаются одновременно множество эмоций по самым разным поводам; то, как вы спокойно относитесь к двум разным вещам, не похоже на то состояние, когда вы волнуетесь по одной и улыбаетесь по другой причине; и ни одно из состояний не похоже на беспокойство по какому-то крайне важному для вас вопросу. Это происходит примерно так: вы беспокоитесь по поводу оценки результатов вашей работы и наслаждаетесь своей покупкой, и предвкушаете визит к двоюродному брату на следующей неделе, и одновременно раздражаетесь от того, что ушибли ногу, и все это на фоне забавной песни по радио. Для простоты я добавила сюда и менее эмоциональное познание тоже: какие мысли приходят вам в голову, каким этапам рассуждений вы следуете, что привлекает ваше внимание в окружающем мире.

«П» означает «поведение». В данной статье поведение означает то, что вы на самом деле делаете. Сюда входит очень небольшая категория тех вещей, которые вы на самом деле намеревались сделать — и уже почти начали, но не сделали из-за внешних обстоятельств или изменили свои планы после поступления новой информации. Это важно. Мимолетные замыслы и намерения приходят нам в голову постоянно, и если вы твердо и окончательно не определите, каким из них вы будете следовать в конечном счете, у вас останутся только подсознательно выбранные обрывки незавершенных планов. Это особенно проблематично из-за того, что более слабые намерения будут отклонены незначительными внешними препятствиями в гораздо большей степени. Не волнуйтесь о «настоящих» планах, которые отбрасывает этот процесс фильтрации. Вы пытаетесь узнать себя в целом, а не образцового себя, который доблестно пытался сделать нечто хорошее и был остановлен обстоятельствами; если эти отвергнутые планы были для вас типичны, то они повлияют на ваше фактическое поведение. Доверьтесь закону средних чисел.

«О» означает «обстоятельства». Это то, что происходит вокруг вас (Который час? Что происходит в вашей жизни сейчас, происходило недавно и что, возможно, случится в ближайшем будущем: основные события, второстепенные изменения, планы на потом, что вам говорят окружающие? Где вы: тепло или холодно, светло или темно, ветрено, спокойно, тихо, шумно, есть ли запахи, есть ли особые приметы у места, суета ли вокруг, красочно или серо, естественно, искусственно, красиво, уродливо, просторно, уютно, влажно, сухо, пустынно, переполнено, формально , неофициально, знакомо, ново, загромождено или аккуратно?). Также в это входят и ваши поступки, и то, что происходит у вас внутри — то, что обычно относят к чисто физическим явлениям (Вы выдохлись, устали после перелета, в состоянии наркотического опьянения, хотите пить или есть, вам больно, вы нездоровы, пьяны, энергичны, вы чешетесь, подвижны, возбуждены или дрожите? Вы откинулись на кресле, прячетесь в подвале, танцуете, путешествуете пешком, играете на барабанах или плаваете с аквалангом?) Обстоятельства отслеживать немного легче, чем эмоции и поведение. Если у вас есть срочная, четкая и ясная проблема, будет разумно решить ее, а уже потом заниматься осознанностью. И если отдельные проблемы, связанные с некоторыми физическими недугами, можно игнорировать, то проигнорировать боль или сильный голод трудно, и с ними нужно разбираться незамедлительно. Не пренебрегайте обстоятельствами, когда выполняете упражнения на соответствие, только потому, что вам кажется, будто это только «содержимое вашего черепа». САР (сезонное аффективное расстройство или «зимняя депрессия») — достаточное доказательство того, что окружение может серьезно влиять на наши чувства. И не странно ли, в конце концов, если вы ощущаете себя и действуете одинаково, когда танцуете на балу и когда устанавливаете таймер на микроволновке, чтобы разогреть суп, и когда берут в заложники при захвате банка?

Все эти аспекты взаимозависимы:

Э -> П: Ваши эмоции влияют на поведение почти напрямую — эмоции, в конце концов, включают в себя ваши мысли и ощущения, и не зависят от чисто рефлекторных действий, которые появляются под их влиянием.

О -> П: Обстоятельства также очевидно влияют на поведение. Вы не можете нажать на педаль газа, если ее у вас под ногами нет; вы не можете взять немного тапенады, если ее нет; и мне сложно кружиться в юбке, если я одета в спортивный костюм.

Э -> О: Эмоции могут менять ваши обстоятельства посредством вашего поведения, а также того, что происходит с вашим телом (мы все знакомы с тем, как стресс, например, может отражаться на самочувствии), и через окружающих — невербальными средствами.

П -> О: Ваше поведение, очевидно, влияет на обстоятельства: разбей окно, и тут же появится сквозняк. Скажи что-нибудь, и окружающие люди скорее всего вас услышат и отреагируют.

П -> Э: Поведение может влиять на эмоции посредством тесной двухсторонней связи (улыбнитесь — и ваши эмоции улыбнутся вместе с вами!) и посредством эффекта согласованности, который делает вас похожим на человека, чье поведение вы имитируете.

О -> Э: Обстоятельства влияют на ваши эмоции как осознанно, посредством познания и информации («Мой день рождения! Ура!»), так и неосознанно, посредством физических эффектов (если вы долго работали, пренебрегая сном, то вы вряд ли будете довольны результатом).

Так что не просто соотносите то, как они появляются вместе. Замечайте еще и причинно-следственные отношения. Пока вы не разовьете осознанность достаточно, чтобы обнаруживать их напрямую, вам может понадобиться определенный ретроспективый анализ для того, чтобы понять цепочку сложнее, чем «я был голоден и думал о сыре, так что я съел немного». И замечайте интересные пропуски. Если с вами происходит то, что обычно считается грустным, и вы не можете обнаружить грусти ни в своих эмоциях, ни в физических реакциях, это очень важные данные.

Эти соотношения сформируют строительные блоки для вашего первого уточнения модели, которая базируется на исходных данных, которые вы извлекли из внешних источников.

Перевод: 
Remlin, timur.perevos
Оцените качество перевода: 
Средняя оценка: 3.4 (13 votes)

Свет, Камера, Мотор!

Ханна Финли

Следует регулярно и часто уделять внимание ключевым ментальным событиям, так как важные мысли могут проскакивать очень быстро или случайно, а вам нужно поймать их.

Возможно, вы поймете данный пост лучше, если прочитаете третью из Семи Сияющих Историй.

Быть осознанным трудно, и вы сами — сложный объект. Нельзя задуматься на десять минут за коктейлем, а потом объявить, что все о себе поняли. Вам придется долго работать, поскольку некоторые эффекты не заметны сразу. Если ваши эмоции зависят от смены времен года или от важных событий, то первая фаза работы займет у вас целый год — или всё время до наступления события, которые, кстати, не происходят каждый второй вторник. Вдобавок, вы не сможете собрать модели хорошего качества из обрывков самонаблюдения длительностью в пять секунд; продолжительные линии познания тоже важны и могут потребовать значительного времени для полного раскрытия.

К сожалению, наблюдение за мыслями неизбежно их меняет. При достаточном уровне самоанализа это не повлияет на точность вашего представления о себе в общих чертах; в принципе, нет причины не тратить все свое время на наблюдение мыслей и формирование мета-идей в реальном времени, но по сути это не происходит. Поэтому некоторые данные нужно вытаскивать из памяти. Чтобы уменьшить ошибку введения, которая возникает при получении информации из области хранения, следует систематизировать только самые недавние мысли. Возможно, стоит придумать систему напоминаний извне, чтобы периодически обращать свое внимание на происходящее внутри — как в текущий момент, так и за последний небольшой промежуток времени. Это может быть специальная система (например, таймер, который срабатывает каждые полчаса), или можно привязать подходящие напоминания к окружающим событиям, например, к вопросу «Как дела?».

Когда вы занимаетесь самонаблюдением, нужно многое отслеживать. Вот к примеру:

О чем вы думали? (Это может быть более, чем одна вещь. Вы — система в значительной степени распараллеленная.) Это идея, изображение, ощущение, желание, убеждение, человек, объект, слово, место, эмоция, план, воспоминание…?

Насколько сильно вы были заняты этим? (Эта тема сама по себе ограниченная или многогранная?) Может ли что-то еще (чувственные, когнитивные, эмоциональные элементы) нарушить вашу концентрацию, и как вы реагируете на подобное вмешательство?

Что вы чувствуете по отношению к предмету ваших мыслей? Это не только эмоциональные реакции наподобие «это угнетает» или «ух ты!», но и то, что вы хотите сделать по отношению к этим мыслям (и хотите ли), и насколько важными или интересными вам кажутся эти мысли.

Как вы в общем ощущаете процесс мышления? (Я провела неформальный опрос на эту тему и не получила двух одинаковых ответов. Занимательно, но это может быть ключом к понимаю того, чем вы отличаетесь от других, и таким образом — к уточнению вашей модели себя по отношению к общей исходной информации, с которой мы начали.) Представление о стиле вашего мышления может помочь в исследовании данных, собранных в ходе самоанализа, хотя не стоит забывать, что они зачастую метафоричны. Ответы могут отличаться, когда вы думаете «активно», то есть новая информация образуется в вашем сознании, и когда вы думаете «пассивно» — читаете или слушаете какую-либо информацию и впитываете содержимое по мере его появления.

Какие воспоминания всплывают в ответ на мысли, и всплывают ли: похожие ситуации из прошлого, не связанные явным образом истории, которые появляются без причины, события, при которых вы поняли ключевые идеи, относящиеся к теме размышлений? Формируют ли эти мысли ожидание будущего — план, страх, надежда, предвкушение, волнение?

Что вы воспринимаете сейчас чувственно? Сюда входят не только изображение, звук, запах, прикосновение и вкус, но и температура, проприорецепция (чувство ориентации в пространстве) и внутренние ощущения, такие, как голод или тошнота. Можете ли вы определить, как это все взаимодействует с мыслью?

Данных не может быть слишком много. (Хотя вы можете собрать слишком много данных в одной ситуации по сравнению с другой, и это разбалансирует ваши модели, поэтому стоит приложить согласованные усилия для диверсификации ситуаций и моментов для их анализа.) Когда вы собираете данные, установите для них соотношение, чтобы узнать, что могут привнести в вашу жизнь различные компоненты ваших мыслей.

Перевод: 
Remlin, timur.perevos
Оцените качество перевода: 
Средняя оценка: 5 (3 votes)

Луч света

Ханна Финли

Исследовать мысли легче и правильнее, если они находятся не в вашей голове. Переведите их в другую, внешнюю форму и смотрите на них так, как если бы они принадлежали кому-то еще.

Вы сможете понять данный пост лучше, если прочитаете четвертую из Семи Сияющих Историй.

Одна из проблем самоанализа состоит в том, что выводы, которые вы делаете о ваших мыслях, — это тоже мысли. И конечно, мысли могут меняться или исчезать прежде, чем вы извлечете из них информацию о себе. Если меня настиг случайный приступ злости, он может продлиться достаточно долго, чтобы заставить меня взорваться, но исчезнет до того, как я пойму, что злость была беспричинна. Если бы мысли не были такими ненадежными, не стоило бы беспокоиться об осознанности. Поэтому, если вы серьезно занимаетесь развитием осознанности, вам нужен способ представлять ваши мысли в определенном формате, который будет их хранить.

Вам нужно переместить ваши мысли за пределы вашей головы.

Записывать их — очевидный способ, по крайней мере для меня. Вам не нужно публиковать записанное, так что нет необходимости в эстетичности или грамотности, просто делайте записи удобными для себя. Главное — придать им форму, которую вы сможете использовать без необходимости продолжать самоанализ. Не имеет значения, чертите ли вы, пишете или поете, — просто скидывайте содержимое вашего мозга вовне и смотрите. Легко обмануть себя, считая, что какая-то идея логична; обмануть кого-то другого сложнее. Запись мысли автоматически запускает механизмы, которые мы используем для общения, помогая самоанализу оставаться на высоком уровне.

Чтобы перевести ваши мысли в не-мысли, используйте ярлыки для их отображения. Распределяйте их по ссылочным классам так, чтобы можно было заметить, когда такое же суждение, шаблон мышления или поток познания возникнет вновь. Таким образом вы сможете опознавать схемы: «Эй, когда я чувствовал подобное в прошлый раз, я сказал то, о чем потом жалел; нужно быть осторожнее.» Если вы можете распознать то, что случается дважды, вы сможете уловить и тот момент, когда это не происходит; а новые настроения или черты характера потенциально крайне важны. Они означают, что вы или что-то вокруг вас изменилось, и это может быть как полезным ресурсом, так и коварной помехой.

Ваши метки могут выражаться в стандартных терминах или же нет — если вы хотите называть ощущения от того, что у вас из рук упало мороженое, «белой горкой», никто вас не остановит. (Словарь эмоций, который в значительной степени совпадает со словарями окружающих, может быть полезен позже, когда вы пытаетесь поделиться вашими выводами о себе; но вы можете в любой момент составить словарь для подобного перевода.) Стоит распознавать, насколько помеченные явления похожи друг на друга (например, раздражение больше похоже на ярость, чем на ликование), и иметь способ отразить это в вашей системе символов. Подобные сходства делают более очевидным то, какие стратегии перехода из одного состояния в другое вы используете.

В том случае, если вы думаете не словами, вам может показаться довольно трудным преобразовать свои мысли в то, что будет их отображать. Возможно, например, что вы думаете образами, но рисовать не умеете. Это один из шагов в осознанности, которые, по моему мнению, можно пропустить, так что, если вы искренне не можете придумать, как записать танец вашего сознания для последующего самоанализа, вы можете просто работать над мышлением очень осторожно, чтобы заметить то, что повторно появляется в ваших мыслях. Я рекомендую проводить по меньшей мере пять-десять минут, пытаясь записать, сделать диаграмму, нарисовать, пробормотать или выразить танцем вашу ментальную активность прежде, чем вы определите ее как несостоятельную.

После того, как вы выразили свои мысли в видимой или звуковой форме, проанализируйте их как мысли другого человека, который это написал. (За исключением того, что это как бы код, который понятен только вам, так что вам не нужно проводить криптоанализ.) Что вы думаете об описанном человеке, если бы вы ничего больше о нём не знали? Как бы вы могли объяснить эти мысли? Какие потоки размышлений идут в фоновом режиме от одного убеждения к другому, или от восприятия к убеждению, или от желания к намерению? Каких следующих действий вы бы ожидали от этого человека? Что бы вы могли еще предположить о человеке? И что еще вы хотели бы знать? Если вы встретите этого человека, как вы удовлетворите свое любопытство без того, чтобы полагаться на перегруженный искажениями ответ, который вы получите в ответ на вербальный запрос? Попробуйте прямо сейчас — в комментарии к этому посту, если хотите: запишите, как получится, что вы думаете. Отключите внутреннего критика и посмотрите со стороны: что должно происходить в сознании, которое скрывается за написанным?

Перевод: 
Remlin, timur.perevos
Оцените качество перевода: 
Средняя оценка: 5 (3 votes)

Блики и тени

Ханна Финли

Неотъемлемой частью процесса развития осознанности являются решения о том, какие части себя вам нравятся, а какие — нет.

Понять эту статью гораздо лучше вам поможет пятая из «Семи Сияющих Историй».

По мере того, как вы раскрываете и понимаете в себе что-то новое, вы можете обнаружить, что вам нравятся некоторые вещи и не нравятся другие. Абсолютно довольные собой люди обычно подвержены либо редкому высокомерию, либо еще более редкой святости, которые отличаются безграничным одобрением себя. К счастью, как и было обещано во втором посте, осознанность поможет определить, что вам хотелось бы изменить, и понять, что у вас уже есть.

Но что менять?

Важный шаг в развитии осознанности — это сортировка ваших мыслей и ощущений не только по типу, соотношению, силе и т.д., но также по тому, насколько вы их одобряете. Вы одобряете мысли, которые вам нравятся, в которых находите отражения ваших лучших черт, предпочитаете видеть в действии и желаете оставить неизменным (по крайней мере, пока они полезны). И наоборот, вы отвергаете те мысли, которые вам не нравятся, считаете проявлением своих отрицательных свойств, неэффективными, которые хотите изменить или полностью от них избавиться.

Решить, что есть что, может оказаться сложной задачей. Нужно будет не раз просеять ваши желания, чтобы окончательно разобраться, хотите ли вы хотеть торт, или нравится ли вам то, что вам нравится спать, или нужно ли вам ваше предпочтение преференциализма. Хорошо было бы начать с целей макро-уровня и теоретических обязательств (т.е. если предпочтение имеет силу, служит ли оно вашей жизненной цели, прямо или косвенно? Если у вас есть метаэтические представление о правильном и неправильном, побуждает ли эта тенденция, которую вы в себе открыли, делать правильные вещи?).

В качестве второго подхода вы можете поработать с информацией, которую собрали, когда коррелировали ваши ЭПО. Как вы чувствуете себя, когда оцениваемое желание удовлетворено? Когда оно не удовлетворено? Выводит ли вас из строя неудовлетворенность? Улучшает ли исполнение желания вашу производительность? Вы можете окончательно удовлетворить его? Если обычно вы не можете удовлетворить это, будет ли проще изменить желание или изменить обстоятельства, которые препятствуют его удовлетворению? Впрочем, это второй шаг. Вам нужно узнать, какие эмоции и поведение предпочтительны для вас, до того, как начнете оценивать желания (и другую ментальную активность) по их значимости; оценка эмоций и поведения — сама по себе упражнение в одобрении и отказе.

Знать, что вам нравится и что не нравится в вашем сознании, это здорово. Когда у вас есть эта информация, вы можете сразу же ее использовать: мне кажется полезным отмечать выражение своих эмоций словами «одобрено» и «не одобрено». Таким образом, окружающие могут использовать эту классификацию; тогда они не будут считать, что я считаю правильным все, что чувствую, и не будут присваивать мне свои собственные предпочтения. И то, и другое будет в равной степени ненадежно и приведет к тому, что у людей будут неверные модели меня; мне до сих пор не удалось избавиться от всех своих нежелательных особенностей, и мои шаблоны одобрения не соответствуют шаблонам окружающих людей или их ожиданиям.

Вдобавок, раз вы знаете что вам нравится и не нравится в вашем сознании, вы можете начать прогрессировать в увеличении отношения хороших характеристик к плохим. Люди часто делают случайные продвижения пытаясь «стать лучше», но когда «лучше» значит «стать ближе к смутно определенным интуитивным представлениям о морали», это не та цель, к которой стоит стремиться. Конкретные проекты наподобие быть более щедрым или внимательным это уже ближе, однако наибольшее имеющее значение преимущество в само-обзоре приходит от осознания движения поведения в нежелаемом направлении и прекращения его еще в зародыше. (Больше об этом — в «Тенях от лампы»). Шансы низки, что ваши шаблоны мозга находятся достаточно близко к стандартным достоинствам, чтобы быть полезными целями. Лучше планировать опознать то, что уже есть, и тогда одобрять или отказываться от этих обработанных мыслей и работать с ними по мере их появления, вместо подмены их неестественными категориями.

Перевод: 
Remlin, timur.perevos
Оцените качество перевода: 
Средняя оценка: 5 (Всего оценок: 1)

Город огней

Ханна Финли

Для того, чтобы понять свою психологию и выявить сложность своей структуры, вы можете представить себя не как единое целое, а как систему из нескольких агентов.

Понять эту статью вам станет гораздо проще после прочтения шестой из «Семи Сияющих Историй».

Пытаясь разобраться в запутанном клубке черт своего характера, вы, вероятно, натолкнетесь на ряд противоречий. В вас могут одновременно уживаться несколько противоположных точек зрения, вы можете переключаться между разными типами мышления или даже верить в явно противоречащие друг другу вещи. И эта путаница еще больше затрудняет процесс самопознания.

К сожалению, у нас нет ни словаря, ни даже мысленной модели, которые позволили бы свободно описывать себя (или других людей) как совокупность множества субъектов. То, что обычно получается, больше похоже на туманное описание двойственности («Я счастлив, и в то же время мне немного грустно! Странно!»), чем на глубокий конфликт, который занимает наши мысли. Модели человеческой психики, которые ближе всего к разрешению этой неразберихи, — это то, что я называю «мультиагентными моделями». (Примечание: я понятия не имею, как то, что я собираюсь описать, соотносится с реальными психиатрическими заболеваниями, включающими в себя множественность личности, голоса в голове или другие подобные явления. Я описываю мультиагентные модели, реализуемые психически цельным человеком).

Мультиагентные модели известны довольно давно: уже в «Государстве» Платона говорится о страсти (которая непостоянна сама по себе), духе и интеллекте, формирующих триединую душу. Платон обсуждает их функции, как если бы каждая из них имела свой собственный орган и могла при возможности воспринимать, желать, планировать и действовать (включая возможность подавлять две другие, чтобы управлять душой единолично). Ненамного отличается и структура, предложенная Фрейдом, — модель ид/суперэго/эго. Понятие мультиагентности появляется и в искусстве. Это на удивление распространенный и естественный способ описания сложного ума обычного человека. Конечно, говорить об этом как о чем-то реальном, а не как о способе развития психологических теорий или понятия идеальной городской планировки, или о драматизации морального конфликта, может показаться нездоровым. Дайте мне минуту — у меня есть данные более, чем из одного источника, что подобная практика полезна.

Нет причины ограничивать себя традиционными мультиагентными моделями, одобренными давно умершими философами, психологами или карикатуристами, если вам больше подходит другое деление. У вас может быть два «Я», или пять, или двенадцать.(Иметь больше, чем вы можете отследить, я не рекомендую; если «Я» слишком много, то это может оказаться признаком болезни. Если группа из нескольких «Я» формирует устойчивый блок, лучше будет объединить их в одного субагента.) Выделяйте ключевой элемент или поощряйте краткие выступления периферийных элементов. Называйте их описательно или по структурам мозга, или по цветам радуги — как вам будет удобно их различать. Говорите с собой вслух или пишите, или просто думайте в форме диалога, если вы считаете, что у вас так получится лучше. Несколько примеров того, что может выступать в качестве субагентов:

Желания или блоки желаний, сложные и возвышенные («хочу, чтобы всем было хорошо») или простые и низменные («хочу пирога»).

«Внутренний ребенок» или подобные ролевые группировки свойств характера («профессиональный Я», «семейный Я», «хобби-Я»).

Склонности и принципы высшего порядка («совесть», «невроз», «чувство справедливости»).

Мнения или точки зрения, как конкретные в данной ситуации, так и общие тенденции («оптимизм», «взгляд со стороны»,»Я должен делать Х»).

Изначально неопределенные, постепенно влияющие на личность субагенты, если ничего определенного не проявляется (которые можно назвать, не подразумевая ничего конкретного, например, производным от своего имени).

Основываясь на практических наблюдениях разных людей, можно определить одного из субагентов как «вы». На деле один субагент может быть определен только как «вы» — очень трудно ослабить влияние опыта монолитного наблюдателя. Это неплохо, особенно если «вы» одобряет и отвергает, но не позволяйте одобрению и осуждению ускользнуть из-под вашего контроля, когда выполняете подобные упражнения. Вам нужно взаимодействовать со всеми вашими субагентами, не только с теми, которые вам нравятся; у субагентов может проявляться манипулятивное и даже мстительное поведение, когда вы даете им право голоса, например, если вы определили ваше желание пирога как субагента и подавляли его годами, вы можете обнаружить, что Желание пирога злится на Сдержанность и плохо о ней отзывается. Желание пирога не утихомирится, если вы просто одобрите его в обход Сдержанности, в то время как Желание пирога просто пытается сказать о вашей отчаянной тяге к тирамису. До тех пор, пока вы не поймете Желание пирога достаточно хорошо, чтобы избавиться от него, вам нужно работать с ним. Прямое противостояние, обычное осуждение скорее всего сделают его злее и изобретательнее в попытках заставить вас съесть пирог.

Несколько вспомогательных заметок по субагентам:

Ваши субагенты могут удивить вас больше, чем вы ожидаете от… ну… себя, и это делает данное упражнение очень полезным. Если же вы будете управлять диалогом, вы немногое получите — выйдет так, что вы просто пишете фанфик про работу своего мозга, но на самом деле про эту работу ничего нового не узнаете.

Не все субагенты будут «заинтересованы» в каждой вашей проблеме и не будут постоянно высказываться. (Желание пирога скорее всего не заинтересуется тем, как вам себя вести на свидании на следующей неделе, однако оно оживится, когда подойдет время заказать десерт).

Ваши субагенты не должны лгать друг другу напрямую («должны» в предикативном, не в нормативном смысле — дайте мне знать, если ваши будут так делать), но они могут угрожать, вести переговоры, прятаться и совершенно не знать о себе.

Ваши субагенты могут взаимодействовать неэффективно. Субагент-переводчик может оказаться полезным, если возникнет проблема с пониманием.

(Опишите ансамбли ваших субагентов в комментариях, чтобы вдохновить других! Напишите диалоги между ними!)

Перевод: 
Remlin, timur.perevos
Оцените качество перевода: 
Средняя оценка: 4 (2 votes)

Тени от лампы

Ханна Финли

Вы можете использовать осознанность для того, чтобы помочь себе превратиться в того, на кого вы хотите быть похожим. Завершите это путем исправления результатов своих опытов над самим собой так, чтобы они оказались положительными.

Вы можете обнаружить, что понимаете этот пост лучше, если прочитаете седьмую из «Семи Сияющих Историй».

Когда у вас есть последовательные модели себя, эмпирически выгодно подвергнуть их испытанию.

Дело в том, что, когда вы испытываете себя, вы знаете, какой тест проводите и какие данные подтвердят каждую из гипотез. Кроме того, вы и есть субъект, генерирующий данные. Это создает сложности для надежного научного контроля за экспериментами такого рода.

К счастью, оказалось, что контроль для данной цели не обязателен! Помните, что вы не просто пытаетесь определить, что происходит в устойчивой части вашей личности. Вы также по возможности оцениваете и изменяете то, что отвергаете. Вы можете позволить выводам из наблюдений за собой изменить ваше поведение; более того, вы можете напрямую влиять на результаты тестов.

Предположим, что ваша модель себя предсказывает, что вы сделаете то, что, как вам кажется, вам не стоит делать; предположим, например, что она предсказывает, что вы накричите на кузину в следующий раз, когда она зайдет к вам и испачкает ковер, и вы думаете, что вы не должны кричать. Тогда вы можете опровергнуть эту модель тем, что промолчите: безусловно, если вы не накричали, то вас нельзя точно описать моделью, которая предсказывала обратное. Удержавшиcь от крика, вы сдвигаетесь к более точной модели наподобие «может накричать, если не будет думать перед тем, как сказать» или «ранее кричал, однако смог измениться». И если вас описывает подобная модель, а не та, в которой вы кричите, …вы не можете кричать.

(Заметим, конечно, что подмена «кричащей» модели той, где вы молча поднимаете вашу кузину и выкидываете из окна, — это не улучшение. Вы хотите заменить модель, которая вам не нравится, на более подходящую. Если у вас не получается — если контролировать свой крик вам трудно настолько, что у вас руки чешутся выкинуть кузину в окно, да так, что вы почти уже делаете это — тогда вам следует отложить подмену модели до лучших времен.)

Теперь, осознание того как не накричать (давайте не будем забывать о несдержанности, в конце концов) будет легче, поскольку у вас есть понимание того, что заставляет вас это делать в первую очередь. Вооруженные этим знанием, вы можете определить как управлять обстоятельствами чтобы предотвратить срабатывание триггеров крика самих по себе. Или вы можете попробовать более трудную, но более стабильную психическую перестройку от обстоятельств к поведению.

К сожалению, я не могу быть конкретней как это хотелось бы, поскольку очень много зависит от точных привычек вашего мозга, так отличающегося от любого другого, включая мой. Вам может потребоваться попробовать несколько разных стратегий, прежде чем вы найдете ту, что работает для вас и позволяет изменить то, что вам нужно изменить. Вы можете обнаружить что успешные стратегии со временем слабеют и нуждаются в замене и обновлении. Вы можете обнаружить что слушать других людей полезно (пишите техники ниже!) — а можете и не обнаружить.

Перевод: 
Remlin, timur.perevos
Оцените качество перевода: 
Средняя оценка: 5 (2 votes)

Урешику Наритай!

Ханна Финли

Это дополнение к цепочке про осознанность. В одном из комментариев я упомянула, что подняла свой уровень счастья (среди прочего) и это заявление было встречено с немалым интересом. Некоторые из подробностей уже подзабылись, однако ниже я воссоздам для вашего анализа то, что могу, о том процессе. Он содержит множество личных самооткрытий; пропустите их, если к вам это не относится.

В общем: я решила что я должна и хочу быть счастливее; я переименовала мои настроения и соответствующим образом подошла к управлению ими; также я обозначила управление настроением и поведением (включая поиск новых методов) как высокоприоритетное занятие. Теперь каждый шаг более подробно:

  1. Я пришла к пониманию необходимости стать счастливее. Быть несчастной не просто не приятно. Это опасно: у меня даже как-то были мысли о суициде. В жизнь я их никак не воплощала, в основном потому что я присоединяла надежды на улучшение к конкретным внешним признакам (различным академическим продвижениям) таким образом воображала себя как магически исцеленную, когда получала следующий диплом (и следующий, и следующий.) Однажды я заметила, что я делаю, это было неприемлемо. Если я хотела жить, я должна была найти безопасное эмоциональное место в котором могла бы остаться. Это должно было быть моим главным приоритетом и требовало следующих под-проектов:

    • Я должна была избавиться от багажа, который говорил мне что это обычно или уместно чувствовать себя плохо большую часть времени. Я одобряю мою способность реагировать эмоционально на мое окружение: но это должно быть кратковременным, а не хроническим. Реагировать эмоционально это ощущать себя хуже, если вещи становятся хуже, а не ощущать себя плохо несколько месяцев или лет подряд. (особенно не когда ощущать себя плохо снижает способность делать вещи менее плохими.) Далее, иметь низкий уровень счастья не повредит мой эмоциональный спектр за исключением его уменьшения; это уменьшить возможное влияние реального горя и не будет смешиваться с планом «реагировать эмоционально». Низкий уровень также ставит под угрозу мою способность реагировать эмоционально на позитивные новости, поскольку присоединен к систематическому уменьшению такой позитивности.

    • Я должна избавиться от багажа, который говорит мне что невозможно когнитивно менять мое настроение. Настроения соответствуют мыслям и хотя это может быть трудно — избегать мышления о вещах, я могу решить думать о том, о чем хочу. Десятилетия приема различных антидепрессантов не оказали воздействия, что представляет собой сильное свидетельство в пользу того, что моя проблема не в химическом балансе. И было легко увидеть что мое настроение меняется в малых масштабах при вещах под моим полным или частичным контролем, наподобие сна, диеты и активности. Это не кажется чем-то из ряда вон выходящим, что долгосрочные вмешательства большого масштаба могли иметь похожие эффекты на мое настроение в целом.

    • Я должна решить и действовать в соответствии решением, что мое счастье важно и стоит моего времени и внимания. Я должна уделять внимание и замечать что помогает, а что мешает. Я должна поместить увеличение помогающих факторов и снижение мешающих на вершину моего списка всякий раз когда это возможно, и ослаблять мои стандарты на тему «дистанционной доступности» чтобы предотвратить самосаботаж. И я должна подтвердить отказ от контрпродуктивных проектов или воздействий по меньшей мере пока я не разовью стабильность при работе с эмоциями которые они генерируют без того, чтобы постоянно пребывать в подавленном состоянии.

  2. Я переобозначила мои настроения так чтобы опознавать их в момент побуждения правильных действий. Когда данная точка на шкале счастье-несчастье — назовем ее «2» по шкале от от 1 до 10 — было обозначено как «нормальное» или «начальное», тогда когда я ощущала «2», я не предполагала что это значит что-то особенное; это было исходное состояние. Это давало мне возможность находится в состоянии «2» большую часть времени, и когда вещи становились хуже, я опускалась ниже и ожидала, пока вещи во внешнем мире исправяться, чтобы я могла подняться. Проблема была в том, что «2» не было хорошим местом, чтобы проводить там много времени.

    • Я должна была обозначить старую стартовую точку как субнормальное, проблемное состояние, которое создает необходимость в немедленных действия от меня по его исправлению. Это было похоже как будто говоришь мне, неведомо для меня, моя левая нога постоянно болела, требуя лекарств; при этом принимать их было бы трудно, учитывая то, что моя левая нога всегда чувствовала себя одинаково, пока я не ударялась или получала массаж. Но в конце концов я прикрепила актуальность к старой стартовой точке. Это было не то, что все в порядке; это был знак, что что-то не так.

    • Я должна была убедиться что у меня есть множество доступных и дешевых оправданий чтобы взбодриться, так что я не попаду в ловушку «ну только раз» оставляя себя в состоянии «2» вместо того, чтобы действовать. Я назначила одну пару носков любимой и носила их всякий раз когда вставала с неправильной стороны кровати; я приобрела привычку сохранять каждый рисунок милого животного который я находила в Интернете, так что я могла пролистать коллекцию всякий раз, когда мне требовалось; я заставила себя развивать навык приобретения друзей с целью что если у меня будет много друзей и я зайду в чат, кто-то будет там чтобы поговорить со мной; я стала жадной до недорогих товаров наподобие музыки или интересных вебсайтов. Когда одно из этих средств не срабатывало, я заставляла себя попробовать что-то еще, вместо того, чтобы погружаться в грустный внутренний диалог «ну, это не помогло; наверно что-то на самом деле не так и я должна чувстовать себя плохо, пока все не наладится само собой». Я также приспособила мою склонность чувствовать себя лучше после ночного сна — если я ощущала себя плохо и при этом было позднее время — я ложилась спать, резонно ожидая что утром будет лучше.

    • Я прекратила мириться с незначительными ранениями моих эмоций, которые я идентифицировала как наиболее постоянные и, таким образом, по большей части вероятно вносящие вклад в мое плохое состояние. Например я заметила что я всегда сплю лучше когда я не ложусь спать, ожидая что утром меня разбудит будильник, так что я переделала мое расписание так, чтобы утром было время поваляться в кровати, и нашла такой будильник, который будит меня максимально мягко, если мне обязательно требуется встать. Я распозанала людей, которые вводят меня в состояние фрустрации и опустошенности и ограничила взаимодействие с ними как ограничением возможностей вообще вступать с ними в контакт, так и путем удаления моих стандартов, что нельзя брость разговор посередине, так что я могу уйти раньше, чем вещи станут очень плохими. В общем я практиковалась в «выписывании вещей» и репетиции внутренний монологов, в которых я объясняла себе что нет необходимости волноваться об Х. («Я не могут управлять скоростью автобуса. Я села на него и он доедет тогда, когда доедет. Нет необходимости волноваться об опоздании пока я снова не пойду пешком — так что я остановлюсь. Чтобы управлять моим сильным навязчивым желанием успеть вовремя, я начну думать о том, как выбрать наилучший путь, который мне надо выбрать когда я сойду с автобуса.»)

    • Я обозначила мою новую желаемую стартовую точку — безопасную область спектра, назвала ее «5», которая была амбициозна но достижима — как «нормальную». При вопросе как я себя ощущала в этом состоянии, я сознательно выберу сказать что я была в порядке, вместо того чтобы с энтузиазмом воскликнуть «великолепно», как я бы сделала раньше — энергия, которую я ощущала на точке «5» больше не должна была быть чем-то экстраординарным. Подобным образом, нет подходящих оснований для совершения вещей, которые не нравятся. На «5» я не испытывала счастья — я ждала пока я стану еще лучше, пока не расслабиться моя эмоциональная жадность. Вместо этого, «5» была хорошим местом для предприниятия более продвинутых экспериментов, предлагаемых процессом улучшения. (более сложными нежели выбор определенной пары носков для надевания — начало ДнД игры, или хождения вокруг, исследования новой локации или работы над куском арта или фанфика; интервал времени и усилия сделали их бедными «ободряющими» усилиями, но прекрасными путями для получения состояний от «5» до «6» или «7».

    • Я сделала точку отметки не-грустных недостатков в моем статусе, наподобие скуки, голода, усталости, или раздражения. Они напрямую не связаны со стартовой точкой, которую я пытаюсь ощущать, но они могут усиливать плохое влияние или ограничивать силу хорошего. Вдобавок, на уровне осознанности на котором я должна работать, они также могут маскировать настроения, которые на самом деле грустные, примерно так же как кто-то может ощущать голод, когда на самом деле хочет пить.

  3. Я обозначила мое настроение как управляемое. Мышление об этом как о чем-то что атакует меня без закономерности или причины — лечения депрессии наподобие простуды — не просто стоит мне возможности сражаться с ним, но также делает целую ситуацию кажущейся бесконтрольной и безнадежной. Я не доверяю выученной беспомощности: я решила что лучше всего интерпретировать мою раннюю статистику нахождения в стартовой точке как показатель того, что я еще не обнаружила верных техник, нежели как индикацию что это непреложный и постоянный порядок вещей. Вдобавок, факт что я не знаю как это исправить еще значит что если собиралось стать моим главным приоритетом, я должна относится к ценности данной информации как к очень высокой; это стоило эксперимента и я не должна ждать гарантий, чтобы сделать это.

    • Даже если я определила что мое настроение реагирует каким-то методом на мое окружение, это убирает мою власть только над одним шагом: я могу контролировать мое окружение в определенной степени и с достаточно сильной причиной это делать я смогу деактивировать эту силу. (Это иногда имеет неожиданные и драматичные последствия. Для примера, когда я определила что аспирантура больше не совместима с моим счастьем, я бросила ее настолько быстро, насколько могла, хотя это было перспективное время — середина семестра — и отправилась в путешествие по стране. Могу добавить, что это дало отличный эффект.)

    • Даже если у меня на тарелке много всего, быть счастливее поможет мне делать это. Это похоже на сон: легко бодрствовать и бодрствовать, потому что сон кажется таким непродуктивным, и вы можете сделать немного работы, однако вы устаете. Но в долгосрочной перспективе, давая себе часок-другой нормального сна позволит вам сделать больше, и находится при этом в хорошем настроении. Управлнение настроением обычно не наиболее продуктивная вещь в кратковременной перспективе, которую я могла делать, однако рассмотрение его как главного приоритета в сложных ситуациях позволило мне быть более эффективной чем я была раньше.

    • Я должна была быть готова тратить ресурсы на мой проект. Это включало в себя работу над неврозами, наподобие моего нежелания тратить деньги и преодоления некоторого фонового нежелания пробовать новые вещи. Также мне пришлось позволить себе быть зависимой от своих прихотей. Я все еще не знаю что с моим настроением делает, скажем, предмет искусства, которое меня поражает, но когда это происходит, я должна творить или потеряю направление. Имеющие силу направления делают забавные вещи очень ценны для меня и таким образом когда возможно я не сдерживаю их, даже если это стоит времени и перекрывает другую деятельность.

Перевод: 
Remlin, timur.perevos
Оцените качество перевода: 
Средняя оценка: 2.5 (2 votes)

Как получить удовольствие от неприятной компании

Ханна Финли

В одном из комментариев я упомянула, что могу любить людей целенаправленно. В ответ на просьбу рассказать как это возможно, я написала свои советы в виде поста. Я не включила и не буду включать любые конкретные примеры из жизни (все нижеприведенное выдумано), потому что я беспокоюсь о том, что люди, которых я люблю целенаправленно, расстроятся, узнав, что это о них, хотя симпатия (некогда вызванная) совершенно искренняя. Если кто-то считает что полезно было бы что-то конкретизировать в большей степени, я постараюсь придумать историю, которая восполнит недостаток.

Любить людей полезно. С одной стороны, если вам приходится находиться в их обществе, то это более приятно. С другой, ну, они часто разговаривают, и если они знают, что они вам нравятся, они чаще будут склонны помогать вам. Таким образом очень удобно уметь полюбить кого-то независимо от того, что человек представляет собой на самом деле. Есть три простых компонента для того чтобы любить кого-либо целенаправленно. Первое — снизьте значимость плохих черт путем отсекания, видоизменения и преуменьшения их; второе — увеличьте значение положительных черт путем распознания, анализа и восхищения ими; и третье — ведите себя так, чтобы убрать эффекты предвзятости.

1. Снизьте важность плохих черт.

Подумайте о чертах, которые вам не нравятся в этом человеке — это могут быть несколько надоедливых привычек или список из серьёзных пороков, длинный, как ваша рука, но убедитесь, что знаете, какие это качества. Отметьте, что каким бы большим ни был список, он не обо всём человеке. («Обо всём!» не является лучшим ответом на данном этапе.) Невозможно полностью описать человека, перечислив черты, которые вы в нём заметили. Обратите внимание, таким образом, что вам не нравятся эти качества в человеке, но это не обязательно связано с самим человеком. Положите список в «ящик» — отдельно, пока вы наконец не составите мнение о человеке.

Когда человек показывает характеристику, привычку или склонность, которая есть и у вас (или, возможно, просто ухудшит вас, оказавшись вашей), будьте начеку — это может быть ошибочная оценка поведения. Это особенно незаметно в том случае, если человек вам уже не нравится, так что важно компенсировать прямо и осознанно данное влияние. Повышайте осознанность мыслью об «истории ситуативного поведения», в которой вы рассматриваете обстоятельства, а не характерную черты, которые объясняют недавний пример плохого поведения. Это должна быть такая история, которую вы можете придумать, чтобы не прибегать к ворчанию насколько это ужасный человек — то есть не прибегать к «Ну, может, у нее мозг марсианина, но блин, насколько это возможно?». Лучше звучит «Я знаю знаю, что она легла спать поздно и она выглядит уставшей» или «может быть из-за того, что этот трехчасовой телефонный разговор, который сейчас завершился, был о чем-то ужасно напрягающем».

Самое лучшее время для практики этой привычки — это практика в автомобиле. Выдумывайте истории о неправильном поведении на дороге вокруг вас. «Солнце так ярко светит — она могла не заметить меня» «Эта машина выглядит старой! Я бы не смогла водить её хотя бы наполовину так же хорошо, неудивительно, неудивительно, что она постоянно глохнет.» «Он жутко опаздывает — может, у него что-то случилось с родственником?» «Возможно, она говорит по мобильному, потому что работает доктором, всегда на связи — будет хуже, если она не ответит на звонок во время вождения.» «Он бы остановился, будь у него место для этого, но здесь нет обочины.» Конечно, всё это скорее всего неправда. Но это разумные объяснения, и они не о том. что каждый водитель — безумец! Я подчёркиваю, что от вас не требуется верить этим историям. Просто признайте, что они правдоподобны, чтобы восполнить искажение гипотез подобно этой, что возникнет существенная ошибка восприятия.

Если такой информации нет, то попытайтесь предположить — «Я бы действовал так, если бы был простужен; может быть она заболела?» является допустимой спекуляцией даже при отсутствии других признаков простуды. Если возможно, будет хорошей идее спросить (искренне, с любопытством, уважительно, по-доброму! не обвиняюще, грубо, бесчувственно, воинственно!) почему человек поступает так, как он поступает. Будьте уверены, если человек психически здоров, то у него в сознании есть объяснение, которое не сводится к «Я ужасное оправдание для человека, который по своей натуре делает злые вещи просто, потому что ему нравится». (Заметим, однако, что не все могут вербализировать самосуждения, когда их попросят.) Вне зависимости от того, верите ли вы им или нет, убедитесь что вам известно по меньшей мере одно объяснение на основе обстоятельств для того, что они сделали.

Замечайте, какие ситуации вызывают больше плохого поведения, нежели другие. У каждого есть ситуации, которые вызывают худшее в них, и когда худшее уже действует вам на нервы, вы должны избегать по мере возможностей того, чтобы на поверхность всплыло еще более худшее. Если у вас есть влияние на роли, которые этот человек играет в вашей жизни (или вообще), ограничьте их теми, в которых их худшие привычки не имеют значения, смягчены или компенсируются местными достоинствами. Не просите забрать вас из аэропорта кого-то, кто ужасает вас своей скоростью; не предлагайте разрезать десерт тому, кто славится своим эгоизмом; не назначайте срочных задач прокрастинатору. Просите любителя быстрой езды доехать до банка, пока он не закрылся, когда вы (к сожалению) застряли дома; дайте эгоисту задачи где ему придется работать с комиссией; дайте прокрастинатору такие задания, которые ему не захочется откладывать.

2. Увеличьте значимость положительных черт.

Не смотрите на меня так. Это работает. По крайней мере с этого можно начать. Вам не нужно ждать, что вам понравится кто-то до тех пор пока вы не откроете, что они пожертвовали миллионы долларов на смягчение экзистенциальных рисков или узнали, что под псевдонимом они являются вашим любимым музыкантом. Вам может нравиться их крутая стрижка, или их молчаливость, или даже обувь. Вы можете ценить то, что они вынесли больше тягот, нежели вы (если вынесли, но постарайтесь «ошибиться» в оценке в нужную сторону) — даже если вы не думаете, что они хорошо со всем справились, все равно им было тяжело. Вы можете признавать что они лучше вас или лучше большинства, или лучше чем кто-либо из ваших знакомых, кто вам нравится, или они лучше в некотором навыке, некоторой сфере. Вы можете думать, что они сделали отличную работу по подборке их мебели, или перенесите на них ваше хорошее отношение к их родственникам или знакомым. Что-то всегда есть.

Узнайте больше о вызывающих симпатию фактах, которые вы обнаружили. «Поймайте их в действии», когда эти качества демонстрируются. В заключение к тому, что говорилось выше, создавайте ситуации, где эти качества будут выставлены не в плохом, а в лучшем свете. Добейтесь в этом успеха, безусловно и в ваших глазах. Поговорите с вашими общими друзьями о том, что ещё можно полюбить — узнайте, как человек находит друзей, что привлекает в нём людей, что люди извлекают из общения с ним. Спросите о добрых делах данного человека. Собирайте сведения, словно вы биограф, который страшится иска за клевету и боится написать слишком мало: вам нужно знать столько хороших фактов, насколько возможно.

В этом деле чрезвычайно важно развивать восхищение, а не зависть. Зависть и негодование приводят к обратным результатам, в то время как восхищение и уважение — какими бы сдержанными они ни были — являются шагом в верном направлении. Кроме того, вы постараетесь использовать эти особенности человека. Это не отдалит ваши цели, если вы не примете во внимание их значимость для огромного плана. Не думайте: «У неё классная причёска, почему же у неё такая классная причёска, хотя она ужасный человек и не заслуживает этого? Гр-р-р!» Вместо этого: «У неё такая классная причёска. На неё приятно взглянуть, вот почему здорово, когда она рядом. Интересно, у неё есть время научить меня укладывать волосы так же?» Или вместо «Конечно, он умеет говорить на латыни, но чёрт возьми, какой от этого прок? Он что, думает, что нас захватят легионеры и захотят, чтобы он был дипломатом?» будет полезнее для создания симпатии подумать «У многих людей нет терпения и стремления выучить какой-нибудь второй язык, тем более такой, у которого не осталось носителей, чтобы помочь и научить его тонкостям. Уверена, что он приложил к этому много усилий.»

3. Получите постоянный результат.

Будьте добры и внимательны к человеку. Велика вероятность. что ему что-то в вас не нравится (придирки чаще возникают у обеих сторон, а не у одной). Если вам удалось выяснить, что именно и делать это меньше — по крайней мере при нём — у вас возникнет смешанное чувство, что вы можете заставить себя полюбить этого человека. Иначе говоря, я думаю, почему бы вам не потрудиться не стучать пальцами в его присутствии, или не делать ошибок в его замысловатом имени, или помнить, на что у него аллергия, чтобы не приносить еду для всех, кроме него? Это то, что вы делаете, когда вам не наплевать на его чувства, а если вам не наплевать на них, значит он вам хотя бы немного нравится. (Берегитесь: если вы видите, что то, что вы делаете, раздражает его, и вы отвечаете с негодованием, что у него завышенные предпочтения насчёт глубоко укоренившейся части вашей личности и как он смеет, то вы что-то делаете не так. Главное не измениться до неузнаваемости, пытаясь быть его идеальным другом. Вам не нужно делать всё. Но сделайте хоть что-то.)

Стремитесь проводить время с этим человеком. Это должно естественно продолжать предыдущие шаги: вам нужно всё же добыть где-то всю информацию. Но узнавайте его мнение по разным вопросам, особенно из его области знаний и предпочтений; выполняйте небольшие задания; спрашивайте о его планах, интересах, любимых людях; встречайтесь на его территории, даже если вы никогда не взаимодействовали. (Берегитесь: не делайте этого, если чувствуете, что ненавидите его ещё больше в каждой проведённой вместе минутой, или если это напрягает вас достаточно, чтобы воздержаться от вышеупомянутых умственных упражнений. Лучше больше работать над симпатией на расстоянии, если вы на этой стадии, а потом стремиться проводить больше времени с ним. Кроме того, если вы его раздражаете, то не делайте ничего, что расценивалось бы как приставание и слежка.)

Постарайтесь узнать что-то от человека — например, не хочет ли он чему-то вас научить, или без обиняков, хочет ли. Возможно учиться даже у тех людей, чьи умения не намного лучше ваших. Если он рассказывает о том, что сделал, то вы можете учиться на его ошибках; если его умения хуже ваших, но он применяет новый подход, то вы можете научиться его использовать; если вообще ничего, то он знает кое-то о себе, а эта информация важна для проекта симпатии, о котором писалось выше. Наложите то, что о нём знаете, на его собственные представления о себе.

Берегитесь общей ошибки: используя возможности изложенной стратегии, очень легко выработать самодовольство, фарисейство, высокомерие и другое непристойное поведение. Остерегайтесь таких внутренних монологов, как: «Он ушёл и опять сломал раковину, но я слишком добрый и терпимый, чтобы злиться. Не стоит выражать недовольство — в конце концов, он не выносит критики, не мне осуждать его, конечно. Я лучше заблокирую кран и вызову водопроводчика, чтобы тот исправил за него поломку, чем буду ворчать на него, я же знаю, что он рассердится, если я напомню ему — не каждому дано спокойно воспринимать такое, как мне, а я так и веду себя с ним прямо сейчас, не расстраиваюсь…»

Автору этого монолога не нравится разрушитель раковины. Автор этого монолога презирает его, она высокого мнения о себе, потому что скрывает своё презрение (хотя это вполне может быть и он). Она терпит его общество, потому будет ниже её достоинства не делать этого; ей не нравится быть с ним, потому что она понимает, что он понимает суть важных вопросов или даже потому декоративен в какой-то степени. Если вы в итоге не имеете действительной, искренней, честной симпатии к человеку, которого планировали полюбить, то вы что-то сделали не так. Это недоверие вашему своеволию, и полагать, что это так, не поможет вам победить.

Перевод: 
Remlin, timur.perevos
Оцените качество перевода: 
Средняя оценка: 3.8 (22 votes)

Семь Сияющих Историй

Ханна Финли

Я поняла, что содержимое цепочки об осознанности чересчур абстрактно и что было бы полезно показать на вымышленных примерах, как применять мои идеи. Вот эти истории.

1. Слова (идея взята из «Да будет свет», в котором я советую собирать предварительную информацию о себе из внешних источников)

Марии нравятся комплименты. Она без ума от комплиментов. А когда ей становится мало, она начинает напрашиваться на похвалу, задавать наводящие вопросы, смотреть большими глазами — делать все, чтобы получить их. Это всех раздражает. И часто вместо одобрения она получает язвительные замечания, критику и брюзжание. Она обижается; это ранит ее сильнее, чем других в таком же положении. Мария хочет знать, что с ней происходит. Поэтому она начинает проходить личностные тесты, изучает различные стили управления отношениями и их оценки, ищет то, что характерно именно для нее. Со временем она встречает понятие «языки любви» и осознает, что она «вербальный» человек. Ее друзья не хотят обидеть ее, они не представляют, как много для нее значат комплименты, как грубость может глубоко ранить таких, как она. С этим знанием она может толковать особенности своего поведения; она также может объяснить себе, что друзья действительно ее любят, и получать необходимые словесные подтверждения этому.

2. Виджеты (идея взята из «ЭПО — основы осознанности», в которой я объясняю ценность соотношения эмоций, поведения и обстоятельств)

Рабочая производительность Тони ужасна. Почти каждый день он слишком опустошен и невнимателен, чтобы хорошо делать виджеты. Выполнение плана по изготовлению виджетов под угрозой, и Тони хочет понять причину. Он только что прочитал увлекательные, блестяще написанные посты об осознанности на LessWrong, и вот он решает отследить свое состояние и действия в те моменты, когда он ощущает опустошенность и не ощущает ее. Через неделю он получает вполне устойчивую зависимость: хуже всего те дни, когда он пропускает завтрак, потому что слишком долго валяется в постели, постоянно отключает сигнал будильника и потом мчится на работу. Получается, что из-за рассеянности в течение дня он работает медленно, поэтому он меньше устает к вечеру и позже ложится спать. Чтобы справиться с этим, он начинает подолгу бегать в те дни, когда его работа не слишком утомительна, и запасается мелатонином; он легко засыпает, если ложится в нужное время, хорошо высыпается, завтракает и приезжает на работу полным энергии и сконцентрированным.

3. Текст (идея взята из «Свет, камера, мотор!», в которой я отстаиваю агрессивный и частый самоанализ, который позволяет собрать больше данных)

Дот читает об эксперименте, во время которого субъектам звонят в случайные моменты времени; они должны рассказывать исследователям, счастливы ли они в тот момент. Судя по всему, во время эксперимента были выявлены некоторые оптимальные модели поведения, и Дот любопытно, что она может использовать для улучшения жизни. Она просит друга организовать доставку смс на ее телефон в случайные моменты времени и обещает себе замечать, что она делает, думает и чувствует, когда получает смс. Вскоре она обнаруживает, что не так сильно любит смотреть телевизор, как ей казалось; что готовить вкуснее, чем разогревать в микроволновке; что ей не нравится ее соседка по кабинету; что она думает о своем бывшем больше, чем признается себе. Эти мысли обычно слишком поверхностны и не отражаются на её поведении; если она пытается вспомнить их через несколько часов, события складываются в одну длинную историю, в которой эти мимолетные эмоции вторичны. Но если их замечать и принимать их во внимание, они не ускользают. Дот кладет книгу на пульт от телевизора, напоминая себе, что такой отдых приносит больше удовлетворения. Она покупает меньше полуфабрикатов и необходимое количество основных продуктов. Она договаривается поменяться офисами с коллегой, чтобы не терпеть неприятное соседство. С бывшим не так просто, но когда ее друзья спрашивают о том, все ли у них в порядке, она может ответить более точно.

4. Набор текста (идея взята из статьи «Луч света», в которой я рекомендую переносить мысли в визуальную или звуковую форму, чтобы в дальнейшем их можно было исследовать, не затрагивая самоанализ)

Джордж старается понять, кто же он. Действительно старается. Но когда он пытается объяснить свои поступки и мысли в рамках общих моделей, которые могли бы ответить на его вопрос, результат выглядит подозрительным, требующим пересмотра и корыстным, как будто он привычно забывает некоторые детали и умышленно преувеличивает другие. Он думает, что он великодушен, что он звезда вечеринок, хороший семьянин, честный человек, с которым легко иметь дело. Джордж решает, что нужно честно и решительно отлавливать то, что он думает в каждый момент времени, чтобы работать с правдивыми данными. Он запускает текстовую программу и начинает записывать поток своего сознания. Напечатав несколько параграфов, почти полностью состоящих из «я тут пишу то, что думаю» и «это какая-то глупость, и ничего путного из этого не выйдет», он наконец набивает руку и начинает накапливать материал. Вскоре у Джорджа появляется несколько минут зафиксированного внутреннего диалога. Он записывает то, как хвалит себя, но в скобках также делает отметки о тех случаях, когда он действовал вопреки этим славным шаблонам (однажды он взял три порции торта, хотя на всех не хватало; он пропустил половину вечеринки, болтая по телефону; он пропустил прошлый день рождения дочери; он бросил друга в день соревнований; он вышел из себя, когда коллега несколько раз напомнил ему доделать таблицы). Джордж записывает свои плохие привычки и свои недостатки. Важно то, что он сопротивляется желанию стереть написанное, хотя он легко спорит с собой о том, хочет ли он что-то исправить. Потом он сохраняет документ, запихивает его подальше в папку и выжидает неделю. В следующий вторник он перечитывает напечатанное, как если бы это были записи незнакомого человека и думает, что бы он мог ему посоветовать.

5. Противоречия (идея взята из статьи «Блики и тени», в которой я объясняю, как поддерживать и отвергать мысли и склонности)

Пенни знает, что она не совершенна. Более того, некоторые ее склонности и замыслы противоречат друг другу, и она знает об этом. Она хочет питаться лучше, но любит пиццу; она пытается научиться самообладанию, но иногда люди так себя ведут, что единственный выход — накричать на них; она старается усмирить желание пилить своего парня, но если он не в состоянии научиться опускать за собой сиденье унитаза, то, возможно, он заслуживает упреки. Пенни решает внимательно разобраться с несоответствиями и принять, наконец, одну из сторон. И вот она приходит к честному выводу, что без пиццы жизнь кажется мрачной и беспросветной; она делает это официальным исключением из правила и старается питаться лучше — кроме тех случаев, когда дело касается пиццы. Она понимает, что злость — даже на людей, которые ошибаются — никому не поможет, так что она прикладывает больше сил, чтобы справиться со злостью, и ищет другие, более продуктивные методы выражения своих оценок. И ей ясно, что нытье не решает проблемы. Она не одобряет ворчание, но и некультурное поведение своего молодого человека она поддерживать не собирается. Она соглашается больше не пилить его, когда он допускает ошибку, и надеется, что он исправится.

6. Коллектив (идея взята из статьи «Город огней», в которой я предлагаю разделить себя на субагентов, чтобы разрешить сложную ситуацию)

У Билли есть возможность на год уехать в Австралию учиться, и он настолько озадачен, что едва может ясно мыслить. Он не может решить, хочет ли он ехать, почему он хочет ехать, и что он чувствует при мысли, что он откажется. Наконец он решает, что будет легче дать имя каждому из докучающих ему голосов и позывов и позволить им говорить друг с другом. Он определяет основных участников (субагентов) как «Привязанность», которая хочет остаться в знакомой обстановке; «Авантюриста», который хочет узнать что-то новое и путешествовать по миру; «Верность наставнику», которая подчиняется рекомендациям его профессора; «Знатока», который хочет сделать все, чтобы у Билли в будущем было как можно более впечатляющее резюме; и «Боязнь пауков», которая мечтает оказаться подальше от австралийских членистоногих и жутких снов с их участием. Когда у этих голосов появляется возможность спорить, они обнаруживают друг у друга сомнительные мотивы: например, Знатоку понятно, что профессор рекомендует Билли остаться только потому, что Билли работает у него помощником, а не потому, что хочет, чтобы он рос в интеллектуальном плане, и это снижает важность Верности наставнику. Авантюрист возражает Боязни пауков, указывая на то, что черная вдова родом из США. Наконец, Знаток и Авантюрист вместе побеждают Привязанность (с которой Билли себя не отождествляет), и вот Билли отправляется покупать билет.

7. Эксперимент (идея взята из статьи «Тени от лампы», где я описываю возможность успешно измениться, принимая другую модель поведения, и определить то, что лежит в основе нежеланных поступков)

Ева начинает плакать каждый раз, когда сталкивается со сложной задачей вроде нового проекта на работе или бурного скандала среди ее друзей. Конечно же, это очень непродуктивно — на деле, в случае скандала это еще больше усугубляет ссору — и Ева хочет остановить это. Для начала она должна осознать, почему так происходит. Является ли грусть причиной слез? Похоже, что нет. Она плачет, даже если ничего грустного не происходит. Последний проект на работе был увлекательным, он открыл для нее много возможностей, но все таки она плакала. Разбираясь с причиной, которая заставляют ее плакать, Ева понимает, что слезы появляются из-за давления, которое она ощущает, решая проблему; к примеру, если над проектом вместе с ней работает команда, Ева реже реагирует подобным образом; и если друзья в своих ссорах обращаются к ней за помощью, она плачет чаще, чем когда она только наблюдает со стороны. Теперь ей нужно помочь себе не плакать. Она получает поддержку в своих начинаниях: если босс дает ей поручение, она обращается к другому сотруднику:»Я, скорее всего, с этим справлюсь, но если мне понадобиться помощь, могу ли я рассчитывать на вас?» Таким образом она снимает с себя часть ответственности. Она может думать, что задача не полностью на ней. Когда разражается очередной скандал, Ева переосмысливает свое участие в размолвке. Она выражает вслух согласованное мнение всех участников ссоры вместо того, чтобы в одиночку пытаться найти наилучшее решение. Однако даже при том, что с таким новым подходом слезы появляются реже, структура, которая лежит в основе данной привычки, сохраняется. С этим справиться сложнее. Ева подолгу думает над тем, почему ответственность так эмоционально нагружает ее, и ищет пути увеличить чувство поддержки в тех ситуациях, с которыми она не может справиться самостоятельно. В конце концов, не страшно, если Ева всплакнет, когда столкнется со сложной ситуацией.

Перевод: 
Remlin, timur.perevos
Оцените качество перевода: 
Средняя оценка: 4.2 (5 votes)

Политика и ужасное искусство

Элиезер Юдковский

Одно из наименее ценных моих воспоминаний — это как на обращении «О положении страны» или, возможно, на инаугурации президента, один нобелевский лауреат встал и стал читать ужасно торжественным голосом политически верную длинную скучную речь о том, как хорошо живется у нас всем нациям — «Афроамериканцам, эфиопам, этрускам» или типа того. Эта «поэма», если можно так выразиться, была просто невыносимо ужасна. Если верить моим ушам, то в ней не было абсолютно никаких достоинств вообще.

Время от времени к какому-нибудь атеисту приходит потрясающая идея, что и у атеистов должен быть гимн, наподобие тех, что есть у религиозных людей. После этого они берут существующую песню на религиозную тематику и переделывают ее под атеизм. И такой «атеистический гимн» практически всегда получается просто отвратительным. Однако автор не видит, насколько ужасно его произведение как стихотворение. Он слишком занят восхвалением себя, думая «Религия отстой, аминь». Он ощущает себя так, словно нанес удар Злейшему Врагу. Его настолько переполняет воодушевление от этого, что атеист не видит, что у его гимна вообще никаких других достоинств. Стихи того же качества о чем-то, не касающемся политики, смотрелись бы чем-то вроде записок на холодильнике у домохозяйки.

В литании против гуру, которая приводилась в предыдущей статье, есть две строки, которые можно классицировать как стихи, а не просто как строфу. Когда я сочинял конец литании, строки, которые первые пришли мне на ум, были следующими:

I was not your destination (Я не цель, куда нужно придти)

Only a step on your path (А только шаг на твоем пути)

Которые в принципе звучали не особо. Заменить «путь»(pathway) на «дорогу»(road), чтобы совпадало по слогу? Тогда звучит еще хуже, теряется ритм.

Настоящая проблема была в слове destination (место назначения) — которое состояло из четырех слогов и было ужасно громоздким. Его надо было убрать. «Я не твоя цель» («I was not your goal») было первое что пришло в голову и это было коротким и отлично звучало. Однако мне не нравилось слово «цель» («goal»), оно было слишком абстрактным. Вслед за ним мне в голову пришло слово «город» («city») и я понял — вот оно.

«I was never your city» («Я никогда не был твоим городом») пришло ко мне не когда я думал о рациональности, а когда я размышлял о просодии. Ограничения искусства заставляют нас отбрасывать устаревшие шаблоны построения фраз, и в поисках менее очевидных фраз мы часто натыкаемся на менее очевидные мысли.

Если я скажу «Ок, это отличная мысль о рациональности, так что нет нужды волноваться о просодии», тогда я бы не смог получить преимущество ограничения.

Другая строка первоначально звучала как «Laugh once, and never look back,» («Посмейся и никогда не оглядывайся») что было не слишком рационально, хотя с просодией тут проблем не было. «Laugh once» («Посмейся») звучало слишком глумливо, это было не то, что требовалось. «Never look back» («Никогда не оглядывайся») было еще хуже, поскольку память о прошлых ошибках может быть полезна даже годы спустя. Так что «Look back, laugh once smile, and then,» и, «look forward» («Оглянись,Улыбнись,И иди вперед!»)? Теперь, если бы я восторгался рациональностью, я бы сказал «Как хорошо звучит „look forward“ » и простил бы лишний слог.

«Eyes front!» а вот тут было два слога. Они звучали четко и ясно, говорят прекратить витать в облаках, выйти из оцепенения и приступить к работе! Никаких мягких клише вроде «look forward, look upward, look to the future in a vaguely admiring sort of way…»

Взгляд вперед! Это лучшая мысль в качестве рациональной, которую я бы никогда не нашел, если бы стремился исключительно писать о рациональности, так чтобы забыть о просодии или лишних слогах.

Если вы позволяете утверждению о Вашей Любимой Идее компенсировать недостаток ритма в песне, недостаток красоты в картине, недостаток остроты в произведении, то ваше искусство неизбежно будет крайне убого. Когда вы стараетесь рассказать через искусство свою Любимую Идею, то вы должны придерживаться тех же стандартов, что при рассказе о бабочке.

Существует направление политизированного искусства, наподобие рисования икон. При этом высокое качество в таком искусстве скорее исключение чем правило. Большинство из них работает по принципу «Советского Человека, Который Побеждает Змей Капитализма». Такое легко сделать и легко защищать — если кто-то критикует ваше искусство при этом, то получается, будто он на стороне Змей Капитализма.

Толерантность по отношению к ужасному искусству, проявляемая только потому, что оно наносит удары по вашим Врагам, или потому что оно взывает к Великой Истине — опасный знак. Это свидетельствует о том, что аффективная смертельная спираль входит в сверхкритическую фазу, где вы больше не сможете критиковать любой аргумент, который говорит в пользу «вашей» стороны.

И в следующий момент вы осознаете, что уже пишете ужасные гимны или вставляете гигантские философские лекции в кульминацию вашего романа…

Перевод: 
Remlin
Оцените качество перевода: 
Средняя оценка: 5 (4 votes)

Фальшивый смех

Элиезер Юдковский

Существует так называемый глумливый или подлый смех, который возникает у человека, когда он видит, как его Злейший Враг получает пинок под зад. Это может быть ожидаемым и быть вообще не смешно на самом деле, главное — чтобы Врагу при этом было больно. Похоже на юмор, только без юмора.

Если вы знаете, что ненавидит ваша аудитория, то не составляет труда добиться подобного смеха — который служит признаком одного из подвидов ужасного политического искусства.

Существуют, конечно, и хорошие образцы сатиры, да; не все политическое искусство плохо. Однако от сатиры требуется нечто большее, нежели простой удар Врагу по носу. На деле не то что сатира — даже обычный юмор требует усилий.

Представьте политическую карикатуру: здание с вывеской «Наука» и годзиллоподобного монстра с табличкой «Буш», который ломает это здание. Есть люди, которые будут смеяться и над этим — хе-хе, Буш теряет баллы, хе-хе — однако такую карикатуру можно сделать почти без усилий. На деле, это вообще первое, что пришло мне в голову в ответ на мысль «политическая карикатура о Буше и науке». Такая степень очевидности и простоты — плохой знак.

Если я хочу создать смешную политическую карикатуру, я должен приложить больше усилий. Выйти за пределы шаблонных «запасенных» мыслей. Использовать свою креативность. Изобразить Буша монстром с тентаклями, а науку — японской школьницей.

Есть множество форм искусства, которые страдают от очевидности. Однако юмор страдает больше остальных, поскольку он держится на сюрпризе — нелепом, неожиданном, абсурдном.

(Сатира добивается этого говоря вслух те мысли, которые вы не осмеливаетесь даже думать. Фальшивая же сатира повторяет мысли, которые вы уже думали.)

Вы можете сказать что предсказуемый кульминационный момент имеет слишком большую энтропию, чтобы быть смешным, по той же самой логике, которая говорит, что вы будете меньше удивлены обнаружив на градуснике 30 градусов, нежели 29.

Общий тест, который позволяет распознать ужасное политическое искусство — спросить, казалось бы данное искусство нужным, не будь оно политическим. Если кто-то пишет песню о космическом путешествии, и песня достаточно хороша, что я слушал бы ее, даже будь она о бабочках, тогда и только тогда ей можно начислить бонусные баллы за прославление великой идеи.

Так что один тест на подлый смех — спросить, была бы шутка столь же смешна, если пинок получил не Злейший Враг. Билл Гейтс однажды получил внезапно пирогом в лицо. Было бы это по-прежнему смешно (пусть даже менее смешно) если бы пирогом получил Линус Торвалдьс?

Разумеется я не предлагаю вам сидеть и весь день спрашивать, какие шутки на самом деле смешные, а над какими вам «позволено» смеяться. Как говорится, анализировать шутку все равно, что препарировать лягушку — лягушку это убивает, да и вам не особо весело.

Так зачем нужен данный пост? Разве мы уже не знаем, какие из шуток смешны?

Первое приложение: если вы обнаруживаете себя в компании людей, которые рассказывают несмешные шутки о Злейшем Враге, будет хорошей идеей смыться оттуда, пока вы не начали смеяться вместе с ними…

Другое приложение: и вы и я должны иметь право не смеяться над определенными шутками — даже шутками, нацеленными на наши любимые мишени — на основании того, что шутка слишком предсказуема, чтобы быть смешной. Мы должны быть способны это делать без того, чтобы быть обвиненными в отсутствии чувства юмора, «неспособности въехать в прикол» или защите священных коров. Если Годзилла-с-табличкой-топчущий-здание-с-табличкой не смешно для «Буша» и «Науки», то это также не смешно и для «либеральных экономистов» и «Американской национальной соревновательности» и т.д.

Наиболее едкое обвинение, которое я когда-либо слышал против Объективизма, это что хардкорные объективисты лишены чувства юмора; однако никто не может это доказать только показывая объективисту карикатуру о Годзилле «Рэнде», разрушающем здание «юмор» и требуя, чтобы человек смеялся.

Требуя, чтобы кто-либо смеялся для доказательства, что человек не принадлежит к культу — ну, как и большинство подневольного смеха, оно не особо работает. Смех, о любой вещи, должен приходить естественно. Самое большее, чего вы можете добиться — это вызвать страх и сомнения в их пути.

Если объективист, который просто просматривает странички в Интернете, натыкается на изображение Айн Рэнд в виде японской школьницы, которая читает лекцию монстру с тентаклями, и при этом даже не улыбается — это вполне может быть проблемой. Однако решить эту проблему, пытаясь смеяться нарочно, не получится.

Проблемы с юмором — знак ужасных вещей. Однако делать юмор обязательным или постоянно волноваться, достаточно ли вы смеетесь — значит усугублять и добавлять таких проблем. В таком виде это похоже на Дзен. Есть вещи, из которых вы можете сами сделать шутку, однако очень мало вещей, которые вы можете сделать, чтобы осознанно поверить что шутка смешна.

Перевод: 
Remlin
Оцените качество перевода: 
Средняя оценка: 3.2 (158 votes)

Что такое байесианство

Кай Сотала

Эта статья является попыткой сжато изложить базовый материал, и таким образом, возможно, не несет ничего нового для продвинутого читателя. Будет интересно узнать, не пропустил ли я чего-то важного здесь.

Вы, должно быть, часто встречали слово «Байесианство» на этом сайте, но, вероятно, не до конца уверены в том, что мы имеем в виду под этим понятием. Вы могли прочитать интуитивное объяснение, но там похоже, только объясняются некоторые математические формулы. На эту тему есть статья в википедии, но и она не сильно помогает. Можно было подумать, что люди на LW вкладывают в «байесианство» смысл навроде «вы же знаете, есть частотная школа статистики, и есть байесовская школа статистики; так вот, мы говорим про байесовскую» — но нет, это не совсем то. Насколько я могу сказать, не существует статьи, точно говорящей, что означает «байесианство».

Центральные идеи просматриваются на протяжении большого набора постов, «байесианство» имеет свой тэг, но нет отдельного поста, который точно увязывал все связи и говорил «вот это и есть байесианство». Так что позвольте мне попробовать предложить моё определение, которое сводит байесианство к трём ключевым принципам.

Мы начнем с короткого примера, иллюстрирующего теорему Байеса. Предположим, что вы врач и к вам пришел пациент, который жалуется на головную боль. Далее предположим, что есть две причины, по которым может болеть голова: опухоль мозга и простуда. Опухоль мозга всегда вызывает головную боль, однако она является крайне редким заболеванием. И наоборот, головная боль редко возникает при простуде, однако множество людей простужается каждый год. Если нет другой информации, что вероятнее — что человек простудился или у него опухоль мозга?

Если вы решили, что вероятнее всего простуда, то это был ответ, которого я ждал. Даже если опухоль вызывает боль каждый раз, а простуда только в одном проценте случаев, случаев простуды настолько больше, что случаев головной боли, вызванной простудой, куда больше, чем болей, вызванных опухолью мозга. Теорема Байеса, в основном, говорит что если причина А может быть источником симптома Х, то тогда мы должны учесть обе вероятности, что А вызывает Х (находится, грубо, умножением частоты А на шанс, что А вызовет Х) и вероятность что что-то еще вызовет Х (для досконального математичесого объяснения теоремы Байеса обратитесь к интуитивному объяснению от Элиезера).

Нет ничего удивительного в этом, конечно же. Предположим, что вы идёте по улице и видите бегущих людей. Они могут быть на пробежке, куда-то торопиться или же они таким образом хотят согреться. Чтобы понять, какое из предположений верно, вы пытаетесь определить какое из объяснений истинно чаще всего и лучше всего подходит в вашей ситуации.

Ключевой принцип 1: У любого полученного наблюдения есть множество различных возможных причин.

Признание этого, однако, ведет к кое-чему менее интуитивно представляемому. Любое наблюдение всегда следует интерпретировать, учитывая уже имеющуюся информацию. Простое наблюдение того что человек бежит, не будет достаточным, чтобы сказать что он торопится или что он просто на утренней пробежке. Или предположим что вы должны выбрать между двумя соперничающими теориями о движении планет: есть теория о законах физики, предложенная сэром Исааком Ньютоном или теория, гласящая что Летающий Макаронный Монстр просто подталкивает планеты Своей Макароннейшей Десницей. Если эти две теории делают одинаковые предсказания, то вы должны основываться на своих исходных знаниях (на своём приоре, коротко говоря), чтобы решить, какая из них более вероятна. И даже в случае, когда их предсказания отличаются, вам всё равно требуются какие-то знания, на основании которых можно определить, которое из предсказаний лучше; не говоря о том, что из-за каких-то соображений нас интересуют именно предсказания, а не степень элегантности теории.

Или возьмём обсуждение теорий заговора. Некоторые люди считают, что необъяснённые или подозрительные вещи в официальных отчётах означают, что существует государственный заговор. Другие считают, что априорная вероятность гипотезы «правительство готово проводить массовые рискованные операции с тысячами невинных жертв для того, чтобы ввести публику в заблуждение» очень мала и думают, что куда вероятней есть что-то ещё, вызывающее данные подозрительные вещи.

Опять же, это может казаться очевидным. Но есть ряд хорошо знакомых примеров, в которых люди забывают применить данную информацию. Возьмем феномен сверхъестественного: да, если существовали духи или боги, влияющие на наш мир, некоторые из вещей, входящих в человеческий опыт, могли бы подпадать под категорию вещей, которые могли бы вызываться данными силами. Но также есть бесчисленное количество обыденных объяснений, от совпадений до психических расстройств при богатом воображении, что могли привести к восприятию данных вещей. Большую часть времени постулирование сверхъестественного объяснения не должно даже возникать у вас в сознании, поскольку у обыденных причин есть уже множество свидетельств в их пользу, а у сверхъестественного — ни одного.

Ключевой принцип 2: Наша интерпретация любого события, а также любая новая информация, которую мы получаем, зависит от информации, которая у нас уже есть.

Подпринцип 1: если вы наблюдаете явление, которое может быть, по вашему мнению, вызвано только причиной А, спросите себя: «что если данной причины не существовало бы — мог бы я ожидать независимо наблюдать то же явление с той же вероятностью?» Если ответ «да», то, возможно, причиной является вовсе не А.

Данное понимание ведет нас к…

Ключевой принцип 3: Мы можем использовать концепцию вероятности для измерения наших субъективных убеждений в чём-то. Более того, мы можем применять математические законы, имеющие отношение к вероятности, для выбора между различными убеждениями. Если мы хотим, чтобы наши убеждения были верными, мы обязаны так делать.

Факт, что любое явление может иметь бесконечный ряд причин объясняет то, почему байесианцы так строги при подтверждении теорий. Недостаточно, чтобы теория объясняла феномен; если она может объяснить слишком много, она не является хорошей теорией. Помните: явление, которое имело бы место даже в случае, когда предполагаемая вами причина отсутствует, — слабое подтверждение вашей гипотезы. Подобным образом, если теория может объяснить любое наблюдаемое явление, то есть если теория разрешает любое возможное событие, тогда ничего из того, что вы наблюдаете, не будет свидетельством для данной теории.

По своей сути, байесианство не представляет собой ничего более сложного чем это: мышление при помощи набора из трех ключевых принципов, полностью принимаемых во внимание. Добавим капельку идеализма: совершенным байесианцем является тот, кто обрабатывает всю информацию в совершенстве, и всегда приходит к лучшим заключениям, которые только можно сделать из имеющихся данных. Когда мы говорим о байесианстве, это идеал, к которому мы стремимся.

Полностью усвоенное, это мышление имеет тенденцию окрашивать ваши мысли в свой, особенный цвет. Как только вы осознаете, что все ваши убеждения, которые у вас есть, основаны — в механическом, законном смысле — на убеждениях, которые вы имели вчера, которые основаны на убеждениях что были у вас последний год, которые основаны на убеждениях которые были у вас, когда вы были еще ребенком, которые основаны на тех предположениях о мире, что были встроены в ваш мозг, когда вы росли в утробе матери… То это заставит вас задуматься о ваших убеждениях в большей степени. Забеспокоиться о том, все ли из этих предыдущих убеждений в действительности максимально соответствовали действительности.

И вот, по существу, зачем нужен этот сайт: чтобы помочь нам стать хорошими байесианцами.

Перевод: 
Remlin, Арс
Оцените качество перевода: 
Средняя оценка: 4.2 (33 votes)

Время молотка

Если у вас есть только молоток, всё вокруг выглядит как гвозди.

Инструментальная рациональность: тридцать дней практики.

Автор: 
alkjash

Молотки и гвозди

alkjash

Если у вас есть только молоток, то всё вокруг выглядит как гвоздь.

Наиболее значимая идея, о которой я когда-либо писал это «Серьезное восприятие идей», что само по себе является обобщением поста Зви More Dakka. Этот текст является углублением мысли о полноценной интеграции какой-либо идеи.

Создам дихотомию между Молотками и Гвоздями:

Молоток есть некто, выбирающий единственную технику и использующий её для решения как можно большего количества задач.

Гвоздь есть некто, выбирающий единственную задачу и использующий все доступные техники, пока не решит её.

Люди в целом являются Гвоздями, фиксирующиеся на одной конкретной проблеме и применяющие все свои приемы на ней. Гвоздь приобретает мастерство в решении задач медленно и усердно, но может не суметь распознать мощь и уровень применимости своих инструментов.

Иногда лучше быть Молотком. Полученный добрый совет всегда является молотком: некий организующий принцип, который работает во многих отраслях. Чтобы получить максимальный выхлоп с одного молотка, не прекращайте использовать его после решения текущей задачи. Используйте его везде. Идеи не изнашиваются от частого применения.

Независимо от того, кем вы являетесь в данный момент, будьте систематичны, поскольку выбор это плохо.

Всего лишь несколько трюков

Мне приходит на ум ставшая классической речь математика Джан-Карло Рота. Его пятый тезис - будьте Молотком (выделено мной):

Долгое время назад пожилой и хорошо известный специалист в области теории чисел сделал несколько пренебрежительных замечаний о работе Пала Эрдёша. Вы восхищаетесь вкладом в математику столь же сильно, как и я, а я был возмущен, когда математик сухо и четко заявил, что вся работа Эрдёша может быть сведена к нескольким трюкам, которые Эрдёш постоянно использовал в своих доказательствах. Чего наш специалист не осознал, так это использование математиками, даже самыми лучшими из них, небольшого количества хитростей раз за разом. Например, Гильберт. Второй том собрания сочинений Гильберта содержит его работы по теории инвариантов. Я удосужился тщательно прочитать некоторые его работы. Печально заметить, что некоторые из прекрасных решений Гильберта были полностью забыты. Но при чтении доказательств удивительно глубоких теорем Гильберта в теории инвариантов, можно с поражением убедиться, что в своих доказательствах он опирался на несколько трюков. Даже у Гильберта было всего лишь несколько трюков.

Лучшие математики всех времен создали огромные массивы своих работ через применение лишь одной прекрасной техники к каждой задаче, которую могли найти. Моя любимая книга по математике это «Вероятностный метод» за авторством Алона и Спенсера. Никогда не устану поражаться, что один и тот же метод применяется к:

  1. Теореме Эрдёша-Каца. Число разных простых множителей случайного целого числа между 1 и n ведет себя как нормальное распределение со средним и дисперсией log log n.

  2. Задаче треугольника Хейлбронна (Heilbronn triangle problem). Каков максимум Δ(n), для которого существует n точек в единичном квадрате, никакие три из которых не формируют треугольник с площадью меньше чем Δ(n)?

  3. Переходу фаз Эрдёша-Реньи.

Занимательно отметить, что в той же самой речи, Рота изложил преимущества Гвоздей двумя тезисами ниже:

Ричард Фейнман любил давать совет, как стать гением. Нужно постоянно держать в уме дюжину своих любимых задач, несмотря на то, что по большому счёту они будут находиться в «спящем» состоянии. Каждый раз, когда вы услышите или прочтёте о какой-то новой хитрости или приеме, испробуйте его на каждой из ваших любимых двенадцати задач и посмотрите, что сработает. Время от времени что-то будет получаться, а люди вокруг станут говорить: «Как он это сделал? Он наверняка гений!»

Оба состояния разума необходимы.

Быть Гвоздём значит изучать единственную задачу с каждого боку. Часто бывает, что каждая техника проливает свет на одну сторону задачи и обойдя проблему по кругу через применение множества молотков, можно глубоко в ней разобраться. Причем эффект сохраняется и после решения задачи - какие-то откровения можно получить, применяя иные методы и получая более удовлетворяющие способы доказательства.

Обычно даже провал отдельных техник проливает свет на степень сложности задачи. Классическим примером такого отрезвляющего провала является систематическая ошибка счёта (ровно на два порядка) простых чисел, используя методы сита. Этот провал настолько серьёзен и неисправим, что получил собственное имя: задача соотношения (Parity Problem).

В то же время, быть Молотком значит изучать единственную технику с каждой возможной точки зрения. В случае вероятностного метода, обширность применения была мгновенно обнаружена при систематическом изучении равномерных случайных построений. Однако, отдельные адепты Молотка вроде Эрдёша превратили этот базовый метод в супероружие через кропотливое применение ко все более и более сложным задачам. Вариации вероятностного метода такие как локальная лемма Ловаса, лемма энтропии Ширера и неравенство Азумы-Хёфдинга являются теперь каноническими благодаря настойчивости Молотков.

Будь систематичен

Идея не в том, что Молотки лучше, чем Гвозди. Идея в том, что существует время и место и для Молотков, и для Гвоздей, а в частности сочетание обоих состояний сознания гораздо лучше, чем слепое блуждание по методам, характеризующее запутавшихся новичков. Существует бесконечное количество советов в Интернете, иногда даже хороших советов, но всё же каждому человеку приходится организовывать свою жизнь вокруг систематического применения нескольких трюков или решения небольшого количества задач.

Принять идею всерьез трудно и дорого. Потребуется снести конкурирующие конструкции в сознании и создать новый дворец для новой идеи. Придётся её тестировать в поле снова и снова, не скатываясь при этом в суеверия.

Станьте Молотком, примите эту идею всерьез и заставьте её работать на себя и платить ренту. Черт, да ты же президент, ты император, ты король. Нет никого старше тебя в твоей голове! Заставь свои идеи работать.

Упражнение для читателя: все вещи имеют привычное применение. Придумайте десять непривычных способов применения вашей любимой техники рациональности (бонусные очки за демонстрацию намерения убивать)

Перевод: 
sepremento
Аудио: 

Молотки и гвозди

Аудиофайл: 
Чтец: 
Даниил Храмцов
Оцените качество перевода: 
Средняя оценка: 4.5 (14 votes)

Время молотков, день 1: Охота за багами

alkjash

Рациональность это систематическое выигрывание.

В молотках и гвоздях я предложил рационалистам быть более систематичными в своём искусстве. В этом посте я буду использовать слово молоток для отдельно взятой техники, тщательно отработанной и широко применяемой.

Время молотков это 30-дневная цепочка по инструментальной рациональности, которую я составляю для себя, чтобы получить навык работы с техниками. Её задача превратить рационалистов в систематических рационалистов. К концу этой цепочки я надеюсь проапгрейдить каждый молоток от Бронзовой Дубины до Вострой Драконьей Кувалды. Я приглашаю вас присоединиться ко мне на этом пути.

Основная концепция цепочки: один день - один молоток.

Время молотков, расписание

Мы будем практиковать десять молотков на протяжении 30 дней. Каждое упражнение масштабируется от получаса до целого дня. Молотки будут нагло украденными техниками CFAR:

  1. Охота за багами
  2. Циклы разрешения проблем (Resolve Cycles)
  3. ПТД - планирование триггеров-действий (TAPs - Trigger-action planning)
  4. Дизайн
  5. Расширение зоны комфорта
  6. Мантры
  7. Факторизация целей
  8. Фокусирование 1
  9. Внутренний корень разногласия 2
  10. Планирование 3

Будет три цикла по 10 дней каждый, каждая техника будет использоваться по три раза. Первый цикл покроет базовые моменты и удалит баги на повседневном уровне. Второй цикл закрепит технику, вовлекая вариации и обобщения, позволит решить более сложные задачи. Третий цикл будет нацелен на создание гибких составных действий из нескольких центральных техник.

День 1: Охота за багами

Баг это что угодно в жизни, требующее улучшения. Даже если что-то идёт хорошо, но возможно вообразить лучше, то в этом существует баг.

В первый день сезона молотков, мы прочешем свою жизнь мелким гребнем и найдём как можно больше багов. Достаточно полный список багов предоставит исходный материал, на котором мы будем практиковать каждую следующую технику рациональности. Для первого цикла охоты на баги ищите маленькие и строго конкретные проблемы. Полное упражнение должно занять чуть больше часа.

Предупреждение: сосредоточьтесь на обнаружении багов, а не на их решении. Если можно закрыть баг незамедлительно, сделайте это. В противном случае, воздержитесь от предложения решений. Выписывание бага на лист бумаги не означает, что вы тут же обязались сделать с ним что-либо.

Подготовка

Подготовьте блокнот, приложение в телефоне, таблицу в Google Docs для записи багов, предпочтительно что-то, что можно таскать с собой в течение дня. Мы будем обращаться к этому списку в ближайшие дни.

Во время охоты на баги потратьте следующие 30 минут выписывая их как можно больше. Следуя каждому из шести наборов подсказок в следующей секции, поставьте таймер на 5 минут и зафиксируйте их.

Подсказки

А. Осознанное прохождение.

Пройдите мысленно через все ваши повседневные дела в поисках моментов для улучшения. Вы просыпаетесь вовремя? Есть ли у вас утренние регулярные процедуры? Тратите ли вы мыслительные усилия, пытаясь каждый день разобраться, стоит ли завтракать или что именно съесть? Пользуетесь ли вы наиболее эффективным способом добраться до работы и максимально ли используете время в дороге?

Перематываем на место работы или учебы. Есть ли физический дискомфорт? Недостает ли вам инструментов? Есть ли люди, которые вас беспокоят или с которыми вы недостаточно общаетесь? Просите ли вы помощи, когда нуждаетесь в ней? Знаете ли вы, когда замолчать? Есть ли непродуктивное время во время встреч или занятий? Заботитесь ли вы о себе в течение дня?

Теперь вечер дома. Тратите ли вы время на выяснение, чем поужинать? Есть ли хобби, которые вы давно хотели попробовать? Есть ли дела, о которых вы знаете, что они интересны или полезны, но вы их почему-то не делаете? Есть ли постоянный прогресс в ваших побочных проектах? Ложитесь ли спать вовремя? Какое у вас качество сна?

Б. Хобби, привычки и навыки

Оцените дела, которые вы ведёте на регулярной основе. Есть ли привычки, от которых вы хотите избавиться? Есть ли привычки, которые вы хотите приобрести, но никак не соберетесь?

Для каждого хобби или привычки ответьте на следующие вопросы. Достаточно ли вы этим занимаетесь? Может быть, слишком много? Можно ли как-то улучшить ваш опыт? Можно ли делать это в другом месте или в другое время? Может быть с какими-то другими людьми? Может быть в одиночестве?

Возможно, вы хотите практиковать какие-то навыки. Вы достаточно хороши, как хотели бы быть? Регулярно ли вы занимаетесь? Есть ли перетренированность? Вышли ли вы на плато? Есть ли какие-то препятствия, мешающие попробовать новое? Есть ли направления, которых вы ещё не пробовали, которые могли бы косвенно улучшить ваши возможности?

В. Пространство

Посмотрите вокруг себя, на ваше жилье, рабочее место, внутреннее пространство вашего автомобиля. Что бы вы поменяли?

Пространство должно быть функциональным. Есть ли мусор, который приходится каждый день обходить? Ваши столы и стулья правильной высоты? Кровать удобная? Есть ли какие-то полотенца, тарелки, блокноты, бумаги, которые не на своём месте и раздражают вас? Какие-то важные вещи, которые должны занимать центральное место? Есть ли у вас места для очков, кошелька и телефона?

Пространство должно быть эстетически приятным. Может быть куски мебели или оборудования неприятно выпирают? Может быть стены кажутся блеклыми или угнетающими? Может быть какие-то потеки или пыль постоянно попадаются на глаза и понижают настроение? Может быть вы устали от картины на стене?

Пространство на экране монитора может быть столь же важным, как и физическое пространство. Достаточно ли у вас экранного места? Повторяющиеся механические процедуры запуска и выключения, которые могут быть автоматизированы? Используете ли вы расширения для браузера и сочетания клавиш? Может быть какой-то голос в глубине души шепчет вам, что пора изучить vim?

Г. Время и внимание

Люди и предметы требуют вашего внимания. Чего не хватает в вашей жизни, чтобы жить как можно более агентно?

Множество видов деятельности являются бездонными поглотителями времени. Смотрите ли вы передачи или играете в какие-то игры, которые не приносят вам больше удовольствия? Может быть, вас постоянно вовлекают в бессмысленные разговоры? Обнаруживаете ли вы себя, прокручивающим колесико мышки вдоль бесконечных лент Facebook или Reddit? Может быть есть занятия, встречи, маршруты движения или проекты, которые превращают вас в зомби до конца дня? Подготавливаете ли вы заранее «точки катапультирования», которые уберегут вас от поглотителей времени?

Сосредоточьтесь на вещах, которым вы не уделяете достаточного внимания. Совершаете ли вы ошибки на автопилоте? Есть ли друзья или члены семьи, которыми вы пренебрегаете или неконтролируемо дистанцировались? Есть ли обсуждения, в которых вы не участвуете, которые могли бы принести вам пользу? Есть детская мечта, о которой вы забыли?

Иногда банальные отвлечения могут приводить к чудовищным провалам. Существуют ли незначительные, но постоянные виды физического дискомфорта, которые высасывают из вас агентность? Может быть температура на улице мешает вам заниматься спортом? Может быть какая-то блестящая безделушка всегда отвлекает вас от работы?

Д. Слепые зоны

Наши самые важные баги могут скрываться в наших когнитивных слепых зонах.

Посмотрите на свою жизнь со стороны. Вы достаточно офигенный? Каковы ваши самые большие слабости? Если какая-то одна вещь удерживает вас от достижения ваших целей, то что это? Есть ли невыразимые привязанности к разным аспектам вашей идентичности? Может быть вы систематически пере- или недооцениваете свои способности?

Смоделируйте своего лучшего друга в своей голове. Что он скажет о вас, что может вас удивить? Какое ваше поведение раздражает его? Какое ваше поведение его восхищает? Может быть он постоянно дает вам какой-то совет, а вы ему не следуете?

Призовите своего Дамблдора. Что он вам скажет? К какой глубокой мудрости вы слепы? Если вы главный герой своей жизни, то какого жанра произведение?

Обратитесь к зависти и восхищению за прозрением. Являетесь вы личностью, которой вы больше всего восхищаетесь? Какие желаемые вами навыки и качества есть у других людей?

Е. Страхи и волнение

Тени, от которых мы шарахаемся, могут скрывать самые привлекательные сокровища.

Каковы ваши самые большие страхи и тревоги? Есть ли у вас сила быть уязвимым? Есть ли какие-то действия, которые нужно загодя сделать, чтобы обезопасить себя? Есть ли истины, которые вы боитесь произнести вслух? О чем вы себе лжете?

Посмотрите на свой круг общения. Есть ли в нём хорошие люди, от которых вы прячетесь? Есть ли темы для обсуждения, которые заставляют вас закрыться? Есть ли слова, которые могут заставить вас потерять душевное равновесие?

Обратитесь как можно дальше в прошлое и будущее. Какие дедлайны заставляют вас отвести глаза? Может быть есть какой-то тип личности, которым вы боитесь стать? Или вы больше всего боитесь стагнации? Доверяете ли вы себе прошлому и себе будущему?

Сортировка

Надеюсь, что вам удалось составить список из хотя бы 100 багов; у меня набралось 142. Теперь время для небольшой уборки. Впишите этот список в таблицу, разместите и сопоставьте похожие баги. Используя систему 1 назначьте уровни сложности от 1 до 10, где 1 это «я могу решить эту задачу прямо сейчас», а 10 это «одна мысль об этой проблеме приводит меня в экзистенциальный ужас». Отсортируйте баги по возрастанию уровня сложности.

В ближайшие дни мы систематически пройдем вдоль списка, забивая как можно больше гвоздей каждым молотком.

Челлендж дня

Чтобы помочь другим с мозговым штурмом, поделитесь самой необычной историей исправления бага. Я начну:

Мышцы на левой половине моего лица более активны, что заставляло меня асимметрично улыбаться большую часть моей жизни. Следовательно, моя обычная улыбка была недалека от снисходительной усмешки и заставляла меня чувствовать пренебрежение ко всем, кому я улыбался. Я натренировался улыбаться обеими сторонами лица и теперь чувствую больше теплоты по отношению к людям.

  • 1. Судя по всему, планы автора в процессе поменялись и темой восьмого дня оказалась «Вера в невозвратные издержки». — Прим.перев.
  • 2. Темой девятого дня реально оказалась «Калибровка». — Прим.перев.
  • 3. Темой десятого дня реально оказалось «Мёрфиджитсу». — Прим.перев.
Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 5 (11 votes)

Время молотков, день 2: Йода-таймер

alkjash

Нет! Не пытайся! Делай или не делай. Но не пытайся.
Йода

В моей голове есть копия Барни Стинсона, которая появляется с фразой «Challenge Accepted!». Когда Элиезер писал о самых больших ошибках в цепочках, мой внутренний Барни скакал до потолка. Время молотков это цепочка, созданная для исправления трёх самых важных ошибок через:

  1. Создание программы для практики рациональности.
  2. Упор на улучшение в повседневной жизни.
  3. Фокус на рациональном действии, а не рациональных убеждениях.

Это будет леген… подожди-подожди… дарно!

День 2. Йода-таймер

Ты просто не понимаешь человеческую натуру. Люди не будут стараться даже пять минут перед тем, как сдаться, пусть даже на кону будет судьба всего человечества.
Используй вторую попытку, Люк

Йода-таймер (CFAR называет его зачем-то Resolve Cycle или цикл решения) состоит из трёх простых шагов:

  1. Выбери баг.
  2. Поставь таймер на 5 минут.
  3. Исправь баг.

Мотивация

Перед тем, как мы начнем, я хотел бы обратить ваше внимание на два способа получить максимум от Йода-таймеров.

Удар в один дюйм

Выберите действие, которое вы боитесь сделать. Допустим, я скажу вам: «Попытайтесь!». Попытайтесь так сильно, как сможете. Что вы чувствуете?

Теперь представьте, что я скажу вам: «Сделай это!». Встань и сделай. Что ощущаете теперь?

Для меня попытка ощущается как давление через моё собственное сопротивление. Делание ощущается как давление против реальности. Йода-таймер создан специально, чтобы научить (или напомнить), как ощущается движение через сопротивление реальности.

Брюс Ли был знаменит своим ударом в один дюйм, который обладал взрывной силой потому, что каждая мышца в его теле работала на этот удар:

Удар в один дюйм это навык, который использует фа цин (взрывная сила) для создания огромных количеств ударной силы на очень коротких расстояниях. Этот «взрывной» эффект был распространен в формах ней дзя. Выполняя этот удар в один дюйм, практикующий обычно стоит очень близко к цели (расстояние зависит от навыка практикующего, обычно между 0 и 6 дюймами или 0 и 15 сантиметрами). Множество брюшных мышц вкладываются в удар абсолютно незаметно для нападающего. Частым недопониманием является использование взмаха кистью для удара. Цель при демонстрации варьируется, иногда это партнер, держащий телефонную книгу у груди, иногда разбиваются деревянные бруски.

Когда вы находитесь в режиме делания вместо режима попытки, все внутренние конфликты отпадают и можно практиковать удар по реальности всем своим существом. Представьте, как далеко можно зайти, если каждое ваше движение несёт всю силу вашей сущности.

Нестандартное мышление

Очень легко начать мыслить шаблонами, обрести туннельное зрение и застыть, когда у вас всего пять минут. Однако, чтобы получить максимальный эффект от Йода-таймера, нужно мыслить более творчески, а не менее. Если бы вам пришлось исправить баг в течение пяти минут, чтобы спасти мир, какие правила вы могли бы нарушить?

Чтобы дать вам подсказку, вот несколько классических подходов. Сколько денег потребуется, чтобы проблема исчезла? Кому можно позвонить или написать? Какую награду, наказание или обещание нужно дать в течение пяти минут, чтобы гарантировать, что задача будет решена? Какой иной курс действий приведёт к похожему результату?

Разрешение на попытку

Если существует нечто, что можно сделать за пять минут, чтобы улучшить вашу жизнь, я, как дружественное человеческое создание, даю вам разрешение на попытку.

Пять за пять

Выберите пять самых легких багов из вчерашнего списка.

ПРЕДУПРЕЖДЕНИЕ: Существует только одна причина, чтобы пропустить баг - если вы не уверены, что действительно хотите его исправить. В дальнейшем мы будем практиковать техники разрешения внутренних конфликтов. Сложность не является веской причиной, чтобы пропустить баг.

Для каждого случая поставьте Йода-таймер на пять минут и исправьте его. Вот и всё. Просто сделайте это.

Можно представить, что Йода наблюдает за вами. И Йоде наплевать, насколько сильно вы пытаетесь.

Челлендж дня

Поделитесь наиболее успешными исправлениями багов при помощи Йода-таймеров.

Вот семь вещей, которые я сделал за последние пару дней, используя Йода-таймеры:

  1. Передвинул мебель и разобрал хлам, чтобы удвоить эффективное пространство на полу.
  2. Натренировался класть очки в одном конкретном месте квартиры, всегда знаю, где они.
  3. Практиковал сочетания клавиш для архивации электронной почты и управления вкладками в Chrome
  4. Отослал все письма и сообщения, которые планировал (и уже мог) отправить на следующей неделе.
  5. Заказал на Amazon машинку, производящую белый шум и открыл жалюзи, чтобы пускать в комнату свет утром и оптимизировать график сна.
  6. Начал держать в кармане ручку, чтобы я мог ею занять руки вместо прикосновений к лицу.
  7. Запланировал и набросал черновики для следующих постов.
Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 4.6 (5 votes)

Время молотков, день 3: ПТД

alkjash

Тема, проходящая красной нитью через время молотков, особенно в ближайшие два дня, это намеренность или осознанность. Инструментальная рациональность придумана для внедрения намеренности во все аспекты жизни. Рассмотрим, как 10 техник решают головоломку намеренности:

  1. Обнаружение у себя большего количества намерений (охота за багами, выход из зоны комфорта, ПТД)
  2. Разрешение внутреннего конфликта относительно своих намерений (факторизация целей, фокусирование, внутренний корень разногласия)
  3. Превращение намерений в действия (Йода-таймер, ПТД, планирование)
  4. Внедрение намерений в систему 1, чтобы делать то, что вознамерился, даже не обращая на это внимание (ПТД, дизайн, мантры)
  5. Внедрение намерений в реальность, чтобы сама жизнь подталкивала к целям, а не от них.

План триггеров и действий (ПТД) это утверждения «если-то» для мозга. Создание одного правильного ПТД превратит единственное намерение в повторяемое действие.

День 3: ПТД

Дополнительный материал: делаем намерения конкретными - планирование триггеров и действий.

Базовые понятия о ПТД:

ПТД это микропривычки. Вот как это работает:

  1. Выберите баг. И вновь, пропускаем баги, относительно которых у вас есть конфликт.
  2. Определите триггер. Идеальный триггер конкретный и основан на ощущениях, например «когда я почувствую струю воды на моем лице в душе» или «когда я коснусь кнопки лифта».
  3. Решите, какое действие должно произойти после триггера. Подберите минимально мыслимое действие, которое всё ещё будет восприниматься вами как прогресс в направлении исправления бага. То есть «посмотреть в сторону лестницы» сработает лучше чем «подняться по лестнице», а «сесть в кровати» сработает лучше чем «заставить себя встать с кровати».
  4. Отработайте причинно-следственную связь. Обратитесь к выбранному триггеру и выполните ПТД десять раз. Если в данный момент триггер недоступен, визуализируйте его. Сосредоточьтесь на распознании и запоминании чувств, которые позволят в дальнейшем заметить триггер.
  5. Проверьте свой ПТД через неделю. Выпишите ПТД на бумагу, если намерены его внедрять и проверьте через неделю, что он работает. ПТД требуют подгонки и тонкой настройки.

Заклинание осознания (The Sapiens Spell)

Множество багов жизни можно исправить, если просто обращать на них внимание. Самый важный ПТД, который можно внедрить, это мета-ПТД или Заклинание осознания, которое будет вас периодически будить и заставлять обращать внимание на происходящее вокруг.

Как освоить заклинание осознания:

Важнее всего найти правильный триггер. Отнеситесь к этому шагу с тем же вниманием, с каким волшебник выбирает себе палочку.

Триггер должен быть конкретным и присутствовать в вашей жизни. В идеале какой-то носимый предмет, имеющий для вас значение: кольцо, часы, татуировка, родимое пятно, какой-то особый жест, который вы постоянно делаете. Если такого нет, можно воспользоваться картинкой или безделушкой на рабочем столе. Не торопитесь, выберите для себя нечто значимое.

Выбрав триггер, выбирайте действие. Действие должно быть волевым усилием в категории «уделить внимание», но при этом персонализированным, например: сделать вдох и выдох, подумать о своих целях, ощущить своё присутствие здесь и сейчас, собраться.

Теперь, поставьте Йода-таймер на 5 минут и отработайте заклинание осознания через все пять шагов, описанных выше. Вернитесь к повседневным делам, заметьте свой триггер, повторите выбранное действие. Сделайте так десять раз. Визуализируйте разные ситуации, где заклинание осознания вам могло бы помочь. Потом позвольте своему вниманию отвлечься на посторонние вещи и затем верните себя к осознанности через заклинание.

Для себя я выбрал триггером родинку на внутренней части большого пальца правой руки. После некоторого разглядывания с вниманием и намеренностью, я осознал, что ощущаю её физическое присутствие, не глядя на неё. Рассчитываю, что это даст мне постоянное ощущение осознания в будущем.

Один конкретный ПТД

Если у вас уже работает какая-то привычка, то вы уже осуществляете ПТД. Сегодня мы будем строить одну конкретную микропривычку при помощи ПТД.

Выберите самый легкий баг в вашем списке, который может быть исправлен при помощи регулярного воздействия. Например, я выбрал «забываю вещи, когда покидаю дом».

Поставьте Йода-таймер на 5 минут, чтобы придумать и внедрить ПТД для исправления этого бага, используя чеклист из первой части статьи.

Напоминания:

  1. Лучше выбрать естественный ПТД, на который вы уже обращаете внимание. Например, я отчетливо замечаю границы и пороги. Триггер, который я выбрал звучал так: «как только я перехожу порог своей квартиры». Другой пример также слишком хорош, чтобы не упомянуть: я часто посещаю ресторанчик на кампусе под названием The Axe & Palm (TAP = ПТД). Каждый раз, когда я туда захожу, вспоминаю о ПТД, которые внедряю.
  2. Будьте реалистом и выбирайте маленькие шаги в качестве действий. Сложные привычки должны выстраиваться из большого числа ПТД. Если ваш нынешний ПТД «после чистки зубов я иду на пробежку», сделайте его «после чистки зубов я иду на прогулку», или «после чистки зубов я выхожу на улицу», или даже «после чистки зубов я посмотрю на дверь».
  3. Продолжайте отрабатывать ПТД до тех пор, пока 5 минут не закончатся. Йода таймеры хорошо напоминают о том, как быстро обычно человек сдается.

Продолжайте выстраивать по одному ПТД в день на протяжении всего курса «время молотка». Если идеи закончатся, попытайтесь расширять уже существующие ПТД до более длинных последовательностей действий, по одному шагу за раз. Скоро у вас будут заготовленные шаблоны для разных ситуаций. Мы вернемся к ПТД на тринадцатый день.

Челлендж дня

Если вы не против, поделитесь своим заклинанием осознанности.

Перевод: 
sepremento
Аудио: 
Оцените качество перевода: 
Средняя оценка: 4.8 (8 votes)

Время молотков, день 4: Дизайн

alkjash

Центральная тема времени молотков - первичное взаимодействие рационалистов с реальностью. Мы делаем попытки в течение хотя бы 5 минут. Мы выстраиваем привычки для исправления багов. Мы высовываем головы из песка и просим у реальности дать нам обратную связь. И только проявив должную старательность и получив свои оплеухи от мира, мы возвращаемся к интроспекции.

Именно поэтому первые пять техник «времени молотков» нацелены на непосредственное решение задач. Только после взаимодействия с действительностью и серьезных попыток что-то изменить мы обращаемся внутрь, чтобы подумать, задаться вопросами о своих мотивах, понять наши ощущения и построить долгосрочные планы.

Дизайн является наиболее тонким подходом к прямому решению задач. Речь идёт о долгосрочном искажении физической реальности вокруг себя для движения по направлению к своим целям, вместо того, чтобы идти от них.

День 4: Дизайн

Дизайн (иногда называемый систематизацией в CFAR) это феншуй рационалиста. Его основные задачи таковы:

  1. Внедрить свои намерения в физическое пространство, в котором вы живете и работаете.
  2. Освободить внимание от ненужных и повторяющихся отвлечений.

Принципы дизайна работают в разных областях: в определении последовательностей рутинных действий, в оформлении социального окружения, в организации пространства на экране монитора. В нашем первом цикле «времени молотков» мы сосредоточимся на дизайне физического пространства для получения немедленных улучшений.

Вот три ключевых принципа дизайна, согласно вашему покорному слуге:

Намеренность

Первая скупая мужская слеза в CFAR скатилась по моей щеке в виде реакции на речь Валентайна на лекции по дизайну о тонком влиянии Молоха, вкрадывающемся в пространство вокруг нас:

Тумбочка возле входной двери притягивает горы мусора, подобно гравитационному колодцу.

Платяные шкафы прячут от нас спортивную одежду, а вместе с ней и наши благие намерения.

Беспорядок, который заставляет нас бродить туда-сюда в поисках очков, часов, ключей или телефона по утрам.

Слуги Молоха появляются везде, где не хватает нашего внимания.

Поэтому первый принцип дизайна это намеренность: вещи находятся там, где вы намереваетесь их разместить. Посмотрите вокруг или на свой стол. Всё должно иметь предназначение. Предназначение может быть функциональным, но также могут быть эстетические или сентиментальные причины. Вы можете намеренно расположить вещи удобным для использования образом. Вы можете намеренно расположить вещи, чтобы стало красиво. Также вы можете намеренно оставить беспорядок, поскольку вы надеетесь открыть новый пенициллин. Независимо от того, как в итоге расположатся вещи, они должны быть расположены так потому, что у вас было соответствующее намерение.

Амортизация

Второй принцип дизайна - амортизация: потратьте время и ресурсы сейчас, чтобы сберечь внимание в долгосрочной перспективе. Амортизация имеет непосредственное отношение к намеренному размещению часто используемых предметов. Вот несколько примеров, иллюстрирующих этот принцип:

В течение дня я отмечал упущенное внимание моей жизни. Во-первых, я обнаружил, что постоянно ищу свои очки. Каждый раз после пробуждения, после возвращения с пробежки, выходя из душа, я трачу минуту-другую на поиск. Проблема плохого зрения в невозможности увидеть искомый предмет, пока он не окажется прямо перед носом. Наличие у моей жены очков с толстыми, бросающимися в глаза, дужками, усугубляло ситуацию.

Чтобы решить эту проблему, я выбрал место Шеллинга (Schelling place), если можно так выразиться, куда теперь помещаю футляр для очков. Затем отрепетировал ПТД в виде снятия очков с лица и помещения их в футляр. Через четыре дня это действие стало привычным.

Ещё несколько других изменений следуют тому же принципу: положить ключи и бумажник в коробку у входной двери. Повесить шорты для пробежки на легкодоступный крючок на стене (вам потребуется много таких). Перемещение овсянки поближе к плите. Размещение пылесоса рядом с розеткой.

Рефлексивная теория полотенца

Теория полотенца это взятое из книги «Автостопом по Галактике» расширение фундаментальной ошибки атрибуции, которая гласит, что люди определяют, что вы за человек по внешним сигналам.

Полотенце есть почти самый полезный мыслимый предмет, доступный к обладанию любому межзвездному путешественнику автостопом. Частично из-за его огромной практической ценности. […]

Но что более важно, у полотенца есть великая психологическая ценность. По какой-то причине, если страг (страг: человек, не путешествующий автостопом) узнает, что у путешественника есть с собой полотенце, то он сразу предполагает, что у него также есть зубная щётка, половая тряпка, мыло, упаковка печенья, фляжка, компас, карта, моток бечёвки, средство от насекомых, дождевик, скафандр и так далее. Более того, страг с радостью поделиться любым из десятков предметов, которые путешественник мог случайно «потерять». Страг будет думать, что с человеком, избороздившим просторы Галактики вдоль и поперек, познавшим горе и радость, выжившим во всех передрягах и всё ещё имеющим представление, где находится его полотенце, точно нужно считаться.

Отсюда фраза, которая закрепилась в сленге путешествующих автостопом: «эй, сечешь чувачка Форда Префекта? Этот братюня знает, где его полотенце»

Третий принцип дизайна есть рефлексивная теория полотенца: мы применяем теорию полотенца к самим себе. Посмотрите на пространство вокруг вас. Оно что-то говорит о вас самих. Пустая стена назовёт вас минималистом. Двухэтажная стойка для обуви напомнит, что вы поверхностный. Незаправленная кровать и неубранные кучи грязного белья, почты и грязных тарелок скажут вам, что вы не тот человек, что заслуживает ухода за собой.

Обратите внимание на то, что говорит о вас ваше пространство, и не другим людям, а вам самим. Подумайте, те ли это сообщения, что вы хотите слышать. Может быть вам захочется повесить «Композицию 8» Кандинского на замену старого постера из «Тетради Смерти». Может быть вы захотите стать тем типом человека, который заправляет свою кровать. Какие бы сообщения ваше окружение вам не посылало, убедитесь, что это те сообщения, которые вы хотите получать.

Время дизайна

Сегодняшнее упражнение займёт 10 минут. Определите физическое пространство, которое вы собираетесь редизайнить: что угодно от одной комнаты до всего дома. Возьмите ручку и бумагу.

Шаг 1. Поставьте Йода-таймер. Пройдитесь по местности и запишите все вещи, которые вы хотели бы изменить. Есть видимая захламленность, которую надо разобрать? Есть ли неприятно пустующее место? Мебель расставлена удобным образом? Существует ли способ лучше разместить объекты, дабы экономить время? Каких объектов - техники, мебели, украшений - не хватает?

Шаг 2. Поставьте ещё один Йода-таймер. Выполните как можно больше пунктов своего списка за это время. Подвигайте мебель на нужные места. Закажите организационные мелочи с Amazon. Разберите мусор и хлам.

Челлендж дня.

Исправьте как можно больше багов в своем списке передвигая физические объекты. Каким был самый трудный баг, разрешенный таким способом?

Перевод: 
sepremento
Аудио: 
Оцените качество перевода: 
Средняя оценка: 5 (3 votes)

Время молотков, день 5: Расширение зоны комфорта

alkjash

Будет лицемерием писать пост о расширении зоны комфорта в своей обычной манере. Вместо этого, я объясню, почему песня Disney How Far I’ll Go (Что меня ждёт) является триумфальным призывом к исследованию и оставлю небольшое упражнение по РаЗоК, которое вы сможете видоизменить, держа в голове принципы, изложенные Моаной.

Введение

Расширение зоны комфорта (иронично сокращаемой в английском CoZe) это CFAR модификация психологической экспозиции, созданной для осторожного испытания новых вещей. Когда я впервые услышал о РаЗоК, то в первую очередь подумал о чем-то вроде «пробегись голым по переполненному Старбаксу, прося у незнакомых людей раскрасить тебе ягодицы пальцем с краской». И хотя в таком упражнении может быть своя польза, РаЗоК точно не про это. Первый шаг в РаЗоК это всего-навсего попробовать вещи, о которых вы не задумывались, несмотря на отсутствие к ним сопротивления.

Позвольте привлечь ваше внимание к некоторым метафорам в разговоре о зонах комфорта.

Хаос и порядок

Одним из способов визуализировать свою зону комфорта является проведение линии между Порядком и Хаосом.

Порядок есть нечто известное. Порядок это ваш круг общения, интерьер вашего дома, улицы, по которым вы регулярно гуляете. Порядок это языки программирования, с которыми вы знакомы, виды спорта, которыми вы занимаетесь, языки, на которых вы говорите. Порядок есть правила, которым вы следуете. Порядок есть ваша зона комфорта.

Хаос есть нечто неизвестное - или ещё хуже, неизвестное неизвестное. Хаос это уставиться на мгновение в глаза незнакомцу. Хаос это резкое ощущение, которое возникает, стоит вам отойти от привычного маршрута на один квартал. Хаос это ощущение, что мир уходит из-под ног, когда вы портите свой код, когда вы обнаруживаете, что вам лгали, когда понимаете, что совершаете прямо сейчас большую ошибку. Хаос есть аморфная тень, которая распространяется повсюду, заполняя каждый кусочек пространства, на который вы не обращали внимания.

Ян и Инь есть Порядок и Хаос и фигура Инь-Ян это даосское напоминание о правильном Пути сквозь жизнь, что проходит извивающейся линией меж Порядком и Хаосом.

В качестве более близкой CS-метафоры. Представьте, что Порядок это использование хорошо понимаемых стратегий, а Хаос это исследование новых стратегий. Молох это цивилизационная катастрофа, что случается, когда все и каждый решают эксплуатировать текущее положение вещей, оставшись в своих зонах комфорта. За исключением очень маленьких детей, люди категорически исследуют слишком мало и стагнируют в локальном оптимуме.

Структура популярных песен

У Джордана Питерсона как-то с год назад был просвещающий диалог с композитором Сэмьюэлом Андреевым (транскрипция моя):

Андреев: Популярная песня это невыразимо сложная среда для работы, потому что, во-первых, она не прощает ошибок, ты работаешь в чрезвычайно сжатом формате, очень редко популярная песня длится дольше трех минут. Нет большого пространства для маневра. И совершенно точно нет пространства для структурного маневра, то есть, почти обязательно придерживаться схемы куплет-припев-куплет-припев, в подавляющем большинстве популярных песен не было никакого разнообразия со времен появления рока, с пятидесятых.
Питерсон: Откуда это пошло? Я знаю, что длина в три минуты обусловлена коммерческими требованиями, если правильно помню. Но как появилась структура куплет-припев-куплет-припев?
Андреев: Ну, это чрезвычайно старая форма. Точно существуют структуры Барокко, очень похожие по сути. Есть один фиксированный элемент, который возвращается по сути раз за разом и добавочный элемент, который даёт некоторое ощущение облегчения и контрастирует с предшествующим.
Питерсон: То есть этакая игра порядка и хаоса, я бы так это описал.

Формат куплет-припев-куплет-припев в популярных песнях это вариация принципа исследуй-используй по мере того, как песня колеблется между порядком и хаосом. Припев это основной, фиксированный элемент порядка, который постоянно возвращается, чтобы затянуть слушателя на главную тему повествования. Промежуточные куплеты являются исследующими элементами, которые осуществляют быстрые забеги на территорию хаоса, предоставляя облегчения от монотонности припева.

Это объясняет, почему другие жанры музыки, менее общеупотребительные и более художественные, меньше заходят вкусам публики. Художник авангарда убежденный исследователь, постоянно забредающий далеко в земли хаоса. Без успокаивающего возврата в зону порядка, музыка вся превращается в хаос для непосвященных и трудной для усвоения.

Моана

Если вы ещё не, то послушайте разок песню «Что меня ждёт» (How Far Will I Go). Лично я предпочитаю версию Алессии Кары.

Снова слышу этот шёпот прибоя
Кто я?
Где моё сердце, знает лишь одна вода
Сто раз обещала им не спорить
Но влечёт вновь меня море
Как будто я его волна
Каждый новый шаг
Каждый поворот
Каждый след и знак
Вновь меня ведёт
В мир больших ветров
И бездонных вод
Я хочу уплыть
А в глазах каждый день
Океан бескрайний
Меня зовёт за горизонт
Вот бы парус поднять
В путь отправиться дальний
Он свет прольёт
На всё то, что там меня так долго ждёт
Течёт жизнь на острове беспечно
Вечно
Людям доставляя радости день ото дня
Знает каждый в чём его доля
Все играют свои роли
И может мне пойдёт моя
Стану я вождём
Поведу народ
Будем процветать мы из года в год
Только сердце мне про то поёт, что не так со мной
Вижу солнечный путь на волнах хрустальных
Он за собой меня ведёт
И я знаю, что он хочет мне открыть свои тайны
Ну так вперёд
Сделай первый шаг
Побори свой страх
А в глазах каждый день
Океан бескрайний меня зовёт за горизонт
Вот бы парус поднять
В путь отправиться дальний
Он свет прольёт
Что меня ждёт?

Являясь домом для глубоководных жителей и Лавкрафтовских ужасов, океан всегда был символом хаоса. Моана учит нас трем важным методам погружения в хаос, все из которых должны быть объединены для наилучшего эффекта.

Шёпот прибоя

Линия прибоя это линия между порядком и хаосом, постоянно смещающаяся вместе с волнами приливного цикла. Простейший метод РаЗоК - постоять у линии прибоя и погрузить пальцы в воду. Об этом сегодняшнее упражнение. У каждого есть граница, которая неизбежно прочерчивается без какого-либо понимания, почему. Прием заключается в обнаружении этой границы.

Каждый новый шаг, каждый поворот, каждый след и знак ведет нас к линии прибоя. Обнаружить её просто, нужно лишь вслушиваться в тихие, но пронзительные звуки сопротивления, которые заставляют вас оставаться на треке повседневной жизни. Прогулка, которую вы откладываете. Новый знакомый, которому вы почти помахали рукой, но не стали. Вопрос, который вы почти задали. Тема для обсуждения, застревающая у вас в горле буквально за секунду до того, как вы решитесь её озвучить. Клуб или мастер-класс, на который вы почти записались.

Жизнь постоянно подводит вас к линии прибоя, как бы вы не пытались от неё убежать. Вы смотрите на неё, сколько себя помните. Осталось её только заметить.

Горизонт

Глазеть на самую кромку между порядком и хаосом может быть полезно, чтобы обнаружить свои точки сопротивления, но вряд ли это годится для триумфального зова к действию. Моана напоминает посмотреть вверх, на горизонт. Небо это Райское Королевство и оно может быть достигнуто только, если вы отправитесь дальше от своей зоны комфорта, чем кто-либо когда-либо.

Существует набор метафор для успешных, интересных людей. Они кажутся наполненными до краев жизненным светом. Свет сияет сквозь них. Они ходят по светлым путям Бога. Второй метод РаЗоК - поднять свой взор, чтобы увидеть этот ослепляющий свет в вашем море, который определит вашу предельную мечту.

Посмотрите на людей, которыми вы восхищаетесь, которые сияют и искрятся внутренним светом. Создайте идеальное человеческое существо внутри сознания. Вы увидите, что недостающие качества находятся за пределами вашей зоны комфорта. Пусть эта мечта станет ветром, подгоняющим вас к открытому морю.

Жизнь на острове

Почему Моана единственная на острове, кто стремится в океан? Потому ли, что остальные слишком боятся своих сопротивлений или потому, что не видят света на горизонте?

По большому счёте, причиной желания Моаны покинуть остров является её нахождение на вершине иерархии. Она дочь вождя и ей предначертано вести за собой, к этому она готовилась с раннего детства. Вслушайтесь, когда она поёт «Стану я вождём, поведу народ, будем процветать мы из года в год». Нет ни единой ноты беспокойства или неуверенности. В отличие от всех остальных на острове, единственным направлением роста для Моаны является прыжок в хаос.

Это приводит к контр-интуитивному третьему методу РаЗоК: исследуйте границы своей зоны комфорта через обеспечение безопасности центра.

Укрепляйте и выстраивайте доверительные взаимоотношения. Изучайте и доводите до совершенства свое занятие. Используйте принципы Дизайна, чтобы создать себе святилище, в которое вы сможете вернуться. Поднимитесь на вершину своей нынешней иерархии. Как только центр окажется в безопасности, не останется ничего, что будет вас в нём держать. Ваш естество вернёт вас к открытому морю.

День 5: РаЗоК

Первый РаЗоК мы потратим полчаса на испытание новых вещей.

ПРЕДУПРЕЖДЕНИЕ: Не выбирайте действий, к которым у вас высокое сопротивление. Целью является стать человеком, который автоматически пробует новое, если оно ему не угрожает.

Шаг 1. Поставьте Йода-таймер на пять минут. Устройте мозговой штурм, выпишите как можно больше вещей, которых вы не пробовали. Они могут быть очень простыми, вроде послушать песни, исполненные на разных языках, прогуляться по ещё нехоженой улице, попытаться сделать стойку на руках у стены, крикнуть как можно громче, пробежать милю, попытаться провести разговор и ни разу не улыбнуться, написать хокку.

Шаг 2. Поставьте Йода-таймер на ДВАДЦАТЬ минут. Выполните как можно больше пунктов из вашего списка.

Челлендж дня

Поделитесь рассказом об обнаружении чего-либо прекрасного при исследовании территорий вне вашей зоны комфорта.

Перевод: 
sepremento
Аудио: 

Время молотков, день 5: Расширение зоны комфорта

Аудиофайл: 
Чтец: 
Даниил Храмцов
Оцените качество перевода: 
Средняя оценка: 4.4 (7 votes)

Время молотков, день 6: Мантры

alkjash

Хотелось бы обозначить границу между двумя естественными половинами цикла «время молотков» (быстрой, но интерактивной и медленной, но интроспективной) экспериментальным постом, созданным больше для размышлений, чем для действий.

Мотивация

Зерно этого поста было посеяно в моем разуме после обсуждения с Зви. Тогда он предложил мне прочитал книгу правил для игры Mage: The Ascension и воспринять её как можно более буквально. Одна механика работы магии в Mage, поразившая меня, называлась феномен Парадокса, которая (грубо говоря) заставляет магию совершать отдачу в присутствии Маглов.

Если выполняется неумело или вульгарно, или, особенно, если вульгарно и видимо для спящих, магия может вызвать Парадокс, феномен, в котором реальность пытается разрешить противоречия между консенсусом и усилиями мага. Парадокс сложно предсказать и он почти всегда плох для мага. Наиболее частыми последствиями парадокса являются прямое физическое повреждение тела мага и парадоксальные изъяны, эффекты, которые могут, например, сделать волосы мага зелеными или сделать его немым, лишить возможности покидать определенную местность, и так далее. В более экстремальных случаях, парадокс может вызвать Тишину (сумасшествие, которое истекает в реальность), Парадоксальных Духов (туманные, часто очень сильные создания, которые специально созданы разрешать противоречия, обычно через непосредственное наказание мага) или даже удаление мага в парадоксальную реальность, карманное измерение, из которого может быть трудно выйти.

Конечный результат не слишком отличается от довольно распространенного наблюдения, что необычные люди кажутся искажающими реальность вокруг них, но также с трудом передают это искажающее поле другим людям.

Мой набег в фантастический мир игры Mage заставил меня задуматься о других механиках магии более серьёзно. Среди бесконечного количества возможностей, которыми человеческий разум мог нарушать законы природы, лишь небольшое количество из них задержались надолго в общественном воображении. Вновь и вновь, писатели фэнтези возвращаются к заклинаниям: словам, которые оказывают влияние одним своим произнесением. Что такого психологически завораживающего в заклинаниях?

И если одно лишь произнесение может влиять на магию, чего можно достичь повторением слов силы на протяжении многих лет?

День 6: Мантры.

Эпистемический статус: тру стори.

Я был не очень общительным ребёнком, но даже в 11 лет, я знал, что с ней было что-то не так. Она стояла особняком, её волосы были слегка лохматыми и неухоженными, и она говорила с ритмичностью потерянной души. Её имя наверняка было каким-то вроде Эльфабы. Тогда я не мог определить, что именно было не так с девочкой. Только сейчас, более десяти лет спустя, могу я дать название её интенсивности: этой нераспространенной возможности, враждебной по отношению ко всем одиннадцатилетним, желающим быть принятыми в компании, воспринимать идеи серьёзно.

У меня был только один разговор с этой девочкой. Не помню, на каком это произошло занятии, возможно в каком-то дискуссионном классе на подготовке пьесы Шекспира, намного превосходящий наш уровень чтения. Когда наш учитель вышел за маркерами, примерно восемь учеников остались ёрзать вокруг стола, как это заведено у одиннадцатилетних.

Затем, как-то так получилось, что эта девочка слева от меня зафиксировала меня взглядом и произнесла:

Девочка: memento mori, memento vivere
Я: Что, прости?
Девочка: это означает: «Помни, что ты умрешь. Помни жить.»
[немая сцена]
Девочка: memento mori, memento vivere

Конечно, такое обсуждение было обрамлено другой болтовней. Возможно, я вызвал его своим подростковым нигилизмом. Возможно, мы подошли к этой фразе через обсуждение «быть или не быть» или «бедный Йорик!». Опять же, зная ту девочку, возможно, что и нет.

Я больше её не видел. Насколько мне известно, она полностью испарилась после шестого класса.

Memento mori, memento vivere

Не могу сказать, сколько лет эти слова преследовали меня. Могу сказать, впрочем, что в темноте бессчётных ночей школьных лет я подвергался пыткам тени своей смертности. Что в свете дня memento vivere взбалтывала в моём сердце неистовую энергию к сражению с несправедливостью существования. Что я повторял эти слова шёпотом, когда размышлял над философскими вопросами вроде: «Убивает ли телепортация твой оригинал?»

Половину декады спустя, когда голос девочки утих в горизонтах памяти, я решил по какой-то неведомой мне причине, что фильм «Помни»- мой любимый фильм, даже не досмотрев вступительные титры.

Сколько же лет memento mori преследовала меня? Можно сказать, что вся моя жизнь, начиная от того разговора, стала исполнением квеста по обнаружению силы из тысяч романов, рукописей, песен и видео. Мантр, которые бы напоминали мне о направлении, где находится моя великая мечта. Позволю им говорить:

Всё может быть сделано радикально элементарно.

То, что может быть разрушено правдой, должно быть разрушено.

Люди могут выдержать правду, поскольку они уже живут с её тяжестью.

Задачей математики является продвижение человеческого понимания.

Люди становятся теми, кем им предназначено стать, делая то, что правильно.

Современные люди не могут найти Бога, потому что не смотрят достаточно низко.

Линия между добром и злом проходит через сердце каждого человека.

Но я, будучи бедным, обладаю только своими мечтами. Я расстелю свои мечты к твоим ногам. Ступай по ним осторожно.

Наивный рационалист во мне называет меня сосунком за обращение и утопание в глубокомыслии. У меня есть, что ему сказать: в то время как я, повторяя эти мантры, наполняюсь энергией и чувством направления в жизни, что длится вот уже много лет, он способен только на неопределенное циничное высокомерие. Ну и кто после этого побеждает?

У меня есть ощущение, что мантры, которые я повторяю шёпотом, проникнуты моими самыми важными ценностями и служат решением моей задачи контроля: дешевым способом распространяют эти ценности моим будущим копиям на протяжении вот уже многих лет.

Челлендж дня

Поделитесь своей любимой мантрой и её значением для вас.

Перевод: 
sepremento
Аудио: 
Оцените качество перевода: 
Средняя оценка: 5 (3 votes)

Время молотков, день 7: Факторизация избеганий

alkjash

По мере продвижения в интроспективный раздел времени молотков, определю подход, построенный на наборе (не оригинальных) идей, которые я изложил в принципе солитера. Главная идея заключается в том, что человек лучше всего моделируется смесью из слабо связанных, полунезависимых, разнесенных во времени агентов и в дополнение управляется собранием относительно противоположных суб-личностей, вроде как в фильме «Головоломка».

Таким образом, значительного прогресса можно достигнуть только за счёт артикуляции точек зрения суб-личностей, чтобы между ними сформировалась эмпатия и доверие. Такой и будет задача остатка первого цикла.

День 7: Факторизация избеганий.

Факторизация целей это техника CFAR, состоящая из большого количества частей. Наиболее важным навыком для меня стала факторизация избеганий, поэтому начну отсюда. Очень рекомендую выступление Критча на TEDx по этому вопросу, оттуда я впервые узнал о таком способе мышления.

Подготовка

Выберите привычку из своего списка багов, которую вы давно хотели завести, но не сделали этого, или которую вы заставляете себя делать, но она по-прежнему остаётся в тягость. Что происходит?

Для конкретики возьмем привычку «писать в блог каждый день»

На каком-то уровне вы хотите вести блог. У вас множество хороших идей. Процесс помогает вам мыслить отчетливо. Вы смогли бы пожать плоды публичной критики. Если бы вы писали в блог, то другой человек мог бы получить пользу. Но если вы действительно хотите вести блог, то почему это стоит вам таких усилий воли каждый раз? Почему вы не набрасываетесь на него с тем же рвением, с каким вы набросились бы на жареное мороженое?

Факторизация избеганий — это способ обнаружения и удаления подсознательных препятствий, не позволяющих Системе 1 желать тех же вещей, что и Система 2.

Сформулируйте избегание.

Первый шаг факторизации избеганий: произнести вслух все избегания, которые вас сдерживают. Начните с выписывания всех причин, почему вам не нравится делать то, что нужно. Держите в голове мысль:

Будьте честными.

«Я боюсь, что мои идеи не оригинальны, мой стиль письма не улучшился с пятого класса и я в ужасе от людей в Интернете.»

Быть честным сложно. Однако, есть вторая категория коварных избеганий: тривиальные, повторяющиеся раздражения, которые оставляют неприятный привкус от всего опыта. Посмотрите текст «Остерегайтесь тривиальных неудобств». Обнаружение таких избеганий требует внимания к деталям:

«Я ненавижу вести блог из-за ужасной поддержки LaTeX, из-за беспокойства о проблемах с авторскими правами каждый раз, как возникает желание прикрепить картинку и ещё недавно я обнаружил, что один мой знакомый популярный блогер имеет точно такой же шаблон WordPress, но если я поменяю свой, то я проиграю, а если оставлю тот же самый, то буду чувствовать себя копией, поэтому я, пожалуй, даже думать об этом не буду, аргхх»

Главной задачей сегодняшнего упражнения станет обнаружение и удаление всех тривиальных неудобств в наших жизнях.

Решите, поддерживать ли избегание

Для любого избегания есть два способа решения проблемы. Поддержите его, если она указывает на настоящую подлежащую проблему, что требует решения. В моём примере с блогом, я могу решить, что меня заботит качество письма и стоит направить усилия на отработку стиля.

Если вы не поддерживаете своё избегание, то от него следует избавиться. Общераспространённый класс таких «плохих» избеганий это корзиночные ошибки (?) о вашей идентичности. Когда будете думать об удалении избеганий, вспомните о заборе Честертона (Chesterton’s Fence)! Определите, почему у вас сложилась вообще такое избегание, прежде чем пытаться от него избавляться. От почти любого избегания можно избавиться постепенно, так что будьте осторожны (посмотрите Сварить краба).

Избавьтесь от избегания или уменьшите его

Как только стало понятно, что вам не нравится, время убрать как можно больше избеганий, одно за другим. Для тех избеганий, что вы поддерживаете, курсом действий станет изменение или улучшение привычки самой по себе, чтобы разрешить или обойти подлежащую проблему. Чтобы решить мою проблему с блогингом, я мог бы перечитать Странка и Уайта, или «Советы по созданию нехудожественных текстов» (Ха. Хорошая идея)

Одновременно, те избегания, которые вы не хотите сохранять, должны быть подвергнуты экспозиционной терапии или РаЗоК. Чтобы применить экспозиционную терапию, создайте последовательность шагов к предмету избегания, каждый из которых будет ощущаться безопасным. Делайте шаги по одному за раз, так медленно, как потребуется. Я постепенно увеличил свою частоту блогинга за период около года, сначала нулевой аудитории, потом одному человеку и так вплоть до всех народов Интернета.

РаЗоК это улучшение экспозиционной терапии, в которую вы встраиваете кресла-катапульты - заранее настроенные точки вдоль пути экспозиции, где вы останавливаетесь и рефлексируете, что вы ощущаете по отношению к вашему избеганию.

Сделайте факторизацию трёх багов.

В качестве упражнения сегодня выберите ТРИ бага из вашего списка, связанные с созданием привычек. Это могут быть привычки, которые вы хотите приобрести или привычки, которые у вас уже есть, но вы хотите их улучшить.

Для каждого бага, поставьте Йода-таймер на 5 минут и проведите факторизацию избеганий:

  1. Пройдитесь мысленным взором по привычке и выпишите как можно больше избеганий, обращая особое внимание на тривиальные неудобства.
  2. Для каждого избегания решите, хотите вы его сохранять или нет.
  3. Разрешите как можно больше за оставшееся время.

Челлендж дня

У меня есть знакомый, который остается в постели часами, потому что слишком холодно дойти от кровати до шкафа с одеждой. Поделитесь тривиальным неудобством своей жизни, которое может иметь (или уже возымело) драматические последствия.

Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 5 (3 votes)

Время молотков, день 8: Вера в невозвратные издержки

alkjash

Больно начинать пост о планировании с объявления о двух небольших изменениях в планах «Времени молотков»:

Во-первых, я буду в отъезде через неделю, поэтому между первым и вторым циклом будет перерыв примерно в полторы недели.

Во-вторых, когда я сел писать пост о фокусировании, понял, что не смогу добавить чего-либо полезного в этот замечательный пост: «фокусирование для недоверчивых». Фокусирование это, вероятно, вторая по силе техника, которую я взял из CFAR, потому я вернусь к ней в последующих циклах после некоторых размышлений.

Вместо этого я напишу три поста о планировании. Это будут первые шаги для превращения в человека, который способен делать обдуманные долгосрочные планы и потом реализовать их.

День 8: Вера в невозвратные издержки.

Одним из моих желаний со времен написания принципа солитера стало решение задачи контроля для людей: задачи создания и реализации долгосрочных планов и привычек, несмотря на появление новой информации и, что даже хуже, сдвига ценностей. Я предполагаю, что явление ошибки невозвратных издержек, которое общеизвестно и считается вредным, на самом деле существует по веской причине и является полезным первым приближением для задачи контроля.

Жуткая долина невозвратных потерь

Связанный текст: ошибка ошибки невозвратных потерь

Долина жути, в которую попадает любой, кто наивно исключает в своей жизни ошибку невозвратных потерь:

  1. Вы плохо планируете свои дела, но тем не менее вы их выполняете. Вы получаете умеренное количество сделанных дел через создание непродуманных, но полных самоуверенности планов и просто выполнение их, невзирая на противоречащую информацию.
  2. Однажды вы узнаете об ошибке невозвратных потерь. Вы решаете, что теперь вы Хороший Рационалист и постоянно бежите с кораблей проектов, которые вас больше не привлекают. Вы всё ещё плохо планируете. Все ваши планы проваливаются и ничего не получается.
  3. С течением времени, вы осознаете, что вы не тот человек, который способен выполнять долгосрочные планы. Вы скачете от начинания к начинанию, увлекаемые малейшим капризом. Вы уже не помните, какого это - реализовывать планы. Ваш горизонт планирования сокращается и вы перестаете вообще что-либо планировать.

Во втором пункте сидит чрезвычайно коварный демон, связанный с неблагоприятным отбором. На протяжении многолетнего (или многодневного) плана могут всплыть любые виды противоречивой информации. Представьте, что ваша оценка проекта была бы чем-то вроде броуновского движения вокруг новой информации, что медленно сходится к «истинной ценности».

Если в любой момент ваша текущая оценка проекта случайно опускается ниже уровня «стоит делать», вы незамедлительно бросаете проект.

Из-за наличия шума в информации следование стратегии «сдавайся, как только проект упадет ниже линии Стоит Делать» заставит вас бросать слишком много начинаний, которые в итоге могут оказаться стоящими, поскольку случайное блуждание на протяжении достаточно большого периода времени часто падает значительно ниже среднего как минимум один раз.

И это мы ещё не учли все другие виды мотивированного мышления и другие причины, которыми блестящие новые идеи отвлекают нас от нашего пути.

Вера в невозвратные издержки.

Я считаю, что «Жуткая долина», описанная выше, является серьезным и распространенным режимом отказа в рационалистическом сообществе и это уже случалось со мной.

Моё решение заключается в рекомендации не исправлять ошибку невозвратных потерь без изучения методов составления сильных, стойких к отказам планов, а невозможно научиться их делать без выполнения до конца планов плохих. Таким образом, первый шаг к хорошему планированию это восстановление вашей ошибки невозвратных потерь и её использование для выполнения плохих планов. Этот метод я называю Вера в невозвратные потери - вера, что ваше прошлое Я принимало хорошие решения. Вера, естественно, поскольку она ничем не подкреплена.

Если вы обнаружите себя в положении, описанном в предыдущем шаге, найдите своё искажение невозвратных потерь и превратите его в веру невозвратных потерь. Завершайте свои планы даже после того, как они перестали вам нравиться. Расширьте свой временной горизонт до масштаба месяцев и лет, чтобы вы опять стали человеком, который может приводить дела в порядок.

Как только вы вновь научитесь реализовывать свои планы, только тогда вы сможете стать лучше в планировании. В том числе начнёте встраивать в свои планы защиты от тёмных сторон издержек невозвратных потерь, таких как, например, недвусмысленные точки выхода.

Вера в прошлое

Сегодняшнее упражнение направлено на людей, которые слишком часто сдаются на середине пути.

Выберите абсолютно бесполезное действие (проявите смекалку!), которое займет примерно пять минут и выполняйте его в течение недели с использованием Йода-таймеров.

Челлендж дня

Убедите меня, что я не прав в отношении искажения невозвратных потерь и что оно действительно вредно.

Перевод: 
sepremento
Аудио: 

Время молотков, день 8: Вера в невозвратные издержки

Аудиофайл: 
Чтец: 
Даниил Храмцов
Оцените качество перевода: 
Средняя оценка: 4.3 (4 votes)

Время молотков, день 9: Калибровка времени

alkjash

Я размышлял, являются ли полезными регулярные ставки, рынки предсказаний и общее состояние хорошей калибровки, и если да, то как тренировать это при помощи короткого цикла обратной связи.

Быть способным делать точные прогнозы о времени, требуемом на выполнение задачи как минимум полезно. Это эссе описывает мою нынешнюю стратегию, которую я использую, чтобы калибровать своё время.

День 9: Калибровка времени

Из всех когнитивных искажений в Цепочках, искажение планирования кажется одной из наиболее вредящих напрямую, и одновременно - в высшей степени исправимой ошибкой. Цель сегодняшнего упражнения: создать инструмент для регулярной проверки ваших оценок того, сколько времени занимают долгие дела.

Хотя искажение планирования явный антагонист в данной ситуации, я также хочу затронуть другой класс ошибок, которые заключаются в систематическом переоценивании сложности дел.

Вихри ужаса

После того, как я потратил несколько дней, проверяя свою откалиброванность, я был удивлён количеством вещей, сложность которых я постоянно переоцениваю (в основном из-за укоренившегося страха бюрократии и работы по дому).

Несколько лет назад я наблюдал за своим отцом, который практически целую неделю потратил на налоги, читая весь мелкий шрифт, переходя по ссылкам на интернет-форумах и трижды проверяя каждое поле. В прошлом году я впервые подал свою налоговую декларацию, ожидая, что процесс будет ещё более кошмарным: ведь, в конце концов, тогда мой отец был уже опытен в этом деле, а это сохраняло ему много времени, так? Вместо этого всё заняло один вечер.

Две недели назад я занялся получением загранпаспорта вместе с турагентом, после месяцев страха. Я выделил целый день на случай (как мне тогда казалось), что мне придётся ездить туда-обратно чтобы собирать, распечатывать и/или исправлять документы. Весь визит занял суммарно 10 минут, не считая двух миль езды.

На прошлой неделе я начал одиссею с семейным фотоальбом, ужасаясь тому, что много вечеров мне придётся корпеть над старыми файлами и их печатью. Весь процесс занял лишь два с половиной часа от начала до конца со своевременной помощью Таймеров Йоды.

Что исказило мою славную калибровку так сильно? Сыграли роль две вещи:

Во-первых, большая часть данных моей Системы 1 была получена от моих чересчур внимательных к деталям (anal-retentive) родителей. Я инстинктивно чувствовал, что готовка еды занимает около часа, что каждое поле каждой формы должно быть проверено дважды каждым участвующим в подаче налоговой декларации человеком, что нужно приходить на пятнадцать минут раньше, и что бюрократическая машина постоянно хочет вам навредить. Это дало мне нечто противоположное искажению планирования.

Во-вторых, ужасающий страх вокруг задачи становился самоисполняющимся пророчеством. Хотя я и получил большое облегчение после подачи декларации за один день, моя память об этом опыте всё ещё поражена неделями медленно возрастающей тревоги, ведущей к событию. И напротив, само заполнение формы я помню слабо. Я подозреваю, что Система 1 восприняла эти ужасные недели как роковые сигналы.

Калибровочный челлендж

В следующий день, обращайте внимание на работу с ясно очерченными признаками завершения, и тренируйте вашу калибровку времени на ней. Попросите Систему 1 сделать предсказание о том, как долго займёт каждая активность, установите на это время Таймер Йоды и в течение его занимайтесь делом. Если дело займёт больше часа, разбейте его на ясно очерченные части, и калибруйте их отдельно.

(конечно внешний фактор таймера будет влиять на результат, но если вы поймёте, что действуете более эффективно, будучи понукаемыми часами… возможно это стоит делать регулярно)

Если вы хоть сколько-то похожи на меня, вы будете дико удивлены, как систематически неверны ваши модели, как минимум в одну сторону. Если удивились, обновляйте модель!

Челлендж дня

Расскажите ваш самый неприятный случай искажения планирования.

Перевод: 
Tookser
Оцените качество перевода: 
Средняя оценка: 4.5 (2 votes)

Время молотков, день 10: Мёрфиджитсу

alkjash

Настолько пессимистично, что реальность оказывается лучше, чем мы ожидали, так же часто, как и хуже. Очень сложно быть настолько пессимистичным, чтобы своим пессимизмом не дотянуть до реальной жизни.

Сегодня я создам открытую тему о первом десятидневном цикле времени молотков.

Мы закончим первый цикл ещё одним постом о планировании. Мёрфиджитсу - это методика планирования CFAR, которая потребует от нас быть пессимистичнее, чем сама жизнь.

День 10: Мёрфиджитсу

Закон Мёрфи постулирует, что если что-то плохое может случиться — оно случится.

Для наших читателей, говорящих на севернокитайском языке, есть полезная мнемоника: Мёрфи транслитерируется как 墨菲 (мо фэй), что звучит так же, как 莫非, «что если?». Вот почему я думаю о Законе Мёрфи, как о Законе «Что-если».

Мёрфиджитсу - это практика улучшения планов с помощью повторяющегося воображения наихудших сценариев и защиты против них. Это длится до тех пор, пока вы не окажетесь шокированы, если представите себе, что план провалится. Вот базовые шаги Мёрфиджитсу:

  1. Придумайте план.
  2. Представьте себе, что вы достигли дедлайна и обнаружили, что план провалился.
  3. Если вы шокированы таким сценарием, Мёрфиджитсу закончено.
  4. В противном случае, вообразите наиболее вероятный сценарий провала, защитите план от него и повторите цикл.

Первая важная составляющая Мёрфиджитсу — Внутренний Симулятор. Это способность системы 1 моделировать провальные исходы.

Внутренний Симулятор

У меня есть подозрение, что каждый человек на самом деле — мастер Внутреннего Симулятора, и может великолепно моделировать возможные проблемы. Вообразите себе друга, объявляющего вам о своём Новогоднем Решении: написать роман, сесть на кето-диету, написать 30-тидневную цепочку по инструментальной рациональности.

Теперь прислушайтесь к своему внутреннему зубоскальству — ваша система 1 мгновенно отображает будущее со всевозможными препятствиями. Это Внутренний Симулятор за работой.

Если у вас это работает так же, как у меня - Внутренний Симулятор лучше в предсказании провалов других людей, чем ваших собственных. Ментальное действие, которое поможет применить Внутренний Симулятор к самому себе, по сути, является Взглядом Снаружи: возьмите ваш план и представьте, как другой человек его выполняет. Что пойдёт не так?

Welp менталитет

Welp - сленг, смесь слов well (хорошо) и help (помогите), ближайшие аналоги, которые можно придумать в русском языке могут быть чем-то вроде «нупс» (ну и упс) или мемное «памагити» прим. ред.

Внутренний Симулятор сам по себе работает на удивление слабо.

У меня был разговор с другом-рационалистом (назовём его Алекс) который прошёл примерно так:

Алекс: Что тебя беспокоит?
Я: Я ужасно непродуктивен. Прокрастинация мешает мне закончить эссе для стипендии… Срок истекает через две недели, и каждую секунду, когда я думаю о математике, эти эссе всплывают у меня перед глазами.
Алекс: Почему?
Я: В целом, эссе закончено, но мне осталось отредактировать его. Копирование-редактирование довольно утомительно, и каждый раз, когда я прочитываю своё эссе, оно выглядит ещё более нескладным, чем в прошлый раз.
Алекс: Как ты думаешь, что произойдёт дальше?
Я: Ну… Я отложу эссе до момента, когда до дедлайна останется два дня, поредактирую его 10 минут, когда начну чувствовать давление, а потом отправлю. До этого я не буду заниматься больше никакими исследованиями.
Алекс: И…
Я (пожимаю плечами): Тупо, правда?

Алекс сгибается от смеха.

Я называю это Welp-менталитетом. Welp-менталитет — это понять, что ваш план катастрофически провалится, или займёт слишком много времени, или потребует десятикратных усилий по сравнению с ожидаемыми, и затем уклончиво пожать плечами. Упс.

Welp-менталитет это знать и принимать как факт, что каждый билд выйдет на два месяца позже. Что вы закончите наспех сделанный набор задач и эссе начав в полночь перед дедлайном. Что вы наверняка прекратите заниматься по вашему текущему плану упражнений. У меня есть старый девиз для Welp-менталитета: «Нужно завтра? Делай завтра.»

Мёрфиджитсу

Мёрфиджитсу это восхитительная идея о том, что если можно предсказать провал, то его можно предотвратить!

Если ваши билды каждый раз опаздывают на два месяца, вы можете передвинуть дату релиза, или урезать функциональность, или нанять больше программистов. Если вы знаете, что собираетесь потратить 6 часов на задачу в ночь перед дедлайном, по крайней мере вы можете установить шестичасовой таймер Йоды, исполнить его в удобное время, и послать результат, каким бы он ни был.

В случае с моим стипендиальным эссе, я решил немедленно потратить 10 минут на редактирование и сразу же послать его. Облегчение от возвращения двух недель моей жизни назад было осязаемым.

Возьмите план на ближайшее будущее. Используйте на него Мёрфиджитсу. Избавьтесь от любых тормозов: наладьте социальное давление, чтобы оно удерживало вас на пути. Удвойте время, которое вы тратите. Установите на календаре и на телефоне напоминания. Мёрфиджитсу прекращается только если вы будете шокированы провалом плана.

Челлендж дня

Примените эту технику на вашу центральную жизненную цель. Есть ли явные опасности, против которых вы не защитились?

Перевод: 
Tookser
Оцените качество перевода: 
Средняя оценка: 3.7 (13 votes)

Время молотков, день 11: Охота на баги 2

alkjash

В CFAR существует мантра «отрегулируйте сиденье»: систематически модифицируйте каждую технику и урок, чтобы они соответствовали вашей ситуации. Сейчас общеизвестно, что разные вещи работают для разных людей, но меня каждый раз удивляет величина этого эффекта. У Кьеркегора был интересный взгляд на регулировку сиденья, который он называл «методом вращения».

Если вы хотите принять участие во «времени молотков», не стесняйтесь регулировать своё сиденье настолько, насколько потребуется. Займитесь всерьёз и надолго практикой инструментальной рациональности, выберите методы, которые вам понравятся, масштабируйте их под ваши временные рамки.

Время молотков, второй цикл.

Время молотков про культивирование небольшого числа мощных техник для решения большого числа разнообразных задач. Во втором цикле мы вернемся и и улучшим наши инструменты, которые мы представили в первом и применим их к более сложным задачам:

  1. Охота на баги
  2. Йода-таймеры
  3. ПТД и обучение с подкреплением
  4. Дизайн
  5. РаЗоК
  6. Фокусирование
  7. Кресты
  8. Факторизация целей
  9. Внутренний корень разногласия
  10. Самодоверие

Новые идеи, которые будут представлены во второй половине посвящены более высоким уровням интроспекции и честности с самим собой, чтобы выяснить ваши истинные устремления и страхи, а также понять, что с ними можно сделать.

Перед каждым постом во втором цикле выделите время, чтобы пробежаться глазами по его предшественнику.

День 11: Охота на баги 2

Ранее: День 1

Обнаружение своих багов продолжает быть самой мощной техникой. Тренировка внимания к своим багам включает в себя нестандартное мышление, внимание к деталям и честность с самим собой. Сегодня мы сосредоточимся на трёх высокоуровневых способах, которыми люди систематически совершают ошибки.

Подготовка

Во-первых, просмотрите свой список багов из первого дня и обновите его.

Для каждого из следующих трёх мини-эссе: прочитайте их, поставьте Йода-таймер на пять минут и устройте мозговой штурм с целью выписать как можно больше багов за это время.

Идентичность

Пол Грэм писал «держите свою идентичность маленькой». Привязка к собственной идентичности часто может сдерживать ваш рост.

Вместо того, чтобы принимать беспристрастное решение относительно типа личности, которым они хотели бы стать, люди часто экстраполируют свою идентичность (а за ней и мораль) из своих предыдущих действий. Мой друг называет это копролитами: окаменелые и чрезмерно подогнанные убеждения, происходящие из раннего детства. Вы грязнуля или чистюля, скряга или щедрый, интроверт или экстраверт, сознательный или доверчивый, идеалист или циник, инженер или художник, vim или emacs? Смотрите ли вы свысока на людей, которые ведут себя иначе? Потратьте минутку на обнаружение всех качеств характера, к которым вы привязаны, подумайте, почему вы к ним привязаны и подумайте, есть ли преимущества у их противоположностей.

Личность человека многогранна и поэтому вы можете даже не понимать своих истинных устремлений, страхов или навыков. Находятся ли ваши декларируемые предпочтения в согласии с проявляемыми? Отличаются ли ваши действия от ваших убеждений? Другие люди оценивают вас как-то иначе от вашей самооценки? Бывает ли так, что вы удивляетесь самому себе в плане вещей, которыми вы наслаждаетесь, в которых вы преуспеваете или которых вы боитесь?

Полезно думать о росте своей личности в терминах расширения, а не перемен. Интроверт растёт через понимание, как ему вести себя в социуме. Экстраверт растёт через получение способности оставаться в одиночестве. Вместо того, чтобы спрашивать себя «что бы я в себе изменил?», подумайте, какие инструменты вы хотели бы добавить в свой арсенал.

Извращение вкуса

Извращение вкуса это расстройство, при котором люди жаждут еды, не удовлетворяющей потребности, скрывающейся за этой жаждой. Типичным примером является обгладывание льда, в попытке насытить недостаток минералов в организме. Извращение вкуса в переживаниях это любое стремление, не удовлетворяющее потребность, стоящую за этим стремлением.

Топ три моих аддикции в школе являлись извращением вкуса в переживаниях.

Первой аддикцией были романтические новеллы и трагические сериалы, которые служили для меня своего рода порно на тему уязвимости и самопожертвования. У меня были замысловатые фантазии на множестве языков о любви и потере.

Второй аддикцией были ролевые игры, которые были порно о саморазвитии. В Diablo III артефакт Gem of Ease увеличивал скорость роста уровня для всех будущих персонажей до 70 примерно за час. Я создавал нового персонажа каждые пару месяцев, только чтобы смотреть как появляются сообщения о повышениях уровня. MOBA в этом смысле мощнее всего, поскольку позволяют раскачаться с 1 до 18 уровня в каждой игре.

Третьей аддикцией было …

Я знаю, что это были извращения вкуса, потому что первая и третья жажды ушли, когда я вступил в серьезные отношения, а от второй избавился, когда начал сознательно работать над саморазвитием.

Пост является хорошим временем, чтобы искать свои извращения вкуса. Существуют ли привычки, жажды или пристрастия, которых вы не понимаете и/или с трудом пытаетесь сократить? Если они являются извращениями вкуса, вы прикладываете усилия не в том направлении. Выясните подлежащую потребность и проблема автоматически уйдёт.

Амбиции

Я занимаюсь бегом время от времени вот уже около пятнадцати лет. До последнего года это занятие было однозначно ужасным. Кажется, что ты должен привыкнуть к бегу на четыре мили после десяти лет дважды в неделю. Нет, это не так.

Тогда я решил поставить себе цель.

Я подумал: буду тренироваться, чтобы пробежать милю за семь минут.
Моё сердце ответило: Уау, ок, это бодрит.
Затем я подумал: буду тренироваться, чтобы пробежать милю за шесть минут.
Моё сердце: Да, детка, давай сделаем это!
Затем я подумал: Миля за пять минут!
Моё сердце: АХАХАХАХАХАХА…

Я бегал больше десяти лет с почти нулевым развитием. В прошлом месяце я пробежал милю за семь минут после двух месяцев стремления к недостижимой цели. Но теперь мне нравится бегать.

Я пишу в блог время от времени вот уже пять лет. До последнего года это было тоскливо. Вам может показаться, что вы станете лучше писать после выкладывания двух постов в месяц на протяжении одного-двух лет? Нет, это не так.

Тогда я решил поставить себе цель.

Я: Постараюсь писать в блог раз в неделю.
Моё сердце: Ок, это мило.
Я: Буду писать в блог через день.
Моё сердце: Ну вот, уже другой разговор.
Я: Я буду писать в блог каждый день в течение года и к концу этого периода буду писать лучше, чем Элиезер Юдковский
Моё сердце: АХАХАХАХАХАХА…

Существует определенный уровень амбиций, что заставляет вас действовать с максимальной эффективностью, который накачивает ваше сердце адреналином при одной мысли о своём достижении. В каждом начинании прицеливайтесь на такую высокую планку, которую страшно произнести вслух даже в пустой комнате.

Выпишите сейчас свои цели. Продолжайте удваивать их в сложности до тех пор, пока ваше сердце не согнется от истерического смеха от одной только мысли о них.

Челлендж дня

Поделитесь своей самой большой амбицией: той, что ощущается как наиболее дерзкая.

Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 4.8 (6 votes)

Время молотков, день 12: Йода-таймеры 2

alkjash

Любой, кто сможет сосредоточить свою силу воли на тридцать секунд, может совершить отчаянную попытку поднять больший вес, чем обычно. Но что если нужно поднять грузовик? Тогда отчаянной попытки не хватит; придётся сделать что-то из ряда вон выходящее, чтобы преуспеть. Возможно, придётся сделать что-то, чему не учили в школе. Что-то, чего другие от вас не ожидают и могут не понять. Возможно, придётся выйти за пределы привычных маршрутов, столкнуться с трудностями, на решение которых у вас нет готовых мыслительных программ, и обойти Систему.
~Приложи экстраординарные усилия

Я не знаю, прикладывал ли я когда-нибудь экстраординарные усилия (и это, вероятно, свидетельство, что нет), но я точно делал отчаянные попытки. Философия Йода-таймеров в том, что может быть достаточно постоянно делать отчаянные попытки: делать то, что ты знаешь так хорошо и так быстро, насколько это возможно. А за этими пределами лежит сфера гения.

CFAR называет Йода-таймеры циклами разрешения (Resolve Cycles), вторичный навык здесь Разрешение - способность сделать отчаянную попытку. Эта техника достойна отдельной книги, хоть она и наименее гламурна среди всех. Насколько больше вы смогли бы достичь всего лишь постоянно прикладывая больше грубой силы?

День 12: Йода-таймеры

Ранее: День 2

Разрешение это главный навык, тренируемый Йода-таймерами, но существуют также другие причины встраивать таймеры и дедлайны в свою жизнь. Сегодня я поделюсь тремя идеями, позволяющими получить максимум из Йода-таймеров.

Йода-дедлайны.

Иногда можно удивить себя тем, что можно сделать за пять минут. Но некоторые вещи невозможно сделать за пять минут. В этом случае обобщением Йода-таймера станет формирование абсурдно коротких дедлайндов для таких задач.

Сколько времени потребуется, чтобы написать роман? NanoWriMo это Йода-дедлайн на один месяц для этого случая.

Сколько времени потребуется, чтобы решить долгосрочные исследовательские задачи? ММО заявляет, что иногда достаточно четырех с половиной часов.

Сколько времени потребуется, чтобы изменить всю вашу жизнь? Как много людей тратят года и десятилетия прежде чем быстро пройдут через значительные перемены в течение нескольких недель, подстёгнутые единственным разговором, или книгой, или путешествием?

Короткий ответ на все эти вопросы: вы не будете иметь ни малейшего представления без тренировки скорости.


Существует облегченный вариант для математического турнира Гарварда-МТИ под названием ноябрьский турнир Гарварда-МТИ (НТГМ), который проводится для региональных и менее опытных (средняя и ранняя старшая школы) учащихся. НТГМ составлен из нескольких индивидуальных и командных раундов, наиболее удивительным из которых будет раунд чуйки (Guts Round). Команды из 4-6 учащихся работают вместе над задачами из наборов по три штуки, чтобы решить в сумме 36 задач за 80 минут.

Старшие ребята, включая меня, помогали во время НТГМ 2011 года. Тренер команды ММО предложил нам испытание - поучаствовать в раунде чуйки, но вместо работы в командах из 6 человек, мы работали поодиночке и у нас не было черновиков.

И вот, так получилось, что рядом с аудиторией, полной громко шепчущихся подростков, обменивающихся идеями и черновиками, мы сидели впятером, уставившись на задачи и выписывая на листочек ответы.

Подводя итоги в конце, каждый из нас был впереди любой из команд с большим отрывом.

С тех пор, я выполнял тренировочные задачи НТГМ за половинное время, используя только вычисления в уме. Дважды выиграл.

Соревнование с деградацией

«Моя дорогая, здесь нужно бежать изо всех сил только чтобы остаться на месте. А если ты хочешь куда-то дойти, то тебе нужно бежать в два раза быстрее.»
~Алиса в Стране Чудес

У писательских проектов существует типичный режим отказа: если ты работаешь слишком медленно, идеи устаревают ещё до того, как ты окажешься близок к финишу.

Как много незаконченных мыслей сталкиваются с клавишей backspace лишь из-за того, что перестают быть привлекательными в рефлексии?

Написанный наполовину пост в блог буквально ржавеет за ночь.

Первая глава романа выглядит как детское бумагомарание через неделю.

Доказательство, которое ты набросал несколько месяцев назад? Сейчас ты не сможешь вспомнить детали.

Я привожу примеры в писательстве, потому что сам им занимаюсь, но скованность и деградация мотивации применимы ко всем творческим начинаниям, особенно для людей легко отвлекающихся. Одним из решений станет попытка решить задачу контроля и выстроить доверительные отношения со своим будущим Я, и таким образом научиться планировать на долгий срок. Это мы обсудили в днях 8, 9 и 10. Но другим решением является просто делать всё быстрее.

Мёрфиджитсу легко позволяет определить такие режимы отказа. Существуют идеи, о которых вы точно знаете, что если не завершите их сразу же, то не завершите никогда. Если вы отложите это что-то на месяцы, то даже если в итоге сделаете, то оно займёт в два раза больше усилий.

Устанавливайте Йода-таймеры и Дедлайны. Мотивация и ценности имеют свойство меняться - получите максимум от того, что у вас есть сейчас.

Попробуйте медленно

Обычно пять минут это абсурдно мало времени, чтобы хоть что-то сделать. Но иногда пять минут становятся вечностью. Вторичное применение Йода-таймеров - привлечь ваше внимание к задачам, на которые вы обычно тратите секунды.

Сколько времени вы обычно тратите на планирование своего дня? Поставьте Йода-таймер и подвигайте дела в своём расписании, чтобы максимизировать свою эффективность.

Сколько времени вы обычно тратите на выражение благодарности? Поставьте Йода-таймер на поиск идеального подарка, или на вдумчивое написание письма для любимого человека.

Существуют ли мышцы, которые вы никогда не тренируете? Поставьте Йода-таймер и тренируйте одну эту группу мышц (посмотрите эту серию, чтобы узнать, как). Прочувствуйте, как ощущается напряжение и расслабление. Исследуйте весь диапазон движений. Почувствуйте прекрасное жжение молочной кислоты.

Погружаетесь ли вы в дела без достаточного планирования? Поставьте себе Йода-таймер, чтобы замедлиться и выполните Мёрфиджитсу.

Мета-Йода

Сегодняшнее упражнение: поставьте Йода-таймер на пять минут и составьте план внедрения таймеров и дедлайнов в свою жизнь.

Челлендж дня

Поставьте Йода-таймер и поделитесь наиболее важной идеей, для выражения которой вы никак не могли найти время. Уложитесь в пять минут.

Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 5 (2 votes)

Время молотков, день 13: ПТД 2

alkjash

«Опустите ненужные слова!» кричит автор на странице 23, и в этот императив Уилл Странк действительно вложил свои сердце и душу. В те дни, что я провел на его занятиях, им было отброшено множество ненужных слов и отброшены с силой, с готовностью, а также с ощущаемым наслаждением, часто он оказывался в затруднительном положении - ему было больше нечего сказать, а время нужно было чем-то занять, подобно радио-проповеднику, обогнавшему эфир. Уилл Странк справлялся с этой трудностью особым способом - он проговаривал каждое предложение по три раза. Когда он произносил свою речь о краткости аудитории, он перегибался через свой стол, хватал себя за отвороты пиджака и хитрым, заговорщическим голосом говорил: «Правило семнадцать. Опустите ненужные слова! Опустите ненужные слова! Опустите ненужные слова!»
~Элементы стиля (Elements of Style)

Нет ничего более естественного в практике времени молотков, чем повторение и ни одна другая техника рациональности не требует большей практики, как ПТД. Хотя мы выбрали только три дня, чтобы на ней сосредоточиться, лучше всего проводить тренировку ПТД в течение всей своей жизни.

День 13: ПТД

Ранее: День 3

Триггеры, что замечают самих себя

Суть навыка планирования триггеров и действий в выборе правильного триггера. Лучшие из них не только легко заметить, но и трудно пропустить. Обнаружение триггера не должно требовать усилий и направления внимания - единственное осознанное действие выполняется после того, как триггер сработал.

Три способа находить хорошие триггеры:

  1. Сентиментальная ценность: существуют процессы, посредством которых мы естественным образом становимся привязаны к предметам, сопровождающим нас в горе и радости. Например, я привязан к веснушке на правом большом пальце, к рубашке с длинным рукавом, что подарил мне друг детства, к моей игровой мышке Logitech - наследие из прошлой жизни. Обращайте внимание на подобные вещи. Замечайте, как они приобретают трёхмерность. Наполняйте их смыслом. Например, под веснушкой на моём правом большом пальце находится метафизический колодец, где я храню сверхъестественное спокойствие на случай, если оно мне понадобится.
  2. Новизна: удивление это простейший способ что-либо заметить. В прошлом месяце я сделал несколько покупок для Дизайна и их наличие ощущалось, как нечто необычное в течение нескольких недель. Воспользуйтесь покупками для создания микропривычек. Мой новый коврик у двери является напоминанием проверить ключи и телефон перед выходом из квартиры. Моё новое кресло-мешок напоминает мне заметить и расслабить любое мышечное напряжение. Моя новая лампа хочет, чтобы я читал каждый вечер перед сном.
  3. Чувственное ощущение (стянуто из «Фокусирования» Джендлина): чувственным ощущением называются проявления в теле, связанные с эмоцией или идеей. Множество мощных когнитивных привычек восходят к построению хитрых ПТД для определенных чувственных ощущений. Большая часть таких ощущений обнаруживается у меня в груди и спине. Ощущение в груди, похожее на «Sour Patch Kids» сигнализирует о романтических чувствах. Жужжащая энергия, пробегающая по позвоночнику напоминает о возбуждении (вероятно, просто адреналин). Физическое давление по всей груди напоминает о страхе. Стройте планы реагирования на каждое из подобных чувств. Осторожно: подавление их редко является правильным ответом.

Перегрузка заклинания осознания

Заклинание осознания имеет множество различных применений и лучше всего использовать один триггер для всех разом. Заклинание осознания должно срабатывать постоянно в течение дня - дальше будет понятно из контекста, какое именно его применение должно реализоваться.

Вот три способа, которыми я перегружаю заклинание осознания:

  1. Обновление (Refresh). Разговор зашел в тупик. Вы полностью потеряли нить повествования на часовом семинаре по категориям (бесконечность, 1). Вы потеряли сон из-за кошмаров об AlphaGo и теперь весь день насмарку. Вы отсидели половину из недельной конференции по компилятору на Python и полностью вымотаны. Какая демоническая сущность заставила вас на это подписаться? На каждом уровне масштаба заклинание осознания может стать необходимой кнопкой «обновить», чтобы избавиться от невозвратных потерь, утечек внимания и памяти, а также любых неприятных ощущений. Кнопка «отступись и расслабься» для жарких политических дискуссий. Ctrl-Aly-Delete для остроумного, но бесполезного поста в блог. Кнопка системной перезагрузки для проекта, сплошь состоящего из невозвратных потерь. Кнопка сброса к заводским настройкам (ВНИМАНИЕ: ВЫ УВЕРЕНЫ?) для запуска кризиса среднего возраста, который вам так необходим.
  2. Сверка с реальностью. Я прошел долгий путь практики осознанных сновидений (без большого успеха). Одним из главных инструментов в этом деле является регулярная сверка с реальностью («я сейчас сплю?»), так что она теперь встроена в моё заклинание осознания: посмотреть на руку и пересчитать пальцы. Сверка с реальностью это мгновение, нужное, чтобы заметить существование своего тела и проверить, что вам доступен хотя бы самый минимум своей разумности.
  3. Обучение с подкреплением. Посмотрите текст «Настраивайте свои когнитивные стратегии». Используйте своё заклинание осознание, чтобы регулярно похлопывать себя дружески по спине за здоровые мысли и когнитивные стратегии. Быстрые циклы обратной связи являются залогом быстрого обучения. Мне нравится внедрять очевидные физические движения в качестве положительного подкрепления, например, я складываю пальцы в жест «thumbs up» после их пересчёта.

Обзор ПТД

Поставьте Йода-таймер и сделайте обзор всех ПТД, которые вы пытались внедрить за последний месяц и определите, что для вас сработало.

Челлендж дня

Вам когда-нибудь приходилось жать на «сброс к заводским настройкам»? Поделитесь опытом об отказе от долгосрочного проекта, от убеждения, в истинности которого вы были уверены или от идентичности, к которой вы были привязаны.

Перевод: 
sepremento
Аудио: 
Оцените качество перевода: 
Средняя оценка: 4.3 (3 votes)

Время молотков, день 14: Дизайн 2

alkjash

Я есть палец, указывающий на луну. Не смотри на меня; смотри на луну. 1

Рационалисты постоянно нудят о фальшивости наших моделей, о том, как мы указываем на глубокие, невыразимые словами истины, и, дабы взять на себя часть вины, о важности приближения к истине с разных сторон, нежели о прямом стремлении к ней. Мы проводим слишком много времени, настаивая, что мы есть пальцы, указывающие на луну.

Время молотков заявляет: в жопу луну.

Во Вселенной летают триллионы неразличимых огромных камней. А человеческий палец содержит триллион копий исходного кода самого могущественного интеллекта в известном нам участке Вселенной. Если бы приходилось выбирать, я бы проводил дни в изучении пальцев, а не лун, без разговоров.

Время молотков это набор пальцев, указывающих на луну. Иногда может быть полезным откинуться в кресле, свести глаза в одну точку и искать луну: ту самую общую когнитивную стратегию, стоящую за всеми этими техниками. Но если вы не можете найти луну, пальцы тоже хорошо. Поэтому не надо беспокоиться. Расслабьтесь. Делайте ровно то, что я говорю.

День 14: Дизайн

Ранее: День 4

Дизайн это практика обнаружения крохотных градиентов из стимулов в вашем окружении и их смещение в нужном направлении. В прошлый раз мы считали окружением физическое пространство, но принципы Дизайна применимы в разных областях.

Сегодня я буду применять принципы Дизайна для составления расписаний (schedules), социальных групп (social groups) и экранного пространства (Screen Space). Как подрастающий гуру я дам этой группе техник (вкупе с пространством - Space) название «Дизайн 4S».

Держите в уме три принципа Дизайна:

  1. Намеренность: обнаружьте все крутилки, которые можно покрутить. Настройте их в соответствии с вашими намерениями.
  2. Амортизация: заплатите заранее небольшую цену, чтобы сохранить свой ресурс внимания в будущем.
  3. Рефлексивная теория полотенца: эстетика вашего окружения определяет ваше самовосприятие.

Расписания

Я не эксперт в использовании календарей; этот раздел посвящен основам.

Каков самый важный градиент стимула, который можно поправить в календаре? Стимул его использования вообще.

Знание заранее, где вы будете, чем будете заниматься, какая доля ваших проектов будет сделана через дни, недели и месяцы стоит дорого. Невообразимо дорого. Может показаться, будто все стимулы уже выстроены. Так почему же люди не планируют все дела всё время?

У каждого свои причины для антипатий, но я считаю, что самой большой будет размещение календарей в категорию инструментов продуктивности. Когда я впервые начал вписывать свои задачи на бумажку, я чувствовал себя как крепостной, тащащий свой осенний урожай землевладельцу. Деспот хотел превратить моё время, всё моё время, в «продуктивность». Ничего взамен он не предлагал.

Вот откройте сейчас свой календарь. Это всего лишь инструмент. Чего бы вы реально не хотели, он поможет вам этого достичь. Если вы правда хотите продуктивности, выделите на это блок времени в календаре. Если вы хотите запоем смотреть Death Note на выходных, выделите время и на это. Если вы хотите вечером полежать в кровати и поплакать, не испытывая при этом чувства вины, то и на это время выделите. И относитесь к своим напоминаниям в календаре, как к мягким понуканиям друга, желающего вам добра.

Не позволяйте своему календарю стать вашим тираном.

Упражнение: поставьте Йода-таймер, чтобы составить как можно более плотное расписание как можно дальше в будущее.

Социальные группы

Джордан Питерсон любит повторять, что в эволюции homo sapiens Природа, реализующая естественный отбор, представлена тремя частями природного окружения и семью частями других человеческих существ. За последний миллион лет, социальное и особенно сексуальное давление значительно превосходили давление выживания. Социальное окружение для нас столь же неизменно и неподатливо, как антарктическая зима, а подлежащие градиенты стимулов определяли наши жизни за миллионы лет до нашего рождения.

У вас есть власть управлять своими социальными стимулами. Обучение с подкреплением это главный механизм обучения человека и мы получаем так много обратной связи из нашего круга общения, что создание циклов обратной связи с обществом становится жизненно важным.

Правило три из «12 правил для жизни» гласит: дружите с людьми, которые желают для вас лучшей жизни. Не всякий человек разделяет ваши ценности. Не всякий, кто разделяет, может оценить ваш прогресс. Не всякий, кто может оценить, знает, как наградить. Заводите друзей, которые будут вознаграждать вас за ваши добродетели и наказывать вас за ваши грехи. Просите своих друзей держать вас в узде и принимайте обратную связь с теплотой.

Ничего так не лечит душу, как хороший подзатыльник от близкого друга.

Упражнение: поставьте Йода-таймер и спроектируйте своё социальное окружение. Возможно, вам потребуется установить ПТД, чтобы благодарить людей за хорошие советы. Возможно, вам стоит подавать хороший пример и хвалить черты, которые вы увидите у других. Возможно, вам потребуется показать окружающим, что вы способны воспринять критику. Возможно, вам просто требуется больше хороших друзей.

Экранное пространство

Математику предначертано опозорить себя в попытке научить аудиторию, состоящую большей частью из программистов, макросам и горячим клавишам, но время от времени я сталкиваюсь со странными программистами на Windows, которые не используют AdBlock. Этот пост для вас.

У меня два принципа Дизайна для работы с компьютером.

Во-первых, никогда не делайте мышью то, что можно сделать клавиатурой более эффективно. Для всего существует своё сочетание клавиш. Поставьте Йода-таймер в Chrome, напечатав «Ctrl-T timer 5 minutes». Архивируйте выделенные электронные письма кнопкой «e». Возвращайтесь к окну «Сегодня» в календаре кнопкой «t» и… я уже упоминал vim?

Во-вторых, создавайте мягкие градиенты стимулов. Удалите Netflix из закладок, дабы отдалить его хотя бы на один клик. Настройте редактор LaTeX, чтобы он запускался при загрузке компьютера, чтобы стало чуть легче писать следующую статью. Пользуйтесь панелью задач на полную мощность, чтобы поместить самые ценные приложения на видное место.

Вот вещи, о которых вы не знали, что они вам нужны: LyX, vim, AdBlock, HoverZoom, RES, RSS Reader, ДОПОЛНИТЕЛЬНЫЕ МОНИТОРЫ.

Упражнение: поставьте Йода-таймер и оптимизируйте своё пространство на экране. Потренируйте сочетания клавиш. Подвигайте иконки. Поищите и избавьтесь от всех лишних действий, которые не автоматизированы. Есть такая штука, называется компьютер, специально для таких целей.

Челлендж дня

Сделайте вклад своих огромных знаний компьютеров в дело Дизайна экранного пространства в комментариях.

Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 4.3 (3 votes)

Время молотков, день 15: РаЗоК 2

alkjash

Ещё один девиз CFAR - «Пробуй всякое!»

Когда вы раздумываете над тем, чтобы завести новую привычку или внедрить новую идею, нет лучшего способа собрать информацию, чем просто попробовать. […] Это особенно важно, потому что если заработает, то вы продолжите это делать.

Время молотка предлагает множество советов «на уровне объекта». Попробуйте их все! Вероятность успеха в 10% не воодушевляет, но вы можете делать сотни или тысячи повторов за свою жизнь.

Вот вам «правило буравчика»: если есть шанс хотя бы в 1%, что нечто окажется полезным в долгосрочной перспективе, это стоит попробовать хотя бы в течение пяти минут.

День 15: РаЗоК

Ранее: День 5

Базовая техника РаЗоК это:

  1. Выберите опыт, который вы хотели бы исследовать. Он должен быть вне вашей зоны комфорта.
  2. Разработайте эксперимент или серию экспериментов. Разбейте ваш путь из пункта А в пункт Б на последовательность малюсеньких и приятных шагов.
  3. Пробуйте! На каждом шаге уделяйте внимание своему внутреннему опыту. Проверьте, что вы не принуждаете себя ни к чему. Вы всегда можете остановиться.

Сейчас я избавлю вас от представления о том, что каждый эксперимент РаЗоК должен быть эффектным. Также я интегрирую в эту технику Факторизацию избеганий.

Невзрачный РаЗоК

Когда я впервые узнал про РаЗоК, я сразу стал придумывать восхитительные, смелые и эффектные эксперименты. Погружение в свои сокровенные чувства после месяца на ноотропах и буддизме, находясь при этом голым в Сибири. Практика осознанных сновидений в групповом объятии с бушменами Калахари, и всё это - во время прыжка с парашютом. Стойка на пальце руки, опираясь на одноколёсный велосипед, декламируя при этом спонтанные лимерики в Карнеги-холл.

Ваша зона комфорта ограничивает вас во всех направлениях, а не только в самых эффектных. Полезнее всего расширять зону комфорта не в самую манящую сторону, а в ортогональную ей или даже противоположную.

Невзрачный РаЗоК это развитие в этих направлениях. Сломать личные страхи и склонности к избеганию, за что никто посторонний вас не похвалит. Пробовать социально неодобряемые занятия и точки зрения. Ваше движение в сторону непривлекательных ролей не значит, что вы должны будете играть их всю жизнь - оно даёт вам заглянуть в вашу многосторонность, обозреть то множество ролей, которые вы способны играть при разных обстоятельствах.

Упражнение: выберите «эффектный» эксперимент РаЗоК, который вы попробовали в прошлом. Разработайте новый эксперимент, который будет направлен прямо противоположно. Поставьте Таймер Йоды и двигайтесь в эту сторону!

Факторизация избеганий и РаЗоК-рекурсия

Ранее: День 7

Пришло время делать составные упражнения из техник времени молотков. Факторизация избеганий (антипатий) - хорошо подходит в качестве подготовительной работы к эксперименту РаЗоК. Последний раз, делая РаЗоК, мы не стали расширять зону комфорта в направлениях, которых мы избегаем. Но сейчас нам поможет Факторизация избеганий, так что мы готовы совладать с более сложными испытаниями.

Напомню три шага Факторизации избеганий:

  1. Формулирование избеганий: запишите столько избеганий, сколько можете. Будьте честны перед собой и уделяйте внимание даже незначительным неудобствам.
  2. Решите, поддерживать ли избегание: рассмотрите каждое избегание и поймите, имеет ли оно корректную цель.
  3. Избавьтесь от избегания или уменьшите его: попробуйте модифицировать деятельность, чтобы разрешить те избегания, которые вы выбрали поддержать. Используйте РаЗоК, чтобы расчистить неподдержанные избегания.

Это приводит нас к первому составному молотку: РаЗоК-рекурсия.

РаЗоК-рекурсия

  1. Выберите опыт для исследования
  2. Разбейте этот эксперимент на серию экспериментов.
  3. Факторизуйте избегания на каждом шаге: Формулируйте избегания. Модифицируйте эксперименты, чтобы меньше сталкиваться с поддержанными вами избеганиями. Рекурсивно примените РаЗоК чтобы расчистить неподдержанные избегания.
  4. Проделайте модифицированный(ые) эксперимент(ы).

Пример:

РаЗоК в публичных выступлениях. Замечаете избегание всех социальных ситуаций. РаЗоК в разговорах с людьми. Замечаете социальное избегание, связанное с (поддержанным) чувством неуверенности в выборе стиля одежды. РаЗоК в покупке одежды. Замечаете избегание больших трат денег.

Бог вам в помощь, если последнее избегание замкнётся в бесконечный цикл: заметить избегание покупки одежды, потому что у вас нет друзей с хорошим вкусом. Применить РаЗоК к заведению новых друзей…

Также вы можете находить антипатии во время проведения эксперимента. Это тоже хорошо. Примените к ним Факторизацию антипатий. В общем случае сложные баги требуют до трёх слоёв рекурсии.

Упражнение: выберите достаточно страшный (4-7 баллов в Списке багов) опыт, к которому вы хотели бы применить РаЗоК. Установите Таймер Йоды, чтобы разработать эксперимент для РаЗоК в этом направлении. Найдите время в ближайшем будущем, чтобы провести этот эксперимент.

Челлендж дня

Сегодняшнее испытание - это вопрос: является ли смелость простым отсутствием страха?

Есть ли значимое различие между ними двумя, и что больше делает РаЗоК: увеличивает храбрость или уменьшает страх? Что бы из этих двух пунктов он ни делал, подумайте, как можно выполнять оставшийся пункт?

Перевод: 
Tookser
Аудио: 
Оцените качество перевода: 
Средняя оценка: 5 (3 votes)

Время молотков, день 16: Три миниатюры

alkjash

Шестой день всегда обозначает границу между конкретным и абстрактным. Сегодня, она будет обозначена тремя эссе о новых техниках.

Эти эссе коротки, поскольку у меня недостаточно данных и примеров. Все концепции и перспективы использования подготовительного уровня. Два последних эссе, думаю, это два пальца, указывающие на одну и ту же луну.

День 16: Три миниатюры

Точки давления

Мне надо ложиться спать раньше.
Я сейчас не могу спать, потому что эту статью надо дописать до завтра.
Я просто закончу её утром.
Я не доверяю себе, утверждающему, что буду работать утром.
Нужно сильнее постараться доверять себе и лечь спать раньше.

Эта цепочка мыслей преследовала меня в прошлой жизни. Видите ли вы, что с ней не так?

Я давил не с той стороны.

По утрам мне всегда было лениво. В таком сценарии «сильнее постарайся доверять себе» это самообман. Чтобы его избежать, мне сначала нужно культивировать в себе привычку работать по утрам или по крайней мере быть способным на это. Как только это появится, исходная цепочка мыслей автоматически обрежется посередине.

Работать по утрам для меня нелегко, но это было правильной точкой, чтобы стараться. Как только я решил эту проблему, я смог доверять моему утреннему я. Стало легче исправлять своё расписание сна.

Точки давления это техника нестандартного мышления. Для любой задачи существует множество мест приложения усилий, и всё, что требуется - это найти точку, к которой можно приложить грубую силу наиболее эффективно. Точка давления редко оказывается очевидным направлением: вероятно, что вы уже толкаете в каком-то направлении, но до сих пор успехов не было. Поищите контр-интуитивные места для приложения усилий.

Вот три примера Точек давления со своим творческим шармом:

Осознанные сновидения как раз о нахождении правильных Точек давления. Вместо «очень сильного намерения осознать свои сновидения» двумя главными техниками является практика сверки с реальностью, пока бодрствуешь и ведение журнала снов, чтобы улучшить способность их вспоминать.

Люди часто подходят к боязни общества с техникой «постарайся меньше беспокоиться о том, что люди думают». По сути это столь же эффективно, как и совет «постарайся не обращать внимание на своё дыхание». Точкой давления в случае боязни общества может быть «постарайся сосредоточиться на языке тела людей и замечать их тревожность».

Я работал с ПТД, чтобы улучшить свою осанку. Единственное, что показало эффективность, это установка «повернись навстречу душевой лейке». Когда я отворачиваюсь от душевой лейки, то сгибаюсь, чтобы вода не попадала на заднюю часть шеи. А когда поворачиваюсь навстречу лейке, то откидываю голову и расправляю грудь, чтобы струя не попала на лицо.

Поиск в истории

Я должен вам признаться.
Я жульничал во времени молотков.
Половина личных примеров для любой техники пришла со времен задолго до того, как я узнал о технике. Многие из техник и их вариаций, что я предлагаю, больше являются «паттернами, замеченными мною в прошлом», нежели продуктами сознательного дизайна.

Рациональность это систематизированное выигрывание. Суть в том, что я стал успешен в некоторых вещах до того, как познакомился с рациональностью. У всех так. Мы все открывали локальные версии техник рациональности ещё до того, как были написаны цепочки.

Каждый раз, когда вы узнаете о новой технике рациональности, поищите в своём прошлом эпизоды, когда вы её применяли. Тогда вы будете конкретнее понимать технику, чувствовать, что владеете ею, а также сможете отрегулировать кресло и отредактировать её под свои нужды.

Похожим образом можно обнаружить новые техники рациональности, обращаясь к своему и чужому прошлому. Заметьте, какие когнитивные стратегии ваш мозг уже использует, попробуйте облечь их в слова. Помните, что облачение в слова невыразимых правил есть участие в божественном акте создания.

Отбраковка суеверий

Некий человек принимает коктейль из ноотропов под названием BrainHammer в течение 30 дней. Он чувствует себя энергичным и мыслит ясно, спит на два часа в день меньше, приобретает контроль над своим гневом. Он списывает всё на препараты и продолжает их принимать неограниченно долго.

BrainHammer это вообще-то десять разных препаратов, среди которых только кофеин обладает положительными эффектами. Но BrainHammer в сорок раз дороже кофе, а некоторые из его ингредиентов поступают в крохотных, незначительных дозах. Одно из активных веществ снижает мужское влечение, а другое приводит к развитию камней в почках.

Время молотков (и CFAR) могут оказаться подобны этому коктейлю из ноотропов. Через тридцать дней у вас останется чувство удовлетворения, вы будете снабжены десятью молотками максимального уровня для разрешения самых сложных багов. Дела начнут спориться.

Но оказывается, только один из молотков (Йода-таймеры) выполняет всю работу. Вы просто хорошо мотивируетесь таймерами и дедлайнами. А при этом 80% всех действий, вдохновленных временем молотков состоят из плацебо: передвижение мебели, изучение трёх разных видов йоги и пяти видов медитации, невразумительное бормотание шёпотом, накопление наполовину законченных дневников и таблиц, заказы всякого мусора на Amazon. Кроме того, вы выполняете внутренний двойной крест абсолютно неправильно и медленно превращаетесь в маниакально-депрессивную личность. И не заметите, пока не станет слишком поздно.

Суеверия неизбежно возникают при счастливых событиях. Требуется дисциплина и научный метод, чтобы разобраться в активных ингредиентах коктейля из препаратов, то же самое применимо для техник рациональности. Если вы осваиваете больше, чем одну технику за раз, сразу планируйте действия против суеверий.

Даже если вы изучаете одну технику, которая требует многих шагов, только один из них может нести полезную нагрузку. Например, в старшей школе я выяснил, что единственной ценностью составления конспектов для меня оказалось выписывание имён для запоминания. Отбраковывая это суеверие, я продолжил делать конспекты, но перестал их хранить.

Челлендж дня

Поставьте Йода-таймер и поищите в своём прошлом моменты, когда вы быстро прогрессировали. Можете ли вы вербализовать новую технику рациональности из этого опыта?

Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 4.8 (4 votes)

Время молотков, день 17: Фокусирование

alkjash

Знаете, говорят, что мы используем только 10 процентов нашего мозга? Я думаю, что мы используем только 10 процентов наших сердец.
Оуэн Уилсон

С некоторым содроганием вхожу я в области «нечеткой Системы 1» применения инструментальной рациональности. Меня беспокоит, что эти интроспективные техники слишком узко направлены на оптимизацию катарсиса, а полученные в результате чувства значительно превосходят их истинную ценность.

Тем не менее, в этих методах есть определенная мощь. У всех нас есть подсознательные убеждения, ценности и стратегии, о которых мы даже не подозреваем или, по крайней мере, не можем выразить словами. Книга (и техника) Джендлина «Фокусирование» это стартовая точка для выявления этих потаенных глубин.

День 17: Фокусирование

Дополнительное чтение: «Фокусирование» для скептиков

tl;dr: ваш мозг создает галлюцинации чувственного опыта, которые не имеют отношения к реальности. Обнаружение и облачение в слова этих «чувственных ощущений» даёт вам доступ к глубокой мудрости вашей души.

Начну с описания моей самой механистичной модели работы фокусирования, а затем опишу несколько упражнений для укрепления мышцы Фокусирования.

Одно из предсказаний моей модели - чувственные ощущения являются лишь одним кусочком невербальной головоломки - паттерны наших снов и наши вкусы в художественной литературе, например, выполняют ту же функцию. Это будет темой для будущего поста.

Левый и правый мозг

Модель получены из лекций по психологии Джордана Питерсона, особенно вот этот разговор. Оставляю за собой право назвать всё фейком, если вы попытаетесь это фальсифицировать.

Человеческие существа являются одновременно хищниками и добычей. Эта двойственность настолько важна в человеческой эволюции, что мозг разделен на левый и правый, чтобы отдельно служить каждой цели.

Левый мозг это мозг хищника, центр для механизмов «подхода». Он построен для отслеживания определенной добычи, создания правил о поведении и решении конкретных задач. Зафиксировать внимание на цели значит активировать левый мозг и приготовиться к охоте. И в направлении вашего взора появляется ясность и четкость. В этом направлении приобретается мощь и мастерство.

«Грех» происходит от греческого слова, обозначающего промахнуться мимо цели: человеческие существа это создания прицеливающиеся.

Правый мозг это мозг добычи, центр механизмов «бегства». Он построен для воображения ядовитого тумана из худших сценариев: змеи на каждом дереве, ловушки под каждым кустом. Правый мозг всегда на грани, выискивая мельчайшие сигналы о выслеживании хищником или о наступающей проблеме. Он оперирует вещами, которых вы не знаете и не можете увидеть: пространство за вашей головой, тени в тёмных углах, места и концепции, вокруг которых вы ходите.

С учетом всего своего уровня ясности и конкретности, левый мозг гораздо более разговорчив и большая часть знаний в виде слов находится там. Правый мозг, с другой стороны, может иметь доступ к самым важным прозрениям в вашей жизни, видеть общий её план. Проблема в том, чтобы передать эту информацию.

Когда у правого мозга есть какое-то сообщение, которое не проходит напрямую через мозолистое тело, сообщение доносится другими средствами. Вы чувствуете напряжение в груди или жар в животе. Непонятные картинки появляются, когда вы закрываете глаза. Возвращающиеся кошмары разыгрывают последние мгновения вашей вероятной гибели.

Фокусирование это об обнаружении вот таких тонких подсказок и завершение коммуникации между левым и правым мозгом.

Чувственные ощущения

Базовая идея фокусирования в обнаружении и отслеживании своих чувственных ощущений, а также в умении их высказать. Самое прекрасное, что происходит во время фокусирования - обнаружение «чувственного сдвига», облегчение или иная перемена в ощущениях после подбора правильных слов для их описания. Это отклик вашего правого мозга, подтверждающий, что вы поняли его сообщение.

Я начну с перечисления нескольких чувственных ощущений, которые у меня недавно были.

  • Когда я решаю задачу каким-то творческим способом (например, исправляю осанку поворотом в душе), у меня возникает ощущение просветления в затылке, которое буквально ощущается, как будто мне раскрыли череп. Слова к этому ощущению: «я открыл новое измерение!»
  • Иногда я часами сижу скорчившись на кровати, пролистывая Facebook или Reddit, играя в видеоигры или запоем просматривая сезон телешоу. После вставания из этого положения, всё моё тело оказывается запечатано в пелене лени и деградации. Наиболее плотной эта пелена оказывается внутри рёбер. Слова к этому давлению: «Симптомы распространяющегося разложения.»
  • Часть моей социальной тревожности формирует твердый барьер, который проталкивается через центр моей груди. Я выучил слова к этому ощущению из поста Зви: «Соответствуй! Каждый раз, как ты оказываешься вне нормы, подумай о подразумеваемых обвинениях, что ты выдвигаешь против всех, кто не попробовал.»

А вот чеклист по Фокусированию Джендлина из CFAR:

  1. Скажите громко «В моей жизни всё хорошо» или «я на пути ко всем моим целям»
  2. Обратите внимание на ощущения в животе, груди, горле. Если вы похожи на большинство людей, что-то отзовется необычным чувством на это утверждение.
  3. Попробуйте понять, что это чувство «видит» и запишите это.
  4. Представьте, что вы отставили эту вещь в сторону (как будто положили рядом на скамейке в парке) и попробуйте ещё раз: «Кроме этого, в моей жизни всё хорошо». Прислушайтесь, что вам на этот раз скажет тело.
  5. Продолжайте до тех пор, пока не достигнете утверждения, которое не произведёт какой-либо реакции, а вместо этого прозвучит как истина (например, «кроме А, Б, В и Г, моя жизнь в полном порядке.»)

Поставьте Йода-таймер и попробуйте Фокусирование.

Челлендж дня

Поделитесь чувственным ощущением и опишите его Истинное Имя.

Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 4.8 (5 votes)

Время молотков, день 18: Факторизация целей

alkjash

До сегодняшнего дня время молотков было сосредоточено на способности достигать цели. Следующие две техники, факторизация целей и внутренний корень разногласия, созданы для определения, каких же целей достигать. Для самых больших своих целей в жизни, вы должны быть способны сделать отстранённое решение о том, стоят ли они достижения перед вложением всех своих сил.

День 18: Факторизация целей

Ранее: День 7, факторизация избеганий

Факторизация целей это техника CFAR для систематического определения всех подцелей и избеганий, которые у вас есть в отношении какого-то действия и выяснения, что можно с этим сделать. Базовый алгоритм таков:

  1. Выберите действие. Это может быть нечто, чем вы уже занимаетесь.
  2. Разложите действие на цели и избегания. Выпишите все затраты и неприятные моменты в выполнении этого действия, продолжайте раскладывать подцели до тех пор, пока они не начнут ощущаться, как неделимые компоненты.
  3. Проведите мозговой штурм в поисках действий-замен. Попытайтесь создать другое действие, которое достигнет цели лучше, с меньшими затратами и неприятными моментами. Это новое действие может быть улучшением текущего, может быть чем-то совсем другим, а может быть комбинацией двух или более действий. Составьте новый план.
  4. Сверка с реальностью. Представьте, что вы внедрили новый план. Подумайте, удовлетворены ли вы. Также, проверьте свой план через мёрфиджитсу.

Это уже довольно сложный и полезный зверь. Держите в уме три вещи:

Используйте чеклист фокусирования для нахождения всех подцелей и избеганий. Если я говорю вслух: «единственная причина, по которой я хочу пойти в зал это физическое здоровье», то я ощущаю пелену несогласованности, которая напоминает мне, что физическая привлекательность также важна. Помните, что честность и внимание к деталям необходимы для обнаружения избеганий, но это также применимо к целям!

Факторизация целей может решить задачу на любом шаге. Выписывания своих истинных мотиваций может быть достаточно для определения правильного порядка действий. Около трёх месяцев назад я обнаружил, что главной мотивацией моей зависимости от видеоигр было «доказать родителям, что можно быть успешным, играя при этом в видеоигры». После записи на бумагу стало невозможным продолжать поддерживать эти действия.

Приготовьтесь принять все возможные миры. Держите разум открытым, подходя к факторизации целей, вам позволено рассматривать все альтернативы. Вам также можно продолжать делать то, что вы делаете сейчас, после факторизации. Попытайтесь отпустить любую привязанность к действию самому по себе, кроме его инструментальной ценности. Немного напрягитесь, если вашей основной причиной, чтобы делать Х является желание «стать человеком, делающим Х», но по крайней мере запишите это как отдельную подцель.

Упражнение: выберите действие или привычку, которую вы хотели бы завести или бросить, поставьте Йода-таймер на 20 минут и проведите факторизацию целей с ней.

Челлендж дня

Поставьте Йода-таймер, чтобы сделать факторизацию целей на «прокачивать молотки». Поделитесь вашими мотивациями и избеганиями.

Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 5 (2 votes)

Время молотков, день 19: TDT для людей

alkjash

По традиции времени молотков я делаю небольшую смену планов как раз в момент, когда надо выпускать тексты про Планирование. Моя отмазка на этот раз такая:

Несколько комментаторов указали на серьезные пробелы в моих знаниях Фокусирования. Я отложу Внутренний Корень Разногласия, улучшенную форму Фокусирования, до следующего цикла. Вместо этого у нас будет ещё два поста о создании и выполнении долгосрочных планов.

День 19: TDT для людей 1

Ранее о планировании: День 8, День 9, День 10.

Сегодня хотелось бы описать два уровня приближения рабочей теории принятия решений для людей.

TDT 101

Дополнительные материалы: Как я потерял 50 килограмм, используя TDT

Выбирайте, как если бы вы контролировали логические выходы внедряемых абстрактных вычислений, включая выходы всех других реализаций и симуляций этих вычислений.
~Элиезер

Другими словами, каждый раз, когда вы принимаете решение, определитесь, что будете делать то же самое решение во всех концептуально схожих ситуациях в будущем.

Поразительная ценность TDT вот в чем: принимайте каждое решение, как если бы вы мгновенно получили все долгосрочные вознаграждения от всех повторов этого решения. И если окажется, что вы необновляемый агент, то этот способ в самом деле работает. Вы действительно теряете 50 килограммов, приняв одно решение.

Призываю читателей, которые ещё не пробовали жить по TDT остановиться здесь и попробовать в течение недели.

TDT 201

Существует некоторая разница между вневременными агентами и человеческими существами, поэтому применение TDT в той форме, что указана выше, требует неприемлемого (по моим меркам) уровня самообмана. Мой второй уровень приближения - предложить практическую ослабленную версию TDT, основанную на принципе Солитера и волшебного мозгового сока.

Три возражения к применению TDT в реальной жизни:

Сущности

Человек это нечто промежуточное между «одной монолитной кодовой базой» и «несвязным содружеством сущностей, реализующих случайную серийную диктатуру». Грубо говоря, каждая сущность это кусочек вас, созданный для удовлетворения одной первородной потребности: голода, дружбы, любопытства, справедливости. В любой момент времени, только одна или две из этих сущностей активны и принимают решения. В таком случае, даже если каждая отдельная сущность является необновляемой и строго определенной, вы не принимаете решения в пользу всех остальных сущностей, неактивных в данный момент. У вас нет столь большого влияния на другими сущностями, как бы вам хотелось.

Разные сущности имеют доступ к разным данным и убеждениям. Я уже упоминал, например, что у меня есть разные личности, говорящие на китайском и английском. Вы можете спросить меня о любимой еде на английском и я отвечу «пельмени», но истинный ответ 饺子 ощущается качественно лучше, чем пельмени с большим отрывом.

Разные сущности имеют разные ценности. У меня есть два друга, которые регулярно провоцируют мою сущность «меряющийся членами садист-засранец». Если человеческие существа действительно обладают функциями полезности, то у этой сущности она с отрицательным знаком по меркам других людей. Она нехарактерно рада вовлекаться в игры с отрицательной суммой.

Практически невозможно предсказать, когда сущности проявят себя. Недавно я летел 13-часовым рейсом из Китая. Начал марафон по просмотру «Игры престолов» после того, как закончились комедии, и целый сезон Серсеи Ланнистер перевел меня в режим «садиста-засранца» на весь следующий день. Если бы Hainan Airlines загрузили больше комедий, этого могло бы не произойти.

Сущности могут оставаться в спячке месяцами или годами. Встретившись с друзьями из старшей школы в прошлом декабре, я окунулся в прежние роли и получил легчайший доступ к огромному массиву ушедших воспоминаний.

Концептуальные фальсификации

Дополнительное чтение: концептуальные фальсификации

Я могу заставить задачу выглядеть большой или маленькой, нарисовав соответственно большие и маленькие концептуальные границы вокруг неё, а затем определяя задачу через указанные концептуальные границы.

TDT реализуется через неопределенный термин «концептуальная похожесть»: вы определяете для себя, что будете принимать одно и то же решение в концептуально похожих ситуациях. К сожалению, вы будете склонны к мотивированным суждениям и концептуальным фальсификациям, чтобы выбраться из вневременных решений, сделанных в прошлом.

Эта задача может быть упрощена, но не решена, через четкое определение границ. Жизнь имеет слишком много измерений, чтобы даже определить, какие переменные стоит отслеживать, не говоря уже о том, чтобы провести границу для каждой из них. Значимость информации есть функция вашего внимания и навыков обнаружения настолько же, насколько функцией реальности самой по себе. Последнее время стало практически обыденным делом прочесть статью, которая достаточно изменяет возможности моего внимания, чтобы превратить ситуации, ранее воспринимаемые как «концептуально схожие» в абсолютно разные.

Волшебный мозговой сок

Дополнительное чтение: волшебный мозговой сок

Каждое совершенное действие сопровождается ненамеренным самоизменением

Человеческий мозг это такой привередливый код, который самоизменяется каждый раз, когда выполняет какое-то действие. Ситуация даже хуже: ваши поступки могут сдвинуть ваши ценности в неожиданном и непонятном направлении. Этот баг есть неотъемлемое противоречие в применении TDT человеком.

Самоизменение происходит множеством способов. Когда я писал «волшебный мозговой сок» я имел в виду мгновенное усиление нейронных маршрутов, которые активизировались и соответствующее ослабление с течением времени всех маршрутов, которые не активизировались. Но происходят и другие вещи. Вы привязываетесь к определенной идентичности. Вы втягиваетесь в ближайший аттрактор в социальной сети. А также:

Экспозиционная терапия это мощный, но неразборчивый инструмент. Вы можете свести любую антипатию практически до нуля просто вновь и вновь осознанно сталкиваясь с ней. Но страхи и антипатий есть в каждом направлении!

Каждое движение, что вы делаете, есть экспозиционная терапия в его направлении.

Именно так.

Каждое осознанное действие подстраивает вашу зону комфорта в его направлении, уничтожая антипатии и уклонения (желанные или нет) на своём пути.

Упс!

Решения

Надеюсь, я убедил вас, что человеческий мозг достаточно поломан, что наши представления о «необновляемом исходном коде» неприменимы и попытка принимать решения через TDT будет в результате сложнее (и может иметь нежелательные побочные эффекты). Что можно сделать?

Во-первых, думаю, что есть смысл инвестировать напрямую в TDT-подобное поведение. Принимайте осознанные решения для подкрепления сущностей, способных принимать и сдерживать обещания. Принимайте более четкие решения и ясно определяйте концептуальные границы. Исследуйте этику добродетели и деонтологию. Блог Зви хорошее место для начала.

В то же время, тренируйте предсказание собственного будущего поведения. Если у вас получится стать своим собственным Омегой, то все задачи, с которыми вы сталкиваетесь, будут казаться вам Ньюкомбианскими. Тогда вам придётся оставить CDT (causal decision theory, каузальная теория принятия решений - прим. перев.) и все проблемы, что она вызывает.

Во-вторых, однажды я предложил модель под названием «сдвиг десяти процентов»:

Сдвиг десяти процентов это мысленный эксперимент, который я успешно внедрил в систему 1, позволяющий формировать долгосрочные привычки вроде «писать в блог каждый день». Он основан на предположении, что каждый следующий ваш выбор на одну тему на 10% легче предыдущего.
Предположим, что существует привычка, которую вы хотите сформировать, например, ходить в зал. Вы рисовали пентаграммы, рассыпали пепел фей, проделали все необходимые ритуалы, дабы определить, что преимущества точно превосходят затраты и не существует лучших альтернатив. И тем не менее, усилие, которое вы совершаете, чтобы ходить в зал каждый день, кажется невыносимым.
Вы тратите 100 единиц силы воли на принесение своего тела в зал в первый день. Теперь, обратите внимание, что волшебный мозговой сок на вашей стороне. На второй день станет немного легче. Вы тратите 90 единиц. На третий день, стоимость решения уже 80.
Используя некоторое количество математики и значительное количество мозгового сока, вы тратите 500 единиц силы воли за первые десять дней и привычка бесплатна на всю оставшуюся жизнь.

Конкретное число не имеет значения, но я рассматриваю эту модель как правильно ослабленную версию TDT: действуйте, как если бы каждое принятое решение награждало вас 10% всех преимуществ постоянного принятия такого решения. Одно решение позволяет потерять только 5 килограммов, поэтому вам потребуется принять десять последовательных решений прежде чем вы сможете пожать все плоды.

Сдвиг десяти процентов охраняет вас от ваших сущностей. Как только вы примете одно и то же решение десять раз подряд, вы примете его в широком спектре состояний сознания и контекст будет отличаться в каждой ситуации. Вероятно вам удастся убедить большую часть своих сущностей согласиться с вашим решение.

Сдвиг десяти процентов также предохраняет против концептуальных фальсификаций. Приняв одно и то же решение из разных ситуаций, концептуальное пространство, собранное из точек данных, будет представлять собой десятимерный регион, который вы сможете однозначным образом определить как условия, которыми вы будете руководствоваться, несмотря ни на что, как вневременную определенность.

Челлендж дня

Этот пост исключительно ориентировочный и теоретический, так что я просто открою комментарии для дискуссии.

  • 1. TDT - Timeless Decision Theory, вневременная теория принятия решений, русскоязычная аббревиатура выглядит некрасиво, потому не переводил - прим. перев.
Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 5 (Всего оценок: 1)

Время молотков, день 20: Дружба

alkjash

Существует серьезный и пугающий феномен, о котором Вэлентайн писал в последнее время: большая часть того, кем вы являетесь, существует (или выражается) только в присутствии других людей. Говоря словами епископа Беркли «esse est percipi» или «существовать значит быть воспринятым». Время молотков навсегда останется незаконченным предприятием, если не будет применено к социальному аспекту - огромные куски психики доступны только в этом аспекте.

До сих пор, время молотков рассматривалось большей частью как набор инструментов для отдельного рационалиста в социальном вакууме. Сегодня я хочу поговорить о вопросе других людей и как подходить к дизайну социальных взаимодействий, способствующих практике инструментальной рациональности.

День 20: Дружба

Дополнительное чтение: Разумная социальная сеть

Существует достаточно свидетельств в биологии, что мощь человеческого мозга в значительной степени развивалась для решения всё усложняющихся социальных задач. Большая часть когнитивных систем в голове главным образом предназначена для взаимодействия с обществом и лучше всего реагирует на него. Мозги исключительно хороши в определении социальных угроз и аномалий, в регулировании неявной иерархии, в чтении языка тела и в симуляции чужих мозгов.

Этот пост будет началом в дизайне оптимальных взаимодействий двух людей.

Повторяющиеся игры

Рационалисты проводят много времени, высказываясь против недостатков каузальной теории принятия решений и продвигая альтернативы, позволяющие их избежать. Неприятная правда, при этом, заключается в том, что вы не заставите людей, пользующихся каузальной теорией принятия решений сотрудничать с вами, швыряя в них философскими книгами, а большинство людей пользуются каузальной теорией принятия решений. Но надежда ещё есть: известны, хоть и непопулярны, решения для провалов координации в рамках каузальной теории принятия решений - повторяющиеся игры.

Повторение самый легкий способ к построению крепкой дружбы - делайте взаимодействие длиннее и регулярнее.

В середине января, я начал связываться с друзьями и назначать регулярные еженедельные чаты. Почти никто не отказался. Некоторое количество затем растворились, но те, что остались, оказались невероятно положительными. Я продолжил набирать обороты в количестве взаимодействий до тех пор, пока не почувствовал утомление. Сегодня эта привычка сама по себе позволяет разговаривать с одним дополнительным человеком в день по полтора часа.

Человеческие существа невероятно отзывчивые создания в стабильных долгосрочных отношениях. Стимулы довольно устойчивы. Джордан Питерсон однажды подчеркнул это содержательной фразой о браке (перефразировано): «Вы не можете выиграть в споре со своей женой, если она при этом проиграет. В конце концов, вам всё ещё надо будет с ней жить.»

Конечно, человеческие существа также довольно глупы и извращены, чтобы игнорировать даже самые сильные стимулы. Сколько миллионов браков на всю жизнь превращались в десятилетия насилия? Держите глаза открытыми.

Разговоры 101

Вот вам три идеи для полезных разговоров на объектном уровне.

Уточка Сократа

Резиновая уточка
Превращение человека в резиновую уточку, которой вы можете проговаривать свои мысли, чтобы самому лучше их понять.

Уточка Сократа
Помощь партнеру в продумывании идеи или решении задачи. Объединяет метод вопросов Сократа и резиновую уточку. Сделайте попытку не предлагать множество решений и мыслей, а вместо этого переключаться между наводящими вопросами и внимательным молчанием. Поощряйте другого человека продумывать сложные цепочки мыслей, а также глубже задумываться о трудностях своих идей и возможных решениях.

Зачастую в разговорах присутствуют ярко выраженные слушатель и говорящий. Будучи слушателям, сосредоточьтесь главным образом на внимательной тишине и направленных, уточняющих вопросах, когда разговор покажется вам угасающим. Основная задача - держать вашего партнера на линии мысли и помогать генерировать идеи.

Один мой друг способствовал гигантскому скачку во время моей сессии факторизации избеганий, молча кивая на протяжении всего разговора и произнося в нужные моменты всего одно слово: «попробуй!». Это позволило мне сосредоточить необходимые мыслительные усилия, чтобы пробиться через барьер и правильно определить свои антипатии по отношению к планированию.

ИТТ

Идеологический тест Тьюринга это концепция, изобретенная американским экономистом Брайаном Капланом для проверки, понимает ли некий политический или идеологический приверженец аргументы его или её интеллектуальных противников: его просят ответить на вопросы или написать эссе с точки зрения его оппонента. Если нейтральный судья не сможет найти разницу между его ответами и действительным приверженцем противоположной стороны, то считается, что он её корректно понимает.

Интеллектуальные (Идеологические?) тесты Тьюринга или ИТТ могут быть довольно трудозатратными. Сокращенная норма для разговора такова: вам не позволено продолжать спор до тех пор, пока вы точно не пересказали точку зрения другого человека так, чтобы он остался доволен.

Кроличьи норы

Обсуждения могут уходить с темы довольно быстро и уже достаточно хорошо установлен факт, что все разговоры после полуночи скатываются в дебаты о сознании.

Что касается онлайн обсуждений, я завел себе привычку собирать все возможные взгляды на лист бумаги, когда они приходят на ум, вместо того, чтобы незамедлительно вбрасывать их в топку, рискуя потерять мысль. Всегда найдётся время позднее для ваших замечательных взглядов.

Поставьте Йода-таймер и отработайте следующий ПТД: когда возникнет побочная тема для обсуждения, вы спросите себя, хотите ли вы спуститься в эту кроличью нору.

Челлендж дня

Забронируйте 15 или 30 минут на Calendly для разговора со мной на любую тему.

Перевод: 
sepremento
Аудио: 
Оцените качество перевода: 
Средняя оценка: 5 (5 votes)

Время молотков, день 21: Охота за багами 3

alkjash

Я взял долгий перерыв от времени молотков, чтобы обратиться к фундаментальному вопросу: действительно ли я сейчас лучше в достижении своих целей?

Ответом является твердое да. Задачи, которые раньше обитали в категории «не в моих силах» растворились облачками зловредного дыма. Написание статей происходит само собой. Полторы тысячи слов сносного художественного текста пишется каждый день. Впервые в моей жизни я живу в разумно декорированной комнате, по которой действительно скучаю, если выезжаю. Я чувствую себя как колдун рациональности:

Появляется высокоуровневый демон избеганий… Ха! С силой ФОКУСИРОВАНИЯ я разгадаю твоё истинное имя, Демон!

«Регуляция Статуса, изыди!»

Этот раздел кажется невозможно написать…

Я знаю! Я сделаю его за ПЯТЬ МИНУТ!

Понятия не имею, в чем моя проблема…

Без паники! Я разнесу её магией ДРУЖБЫ!

Ты застрял в прохождении квеста спасения мира…

Пробовал ли ты УДАЛИТЬ ТРИВИАЛЬНЫЕ НЕУДОБСТВА?

Если вы читаете время молотков просто ради моего ослепительного остроумия, это совершенно нормально! Просто помните, что эти техники могут также помочь вам достичь своих целей, если вы дадите им шанс.

Время молотков: третий цикл

Дважды и трижды повторю, как говорят, хорошо повторять и осмыслять то, что хорошо.
~Платон

В третьем цикле будет десять дней обзоров. Каждый день, мы будем пытаться вычленить объединяющие мета-принципы, стоящие за техниками, доводя их (и все другие) до границ их мощности. Вот ориентировочное расписание:

  1. Охота за багами 3
  2. Йода-таймеры 3: Скорость
  3. ПТД 3: Редукционизм
  4. Дизайн 3: Намеренность
  5. РаЗоК 3: Эмпирицизм
  6. Тройки роста
  7. Внутренний корень разногласий: Дуальность
  8. Фокусирование 2: Слияние
  9. Мёрфиджитсу 2: Скромность
  10. TDT 2: Пост-консеквенциализм

День 21: Охота на баги 3

Сегодня мы вернемся к охоте на баги с тремя дополнительными подсказками для поиска самых больших узких мест в вашей жизни. После чтения каждого подраздела, поставьте Йода-таймер и устройте мозговой штурм поиска багов.

Порабощение

Мир хочет вас поработить. Социальные сети. Капитализм. Ваша работа. Ваша семья. Ваши друзья. Ваши увлечения. Все хотят вашего времени, денег и внимания. Как вы можете избежать постоянного порабощения?

Умеете ли вы говорить нет? Если вы не можете сбежать, вы легкая добыча. Вещи часто хуже, чем кажутся. Вещи ухудшаются с течением времени. Вещи хотят всё большую и большую часть вашей души. Не существует такого понятия, как часок поиграть в Цивку. Сбегайте. Вы не обязаны отдавать всё кому-либо.

Знаете ли вы как расставлять границы? Некоторые дела имеют ценность, только если можно провести черту необходимости. Выделяйте бюджет. Или ставьте таймер. Проводите линии и удерживайте их, как будто ваша жизнь зависит от них.

Задачи Хэмминга

Дополнительное чтение: Тревожная неуверенность в себе и регуляция статуса

Какие задачи являются важными в вашей сфере деятельности?
Над какими задачами вы работаете?
Если то, что вы делаете, не является важным, и если вы не думаете, что это приведёт к чему-то важному, то почему вы работаете над этим?
~Ричард Хэмминг

Можно использовать постепенный подход: существуют ли слегка более важные задачи, над которыми можно было бы поработать? Почему вы над ними не работаете?

Тревожная неуверенность в себе является артефактом, доставшемся нам от предков, когда каждая неудача оказывалась роковой. Есть ли у вас тревожная неуверенность в себе? Как часто вы проваливали серьёзное предприятие в прошлом году? Не пытайтесь максимизировать процент побед. Максимизируйте общее число побед. Именно оно идёт в зачёт.

Используете ли вы статус как замену компетентности? Верите ли вы, что только люди с должностями, богатством, возрастом или социальным капиталом имеют право работать над важными задачами? Является ли ваша оценка собственных способностей функцией от восприятия вас другими людьми?

Проваливайте дела изящно, а побеждайте дольше

Дополнительное чтение: Провал с отказом

Есть такая китайская поговорка 破罐子破摔, что значит: «все равно что ударить разбитый горшок». Провал с отказом это разбить в сердцах горшок с небольшой трещиной. «Да он мне всё равно не нравился!» 1

Применимо к вам?

Провал с отказом игнорирует тот факт, что функции полезности обычно непрерывны. Небольшой провал это нормально. Остановитесь на нём. Кое-что лучше, чем ничего.

Провал с отказом сводит на нет ценный познавательный опыт. Если последняя домашняя работа не смогла добыть вам хорошую оценку, приложите ли вы те же самые усилия в дальнейшем? Если вы отстаете на 20 очков в игре Го, будете ли вы всё равно стараться изо всех сил? Или будете работать спустя рукава? Жизнь это сложная игра с повторением, провалы с отказом лишают вас будущего.

С другой стороны, довольствуетесь ли вы малым? Прикладываете ли вы самый минимум усилий для получения нужного среднего балла? Как только добиваетесь цели, вы тут же бежите праздновать? Если у вас преимущество в 20 очков в игре Го, то вы используете неправильные, но безопасные ходы, чтобы обеспечить сохранность победы? Быть удовлетворенным минимумом значит пропустить возможность для реализации своего потенциала.

Провал с отказом и удовлетворение малым оба сами по себе являются симптомами близорукого гиперболического дисконтирования.

Вместо этого проваливайте дела изящно, а побеждайте дольше.

Челлендж дня

Стали ли вы лучше в достижении своих целей с первого дня времени молотков? Если да, то что помогло?

  • 1. из контекста непонятно, но речь идёт о ситуациях, когда, например, вы решили потреблять по 2000 ккал в день, затем в какой-то момент вы обнаруживаете, что съели 2300 ккал за день и решаете «да ну и гори оно всё, всё равно уже смазал картину, пойду съем бургер, торт и запью колой». Таким образом вы провалили свой отказ - прим. перев.
Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 5 (Всего оценок: 1)

Время молотков, день 22: Йода-таймеры 3

alkjash

В какой-то момент ближе к концу старшей школы быть быстрым становится не престижно. Как это происходит?

Почему мы переводим так много энергии в выполнении более сложных дел, вместо того, чтобы делать простые дела быстрее? Насколько быстрее вы могли бы выполнять свою работу? В два раза быстрее? В пять раз?

Вместо фразы «я хочу быть сильнее» скажите «я хочу быть быстрее».

Если вы уделите внимание скорости, вы можете обнаружить способ выполнить объем работы целой недели за пять минут.

День 22: Скорость

Вот три упражнения для умственной работы в форсированном режиме.

  1. Typeracer (Клавогонки). Поиграйте в эту игру пять минут. Насколько быстрее вы стали печатать? Чему научились?
  2. Посмотрите выступление на YouTube на 2х в течение пяти минут. Если у вас возникнут проблемы с отслеживанием речи, включите субтитры. Обратите внимание, что это возможно.
  3. Арифметика. Сыграйте три раунда со стандартными настройками. Насколько быстрее вы стали?

А вот три принципа, которые я извлек из использования Йода-таймеров, делая все дела быстрее.

Ошибки фатальны

Когда я начал играть в Клавогонки, начал со скромных 70 слов в минуту и развил скорость до 90, просто стараясь изо всех сил. В какой-то момент я достиг плато, потому что постоянно делал опечатки и приходилось исправляться. Каждая ошибка стоит времени четырех или пяти символов. Клавиша backspace была моей Ахиллесовой пятой.

Поэтому я заставил себя притормозить и сделать всё правильно. Вначале это снизило мою скорость, но, проделав некоторую работу, мои пальцы ощутили себя более проворными и намеренными. Я сократил количество опечаток примерно в 4 раза - оказалось, что у меня есть целые последовательности клавиш, которые я постоянно нажимал в неправильном порядке. Моя скорость печати взлетела до 120 слов в минуту.

В реальной жизни ошибки стоят даже дороже. Заболеть стоит гораздо дороже, чем следить за своей гигиеной. В программировании все знают, что тестирование и отладка занимает по меньшей мере в три раза дольше, чем написание кода само по себе. В математике месяцы написания статей могут уйти в трубу, когда вы наконец обнаруживаете значимый и неисправимый косяк в логике. На Олимпиаде каждая ошибка стоит вам медали.

Если вы хотите быть быстрее, вам необходима нулевая терпимость даже к самым мелким ошибкам, а замедление (вначале) для отработки перфекционизма стоит своих усилий. Сделайте всё правильно вначале.

Скоростные ограничения находятся в сознании

У каждого есть грубое представление о продолжительности дел. Решение сложной исследовательской задачи всегда занимает по меньшей мере месяц, правильно? Написание статьи должно занимать примерно час, верно?

Когда я впервые начал играть в арифметику для чемпионатов средней школы, мой результат был близок к 20. После нескольких месяцев сосредоточенных тренировок мой рекорд составил 90, выводя меня в список лидеров того времени.

В каждом отдельном задании предполагайте, что вы даже близко не подходите к своему реальному скоростному ограничению. Раньше мне требовалось по меньшей мере четыре часа, чтобы написать пост в блог такой длины. Теперь уходит меньше сорока минут.

Скорость проще силы

В интеллектуальной работе гораздо проще сделать что-либо в два раза быстрее, чем в два раза лучше. Гораздо проще умножать числа в два раза быстрее, чем научиться решать более сложные задачи. Гораздо проще написать в два раза больше контента, чем написать в два раза лучше.

Человеческие существа очень хороши в доведении рутинных задач до максимальной эффективности. Воспользуйтесь этим. Научитесь читать в два раза быстрее, писать в два раза быстрее, говорить в два раза быстрее, ходить в два раза быстрее, смотреть видео в два раза быстрее. Я смотрю видео на двойной скорости сколько себя помню и уже даже не могу вытерпеть обычную скорость. Как только вы привыкнете к быстроте, вы сможете пожать всю ту свободную энергию, которая просто лежала нетронутой, пока вы ждали.

Скорость недооценена. Короткие тренировочные сессии, сосредоточенные на скорости произведут длительные эффекты на вашу продуктивность.

Челлендж дня

Поделитесь скоростным рекордом, которым вы гордитесь больше всего. Быстрота вновь стала в моде!

Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 5 (3 votes)

Время молотков, день 23: ПТД 3

alkjash

В школе мы проводим тысячи часов, изучая кирпичики, из которых создана Вселенная. Мы узнаем, что реальность раскладывается на маленькие кусочки: организмы на клетки, книги на страницы, небоскребы на атомы.

Ваша жизнь находится внутри этой бесконечно делимой реальности. Ваша психика разделяется на сущности, эмоции на квалии, действия на цели и антипатии, привычки на ПТД. Фактически всё, что мы воспринимаем как объекты, оказывается обычно паттернами взаимодействия между множеством крохотных кусочков.

День 23: Редукционизм

Планы триггеров-действий являются кирпичиками привычек - все привычки могут быть созданы из простых шагов.

Я хочу поделиться моделью, объясняющей, почему так важно разбивать действия на шаги при помощи редукционизма.

Пересказанный парадокс Зенона

Старый парадокс Зенона звучит так:

Чтобы пробежать дистанцию, нужно вначале пробежать первую половину. Но перед тем, как пробежать первую половину, нужно пробежать первую четверть. А перед этим нужно пробежать первую восьмую часть и так далее до бесконечности. Таким образом, разделив пополам первый сегмент, любая дистанция разделяется на бесконечное число частей и для завершения гонки вам нужно предпринять бесконечное число действий.

Чему мы можем научиться из парадокса Зенона?

Из бесконечного количества шагов на пути, первый шаг представляет собой практически все остальные. Отсюда следует, что первый шаг на дистанции бесконечно более сложный, чем любой другой далее.

Метод истощения

Из парадокса Зенона можно вывести алгоритм деконструирования задач:

  1. Выберите действие
  2. Разделите его пополам. Сосредоточьтесь на первой половине
  3. Повторите до истощения

Например, я хочу разобрать действие «написать пост в блог» в восходящем порядке сложности:

  1. Сделай глубокий вдох.
  2. Визуализируй успех мероприятия.
  3. Включи компьютер.
  4. Открой Chrome.
  5. Залогинься.
  6. Напиши букву.
  7. Напиши слово.
  8. Напиши предложение.
  9. Напиши абзац.
  10. Напиши раздел.
  11. Напиши пост.
  12. Нажми «опубликовать».
    После завершения метода истощения сделать само действие становится гораздо проще. Заметьте, что несмотря на то, что я написал только примерно треть поста, я уже завершил 10.5/12 шагов в рабочем процессе.

Я почти закончил!

Шаги равной сложности

Можно подумать, что в прошлом абзаце я скатился в самообман.

Неа.

Я полностью серьёзен.

Пройдитесь по всему процессу написания постов в блог (если это дело для вас не содержит антипатий, выберите любое другое дело, с которым вы прокрастинируете и примените метод истощения к нему) и заметьте, какое ментальное сопротивление вы прикладываете для преодоления каждого шага в том 12-шаговом процессе. Также обратите внимание, насколько вероятно, что вы сдадитесь на каждом шаге.

Обычный метод планирования заключается в разбиении дела на блоки одинакового размера, где под размером понимается «время и усилия в объективной реальности». Обратитесь ко всем планам, которые вы когда-либо делали в своей жизни. Сколько из них провалилось в самом начале? Сколько провалилось ближе к середине? Сколько провалилось ближе к самому концу?

Большая часть планов проваливается ещё до того, как начнут реализовываться. Из тех, что начинают реализовываться, большая часть проваливается на первых же этапах.

Вы живёте не в объективной реальности. Вы живёте в сумасшедшем мире Зенона, где первый шаг бесконечно сложен. Метод истощения создан таким образом, чтобы разобрать задачу на шаги примерно одинаковой психологической сложности и частоте провалов.

Упражнение: Примените метод истощения к следующему большому проекту. На сколько частей вы его разобьёте?

Челлендж дня

Поделитесь анекдотическими историями или данными, сколько времени требуется [намерениям, проектам, планам, отношениям, карьерам, стартапам], чтобы провалиться. Как выглядят полученные кривые?

Перевод: 
sepremento
Аудио: 
Оцените качество перевода: 
Средняя оценка: 5 (4 votes)

Время молотков, день 24: Дизайн 3

alkjash

Намерения мгновенны, но проблемы вечны

Внимание человека порхает подобно Римскому богу Меркурию, от которого происходит однокоренное английское слово «mercurial» - подлежащий неожиданным и непредсказуемым переменам настроения или сознания. Самые большие задачи в жизни требуют сосредоточенных усилий на протяжении лет или десятилетий, но вы можете напрячь силу воли лишь только, чтобы вознамериться решать проблему в течение минут или часов. Хуже того, вы можете поддерживать лишь одно намерение в единицу времени.

Так как же нам учитывать наши намерения?

Философия Дизайна в следующем: встраивайте ваши намерения в окружающую реальность. Подобно вашим проблемам, реальность тоже вечна.

День 24: Намеренность

Вам нужно сбросить оковы любви. Ваш список литературы всё увеличивается. Вам нужно выучить десять разных языков программирования. Нужно ложиться спать на три часа раньше. Нужно поддерживать дружеские связи. Вы пытаетесь жонглировать тремя разными аддикциями, которые последовательно монопольно захватывают вашу жизнь. Нужно представать в виде зрелой личности вашим родителям и коллегам. Детская травма, которую вы подавляете, не оставляет возможности подружиться с доброй половиной человечества.

У вас множество проблем, каждая из которых для разрешения требует направленных усилий и работы мысли. Более того, каждая проблема усложняется по мере того, как вы работаете над другими. Возможно, некоторые зашли уже так далеко, что на них невозможно смотреть и они медленно поглощают остатки вашей жизни, подобно сверхтяжелой черной дыре.

В эту минуту существуют, вероятно, только небольшое количество задач, выглядящих достаточно решаемыми, чтобы вкладывать в них энергию. Из них вы можете работать только над одной за раз. Как вам реализовать максимум своих намерений в этом сумасшедшем бесчестном мире?

Аутсорсинг тягот

Непродуктивный стиль мышления выглядит так:

«Если бы я был по-настоящему рациональным, мне бы не потребовались все эти костыли. Мне не потребовались бы расширения для Chrome, чтобы блокировать Facebook и Twitter, друзья, которые бы хвалили меня за минимальный прогресс и SSRI1, чтобы держать в узде моих внутренних демонов. Я бы всё всегда делал правильно.»

Бросьте это. Возможно, есть какая-то эстетика в усложнении своего положения, но так проблемы не решаются. Жизнь сложна и несправедлива, поэтому вам потребуется вся доступная помощь, если вы хотите получить шанс на успех.

Часть философии Дизайна в позволении себе отдать на аутсорс свою героическую ношу. В одиночку вы этот квест не пройдёте. Сделайте все неодушевленные и одушевленные объекты в своей жизни помощниками в этом квесте, а не препятствиями. Каждый маленький толчок в правильном направлении, который возможно получить извне, позволит вам сохранить одно маленькое усилие, которое нужно было бы создать изнутри.

Градиенты стимулов

Мир полон маленьких градиентов стимулов, которые медленно толкают вас в направлении локального оптимума. Поищите и обратите внимание, на эти градиенты, чтобы их можно было обратить в вашу пользу. Мельчайший сдвиг весов в нужном направлении способен работать на вас в долгосрочной перспективе.

На практике сосредоточимся на 4S Дизайна. Мы это уже рассматривали, но будет не лишним освежить в памяти.

Пространство (Space). Как ваше окружение позволяет вам достигать ваших целей? Ваше рабочее место максимально комфортно и хорошо освещено? Предметы, которые необходимы вам для рутинных дел расположены в оптимальных местах? Эстетика пространство адекватно отражает ваши ценности? Способствует ли оно продуктивному социальному взаимодействию?

Расписания (Schedules). Как вы организуете время и энергию на протяжении дней и недель? Вы лучше работаете чередуя разные виды активности или собирая похожие виды в группы? Вы планируете дела так, что вам хочется смотреть в будущее? Вы эффективно используете календари и приложения для удаления умственной нагрузки и удержания дел в памяти? Следуете ли вы своим планам?

Общество (Social Groups). Ваши друзья вознаграждают вас за прогресс? Наказывают ли они вас за неудачи? В любой социальной группе каждый человек неизбежно занимает какую-то нишу: тихоня, альфа, клоун, чирлидер, циник. Какую нишу вы занимаете? Какие силы вас туда толкают? Там ли вы хотите быть?

Экраны (Screens). Учитывая, сколько времени мы проводим за экранами, а также все те Макиавеллианские действия, предпринимаемые всеми и каждым в интернете, дабы поработить нашу душу, обращайте внимание на свои компьютерные привычки. Бегло обрисуйте граф своих перемещений между приложениями и сайтами. Какие причины ведут вас от одного места к другому? В каких местах вы уходите в сторону максимально часто?

Станьте добрыми стимулами для других

Вчера мне было видение о лучшей форме дружбы:

Два маленьких мальчика хотят летать. Каждый ползает по траве в углу игровой площадке, изо всех сил натягивая свои шнурки, пытаясь поднять себя в воздух. Они тянут до вздутия вен на лбах, но маленькие ботиночки продолжают оставаться твёрдо прижатыми к земле.

Один из мальчиков замечает другого и подходит. После момента молчания, каждый бросает свои шнурки, руки переплетаются и они начинают вытягивать за шнурки друг друга. Стараясь изо всех сил, они поднимаются в воздух. Они улетают вверх всё быстрее и быстрее. Пока желтая горка для игр не становится размером с мизинец. Пока красная кирпичная школа не становится размером с муравья. Пока Земля не становится размером с каплю воды.

Научитесь предоставлять хорошие стимулы людям вокруг вас. Если малейший толчок, совершаемый на регулярной основе, может решить ваши проблемы, то похожий толчок может помочь решить проблемы другим. А малейший толчок в неправильном направлении может повредить самые чистые из душ. Внимательно посмотрите на способы, которыми вы взаимодействуете с другими людьми и что они говорят о ваших намерениях по отношению к ним. Существуют ли люди, рядом с которыми вам всегда приходится играть адвоката дьявола? Существуют ли ситуации, где вы намеренно вводите в заблуждение, манипулируете или игнорируете?

Смейтесь хорошим шуткам. Научитесь слушать и уважать чужое пространство. Хвалите и благодарите за конкретные действия. Критикуйте как консеквенциалист.

Челлендж дня

Похвалите меня за одну вещь, сделанную хорошо во времени молотков и покритикуйте за одну, сделанную плохо.

  • 1. SSRI - selective serotonin reuptake inhibitor, селективные ингибиторы обратного захвата серотонина - прим. перев.
Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 5 (2 votes)

Время молотков, день 25: РаЗоК 3

alkjash

Мальчик справа везде походил. У мальчика слева есть карта. За кого ты выйдешь замуж?
~За кого

Иногда мне думается, что наибольшая ценность экспериментов РаЗоК заключается не в расширении зоны комфорта, но в исследовательском отношении, передаваемом ими. Хороший картограф должен постоянно сверяться с территорией; хитрость в том, чтобы понять, как.

День 25: Эмпирицизм

Зона комфорта есть область в вашем окружении, которую вы понимаете. Она содержит места, которые вы посещаете, навыки, которые вы отработали, людей, которых вы хорошо знаете. Чем дальше вы уходите от своей зоны комфорта, тем к большему количеству неизвестного вы должны подготовиться. Границы зоны комфорта созданы для вашей защиты от этих опасностей: от неизвестного неизвестного.

Слишком консервативные границы

Границы зон комфорта прочерчиваются очень консервативно. В окружающей среде наших предков ошибки были часто фатальны: неудача на охоте, проигрыш на дуэли. Даже не фатальные ошибки были по сути таковыми: унижение перед всем племенем длилось продолжительное время, а вам некуда было бежать. В этом окружении было разумно прочерчивать линии зоны комфорта консервативно, поскольку неудача стоила слишком дорого, чтобы проверять.

Как выглядит научный прогресс в таком преисполненном опасности мире? Представьте, что каждый раз, когда научный эксперимент проваливается, экспериментатор расплачивается жизнью. Наука развивалась бы гораздо медленнее, если бы вообще развивалась.

Но наш мир больше не такой опасный, как окружение наших предков. Люди живут дольше, они здоровее и гораздо более мобильны в отношении разных сообществ. В то же время стало гораздо больше благоприятных возможностей вне наших зон комфорта и вознаграждения гораздо щедрее. Это как раз благоприятные условия для научного метода и у нас есть причина использовать силу эмпирицизма в форме экспериментов РаЗоК - проверка своих границ.

Научное отчуждение

Важно осознать, что зона комфорта является частью вашей карты. Иными словами, с её помощью делаются проверяемые предсказания о территории. Ваш страх сцены выражает проверяемое предсказание об ужасе переживания публичного выступления и о количестве необратимых повреждений, которое придётся пережить, совершив ошибку. Страх высоты указывает на проверяемое предсказание о вероятности упасть с высокой лестницы без поддержки.

Как только станет понятно, что эмоциональное избегание, формирующее границы вашей зоны комфорта построено на основе убеждений о действительности, следующим логичным шагом будет организация дешёвых, безопасных способов проверить эти убеждения.

Я желаю верить в то, что истинно.

Обычно оказывается, что границы зоны комфорта слишком упрощенные и консервативные, и существуют очевидные способы обойти их без неприятностей.

Микроэксперименты

Одно из главных откровений, полученных мною при чтении «Неадекватного равновесия» (Inadequate Equilibria), это что скромность в форме регулирования статуса и тревожной неуверенности является одной из самых высоких оград вашей зоны комфорта. В том посте Элиезер предлагает следующую рекомендацию, которую нельзя повторить слишком много раз:

Не делайте предположений о невозможности сделать что-либо, когда существует дешёвый способ проверить свою возможность это сделать.

Не делайте предположений, что люди будут думать о вас плохо, когда есть дешёвый способ проверить это убеждение.

Зона комфорта это набор убеждений о реальности. Проверяйте эти убеждения.

По крайней мере выделите пять минут и попытайтесь придумать дешёвый эксперимент, тестирующий эти ваши убеждения. Например, моя повесть «Квест Мёрфи» стала дешёвым способом проверки предсказанного системой 1 утверждения, что я плох в создании художественных текстов.

Создавайте дешёвые эксперименты, тестирующие ваши страхи.

Вы боитесь, что ваши идеи будут плохо восприняты? Создайте анонимный аккаунт и выложите самые мягкие их формы.

Давайте я ещё раз повторю совет Элиезера:

Не делайте предположений о невозможности сделать что-либо, когда существует дешёвый способ проверить свою возможность это сделать.

Не делайте предположений, что люди будут думать о вас плохо, когда есть дешёвый способ проверить это убеждение.

И ещё раз.

Не делайте предположений о невозможности сделать что-либо, когда существует дешёвый способ проверить свою возможность это сделать.

Не делайте предположений, что люди будут думать о вас плохо, когда есть дешёвый способ проверить это убеждение.

Упражнение

Выберите что-либо, что, как вам кажется, вы не способны делать, но не проверяли. Поставьте Йода-таймер и придумайте простой эксперимент для проверки этого убеждения.

Выберите человека, о котором вы думаете, что он низко вас оценивает. Проверьте это своё убеждение.

Челлендж дня

Поделитесь опытом радикальной недооценки или переоценки своих способностей.

Перевод: 
sepremento
Аудио: 
Оцените качество перевода: 
Средняя оценка: 5 (3 votes)

Время молотков, день 26: Тишина

alkjash

满罐子水不响,半罐子水响叮当
Полная банка тиха, но неполная банка производит громкий звук
~Китайская поговорка

Возьмите банку газировки, наполните её наполовину водой. Встряхните банку - вода будет громко плескаться внутри.

Теперь, заполните банку до краев и вновь встряхните. Она будет почти абсолютно тихой.

Существует эссе о внутренней тишине - успокоение самых громких внутренних голосов, чтобы позволить прозвучать более тихим голосам. Обычно у тихих голосов есть срочные сообщение, особенно учитывая, как долго ими пренебрегали.

Этот пост в некотором смысле является продолжением лепета.

Океан голосов

Хорошо известно, что громкий политик редко бывает наиболее мудрым. Ребёнок, который громче всех кричит редко страдает больше остальных. Друг, который суровее остальных критикует редко даёт наилучшие советы. Да и вообще, громкость голоса скорее отрицательно коррелирует с ценностью.

Принцип солитера утверждает, что любой режим отказа групп людей можно перенести на каждого отдельного человека. Дюжина субличностей дерутся за контроль над вашим разумом, каждый пытается в своём крике потопить остальных. Возможно, что только одному или двум из них осознанно дозволено говорить.

Ситуация усложняется ещё двумя особенностями. Во-первых, голоса молчат не просто так. Мозг делает множество вещей, о которых он не хочет, чтобы вы знали (см. Elephant in the Brain). Эти «мета-когнитивные слепые зоны» могут быть огромными проблемами вашей жизни, о которых вы почему-то никогда не задумывались. Каждый раз, когда вы начинаете задумываться, вы неожиданно чувствуете сонливость, либо возникают срочные дела. Ваш мозг посылает армию громких голосов, чтобы захлопать тихий элемент замешательства, шепчущий: «Посмотри на слона! Признай этого слона!»

Во-вторых, внешние голоса также соревнуются за эфирное время в вашей голове и могут легко потопить даже самые сильные внутренние голоса, существует, например, феномен «музыка настолько громкая, что я не слышу своих мыслей». Любые виды чтения, слушания и просмотра это процессы, которыми мы подменяем внутренние голоса внешними.

Этот пост о том, как соблазнительно, но опасно позволять внешним голосам заглушить внутренние раз и навсегда.

Тяжкая ноша сознания

Есть несколько занятий, которые раз за разом поглощают моё время подобно бездонным ямам. Видеоигры. Просмотр аниме. Чтение художественной литературы. Серф по Reddit. Я ощущаю необходимость время от времени бросаться в эти пучины.

Долгое время я считал, что эти действия являлись извращениями вкуса: мой мозг пытался удовлетворить какие-то потребности к прогрессу, саморазвитию, драме или энергии. Но затем я попробовал вздремнуть вместо просмотра аниме и удовлетворил ту же самую потребность. Оказалось, что в первую очередь я искал кнопку перемотки вперед.

Жить осознанно и намеренно оказалось настолько трудозатратно, встретить свои проблемы лицом к лицу оказалось настолько болезненно, что больше всего мне хотелось выключить свои собственные мысли и прокрутить жизнь вперед. Прочитать роман на тысячу страниц, просмотреть сериал на шесть сезонов, полистать сотню историй из жизни с AskReddit. Всегда был способ отложить свою агентность и стать средой для чьих-то чужих сил.

В итоге, ответственная извилина в моей голове сделала всё возможное, чтобы отключить саму себя.

Воля к ничему (The Will to Nothingness)

Книга Мэрилинн Робинсон «Уборка» (Housekeeping by Marilynne Robinson) по-моему наиболее трогательно описывает тяжкую ношу осознанности (я её почти не рекомендую). Это угнетающая история, в которой каждый персонаж находится на грани суицида, в философском и буквальном смыслах.

Вот момент, в котором сестра главного героя Люсиль обвиняется в списывании (выделено мною):

Люсиль было слишком наплевать на школу, чтобы списывать и только злая судьба подтолкнула её написать Симон Боливар также, как и девочку впереди неё написать Симон Боливар, когда ответом, очевидно был генерал Санта Анна. Это была единственная ошибка, которую сделала каждая из них, поэтому работы оказались одинаковыми. Люсиль была изумлена, что учитель так легко поверил в её вину, настолько глубоко убедился в ней, выставляя её перед всем классом и заставляя взять на себя ответственность за одинаковые работы. Люсиль страдала от такого нарушения своей анонимности. От самой мысли о школе уши начинали гореть.

Этот эпизод прояснил для меня конкретный вид ничего, к которому стремились герои Housekeeping. Апатия, конформность и анонимность были центральными в этом виде ничего, а суицид был вытекающей следом мыслью.

Продолжая за Ницше (которого я наверное никогда не пойму) назовём это стремление волей к ничему. Звучит это так:

Позвольте мне не быть услышанным.
Позвольте мне не быть увиденным.
Заберите мою агентность.
Заглушите мой голос.
Перемотайте вперед мою жизнь.
Позвольте мне быть неразличимым лицом в толпе.
Не позволяйте рассвету принести мне счастье.
И закату - печаль.

Откуда берётся стремление к несуществованию? Частично из тревожности, что вам нечего сказать, что вы слишком сломаны, чтобы сделать свой вклад. Частично из горечи, что мир недостоин услышать ваш голос и увидеть ваше лицо. Сам факт, что эти две противоречащие друг другу идеи сосуществуют в одной душе мог бы удивить, если бы вы никогда не встречали людей.

Тишина это лекарство от нигилизма?

Не буду притворяться, что знаю, как решить эту задачу в общем случае, но вот, что сработало для меня. Один мой прозорливый друг задал мне вопрос, который отряхнул меня от стремления к ничему:

«Что если каждый раз, когда тебе хотелось бы поиграть в видеоигры, ты обращался бы к интроспекции?»

Мне никогда не приходило в голову что я могу выделить время для своих внутренних голосов, заставляя мир замолчать полностью, даже несмотря на любовь к писательству, на часы, проведённые в грёзах и бессмысленных действиях при любой возможности.

Неделями после того дня я совершал длительные прогулки, бурча себе под нос всякую бессмыслицу. Я лежал в кровати и мечтал. Я часами писал без остановки. За это время я осознал, что моё стремление к ничему было неоправданным. Я осознал, что у моих внутренних голосов никогда не иссякнут темы для разговора. Позже, я также осознал, что мир достоин всего, что я могу ему дать, и даже больше.

Всмотритесь в свою жизнь. Чем вы занимаетесь, чтобы сбросить тяжкую ношу осознанности? Вы тянетесь за телефоном во время скучных общественных мероприятий? Курите или пьёте? Бросаетесь в истории, имеющие небольшую художественную ценность лишь бы убить время?

Что произошло бы, если каждый раз вместо этого, вы бы занимались интроспекцией?

Перевод: 
sepremento
Аудио: 
Оцените качество перевода: 
Средняя оценка: 5 (3 votes)

Время молотков, день 27: Внутренний корень разногласия

alkjash

Фокусирование это инструмент для обработки сообщений, которые субличности в вашем подсознании пытаются до вас донести. Но что произойдёт, если два или более таких сообщений будут конфликтовать друг с другом?

Внутренний корень разногласия (ВКР) от CFAR решает эту задачу. Грубо говоря, это сценарий для поочередных операций фокусирования двух конфликтующих внутренних голосов с целью предоставления им пространства для дебатов и компромисса. Что-то вроде парной психотерапии для внутренних голосов.

День 27: Внутренний корень разногласия

Мне было особенно трудно писать этот пост, поэтому я просто обращусь к сценарию CFAR. Затем перечислю список моментов, которые я хотел бы особо отметить как часто пропускаемые.

Также возможно, что моя версия это вовсе не тот ВКР, который имели в виду в CFAR - в таком случае я заявляю, что мой метод также полезен.

Алгоритм ВКР

Вот полный сценарий для ВКР. Лучше всего взять ручку и бумагу и прописывать каждый шаг, как будто бы вы независимый наблюдатель, записывающий разговор.

  1. Найдите внутреннее несогласие
  • «Должен», которая противоречит вашему нынешнему совершаемому действию.
  • Что-то, что по вашим ощущениям вы не должны думать или во что не должны верить (хотя втайне верите и думаете)
  • Шаг по направлению к вашим целям, который ощущается как бесполезный или неприятный.
  1. Опишите несогласие в терминах операций
  • Если участвует более двух сторон, то вначале выберите две; сфокусируйтесь на том, что покажется важным.
  • Выбирайте благозвучные имена для ощущений и описывайте убеждения так, как они ощущаются изнутри, а не враждебно или с осуждением (например, формулировка «я заслуживаю отдыха» вместо «я ленивый»)
  1. Поищите корень разногласия
  • Проверка на срочность:
    Может быть одна сторона более нетерпелива или эмоционально заряжена чем вторая? Нужно ли одной из сторон «высказаться первой»?
    Может быть одна сторона более уязвима к недопониманию или осуждению (например, что-то, что вы не позволяете себе думать или чувствовать, потому что это неправильно или глупо, или непрактично, или непонятно, или каким-то иным образом не соответствует вашему мнению о себе)?
  • Поймите первую сторону
    Позвольте той части, которая более нетерпелива «объясниться» - почему кажется правильным или важным реагировать именно так?
    Чего не понимает о жизни другая сторона, но понимает эта? Почему нельзя доверять той, другой стороне - что плохого в том, чтобы позволить ей принимать решения?
  • Поймите вторую сторону
    Проверьте, есть ли отклик с тем, что только что было сказано первой стороной - ощущается ли зерно истины со второй точки зрения?
    Чего не понимает о жизни первая сторона? Почему ей нельзя доверять - что плохого произойдет, если только её приоритеты будут учтены?
  1. Достигните резонанса
  • Продолжайте давать слово каждой стороне и возможность перефразировать мнение противоположной стороне до тех пор, пока каждая из моделей не усвоит обоснования чужих выводов.
  • Представьте решение в виде утверждения «если-то», используйте внутренний симулятор и другие доступные проверки, чтобы удостовериться в отсутствии у каждой стороны невысказанного недовольства об истинности и полноте этого утверждения.

Фокусирование это активный ингредиент

Когда в сценарии указано «сфокусируйтесь на том, что кажется важным» имеется в виду то самое фокусирование. Наиболее важным шагом в ВКР является нахождение чувственных ощущений для каждой стороны спора и выражение Истинных Имен для них через использование фокусирования.

ВКР это отдельный вид фокусирования, основанный на переключении между двумя чувственными ощущениями в попытке выразить словами их взаимоотношения друг с другом. Пытайтесь действовать как нейтральный модератор этих двух ощущений и давайте каждому время высказаться. Во время шага резонанса, весьма вероятно, что вы почувствуете некий «чувственный сдвиг» или локус спора сместится неким иным способом. Таким образом, через ВКР вы обнаружите более глубокий конфликт между двумя голосами. В этот момент следует выбрать время для повторного фокусирования на каждой стороне и выбрать новые имена.

Первый ВКР, который я провел, начинался с двух просто названных сторон «нужно пользоваться зубной нитью» и «пользование зубной нитью это пустая трата времени». После дальнейшего фокусирования и чувственных сдвигов, стороны стали звучать так: «чистка зубов нитью это ритуал заботы о себе, показывающий, что я достоин любви» и «чистка зубов нитью это одно из бесчисленного множества навязанных моими родителями действий для ограничения моей свободы». Подлежащий конфликт наконец-то всплыл на поверхность!

Для меня сутью ВКР стало создание полезного набора подсказок фокусирования. Внутренний конфликт создает чувственные ощущения как ничто иное!

Ищите слияния, а не компромисса

По мере того, как вы будете переключаться между двумя внутренними голосами, озвучивайте благие намерения по отношению к другой стороне. Это не означает, что нужно идти на наивный компромисс. В целом, следует ожидать, что у обеих сторон есть важные данные, а одной из главных задач является изучение общего правила, для которого позиция каждой стороны является особым случаем.

Каким бы эмоциональным не ощущался конфликт, следуйте принципу: конфликтующие ценности обычно основаны на конфликтующих убеждениях о реальности. Каждая сторона внутреннего столкновения имеет разный набор убеждений о реальности, который влияет на предпочитаемый ею способ действий.

Например, если бы я пытался начать ВКР между двумя сторонами меня, говорящими, соответственно, «я хочу быть более экстравертным» и «люди опасны и ужасны», то прогресса можно было бы достичь, позволив каждой стороне составить списки ситуаций, когда люди были добры и злы ко мне. Слияние мнений могло бы выглядеть так: «правильно избегать таких-то и таких-то ситуаций и типов людей, настроенных откровенно враждебно, но в то же время существует несколько конкретных людей, с которыми я не взаимодействую, а совершенно точно хотел бы»

Пятнадцать минут ВКР

Поставьте Йода-таймер на 15 минут. Выберите минимальный внутренний конфликт, который сможете придумать и попробуйте ВКР на нём.

Челлендж дня

При выполнении ВКР, как и в жизни, аргументы редко соответствуют тому, что кажется. Мытьё посуды это не про мытьё посуды. Чистка зубов нитью это не про заботу о полости рта.

Большая часть мелких конфликтов это сражения в яростных войнах двух гигантских слонов в голове. Поделитесь примерами этого феномена, которые вы обнаружили через ВКР или другие методы.

Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 4.7 (3 votes)

Время молотков, день 28: Повторение редукционизма

alkjash

В последние три дня времени молотков я соберу некоторые разбросанные мысли для закрепления важных принципов.

Сегодня я вернусь к применению редукционизма в инструментальной рациональности.

День 28: Повторение редукционизма

Таинственные ответы: краткий обзор

У меня был разговор с другом, в котором кратко поднялась тема комедии. Я немного перевру его аргумент, чтобы было понятнее:

Друг: Ну, не существует пошаговой тренировочной процедуры, делающей кого-либо смешным. Когда я представляю тренера по юмору, он просит тебя говорить шутки и оценивает, насколько они смешны.
Я: Если бы ты не знал математику, сказал бы ты то же самое об изучении математики? Что не существует пошагового способа обучить выводу теорем? Вместо этого учитель математики просит учащегося доказывать разное, а потом оценивает, насколько строгим было каждое доказательство?
Друг: Понял тебя.

Таинственная сложность, не раскладываемая на составные части, как мы знаем, является частью карты, а не территории. Легко совершить когнитивную ошибку и заставить верить, что множество навыков, особенно тех, относительно которых ты несведущ, не могут быть разложены при помощи редукционизма и должны изучаться естественным или интуитивным путём.

Я считаю, что это симптом общей когнитивной ошибки, которая может быть исцелена только через чтение загадочных ответов полдюжины раз. Это слишком важно, поэтому ещё раз подчеркну, главная ошибка такова:

Мой личный опыт говорит, что моя отрасль знаний состоит из конкретных, похожих на шестерни частей, доступных к редукционизму. У меня есть детальная ментальная модель о том, как решить математическую задачу или написать пост в блог, шаг за шагом. Из моего личного опыта также видно, что навыки, которыми я не обладаю - нечеткие, загадочные и магические. Их выработка требует интуиции, творчества и спонтанности. Из этих дефектов в карте я затем некорректно вывожу, что загадочность это свойство территории, выходящей за рамки моих компетенций, т.е. за пределами моей зоны комфорта.

А загадочность она в голове. Воспользуйтесь установкой Зенона, что вся территория раскладывается на бесконечно малые кусочки, каждый из которых можно раскусить.

Создавайте форму, прибирая в комнате

Одним из наиболее важных моментов на ранних стадиях получения нового навыка является достижение правильной формы. Как только форма выстроена, приложение усилий приносит результат, но если формы нет, то приложение усилий ведёт лишь к фрустрации и разочарованию. Разумеется, если у вас сформированы плохие привычки с самого начала, то будет лишь сложнее и сложнее выправить их, поскольку они уже внедрены в практику.
~Руководство CFAR

Один из элементов редукционистского подхода к инструментальной рациональности звучит так: разбивайте сложные задачи на маленькие кусочки. Маленькие кусочки это простые задачи. Следовательно, вы можете стать лучше в решении сложных задач, натренировав свои когнитивные стратегии на гораздо более простых задачах.

Истинное мастерство начинается с доведения когнитивных привычек до совершенства на исключительно простых делах.

Несмотря на то, что этот принцип кажется противоречащим интуиции, мы уже знаем, что он верен. Мы знаем, что учащиеся не могут перейти к алгебре до того, как они запомнят таблицу умножения. Мы знаем, что прежде практики писательства необходимо научиться писать ручкой или печатать на машинке. В фэнтези эта идея повсеместна: новичок должен провести годы, левитируя песчинку или зажигая пламя с идеальным контролем до того, как он перейдёт к более продвинутым техникам.

CFAR называет этот принцип выстраиванием формы, как в физическом упражнении. (мне говорили) В тренажерном зале правильное выполнение упражнений с весами ведёт к более высокому уровню безопасности и темпу роста мышц. Изучение правильного положения стоп, напряжения ягодиц и прогиба спины является важным этапом ещё перед навешиванием блинов. Все эти базовые вещи гораздо лучше отрабатывать на меньших весах, чем ваш текущий максимум.

Джордан Петерсон называет этот принцип уборкой в комнате. Начните с решения задач в непосредственной зоне ответственности и компетенции, вроде уборки пыли и стирки одежды (это напомнило мне… сейчас вернусь). Если вы не можете справиться с задачей организации своего времени сна, то вы можете ожидать травмы при попытке спасти мир.

В то же время, подобно упражнению для начинающих по левитированию песчинки, выстраивание формы не так просто, как кажется. У моего друга были планы бросить учёбу и устроиться на работу над ИИ в DeepMind. Я посоветовал ему вначале поработать над режимом сна. Двумя месяцами позднее после бесчисленных стратегических встреч, он всё ещё работает над этой задачей. По крайней мере он наконец-то осознал её сложность.

Постепенный прогресс

Редукционизм против прокрастинации

Если у вас есть проблема прокрастинации, вот простой способ сдвинуть перспективу, основанный на редукционизме и он работает. Это вариация единственного совета из «самопомощи», сработавшего для меня. Каждый раз, когда вы ловите себя на откладывание дел на будущее, задайте себе вопрос:

«Какую часть этого задания я готов сделать прямо сейчас?»

Ответьте честно. Затем, сделайте ровно столько.

Может быть вместо выполнения упражнений вы всего лишь хотите выйти на улицу на минутку. Может быть вместо заполнения налоговой декларации вы хотите только организовать нужные бланки в папочке. Может быть вместо написания той статьи вы хотите лишь вписать название и заголовки разделов.

Внимательный читатель заметит, что этот сценарий по сути представляет собой ПТД по внедрению микроскопического эксперимента РаЗоК к любому уклонению от задачи. И это абсолютно верно.

Непрерывная шкала оценок

Несмотря на разочарование в проекте, мне очень понравилась Армия Драконов в ретроспективе Дункана. Одной из основных причин для этого было его использование оценок вместо более грубой системы прошёл/провалился. Оценки подразумевают гладкую, непрерывную функцию успеха, которую гораздо легче оптимизировать.

Человек не приспособлен к превращению провалов в проходы. Человек приспособлен к увеличению метрик [требуется источник].

Оценивайте себя по непрерывной шкале и вам будет легче измерять последовательный прогресс с течением времени и мысленно награждать себя за него. Оценивайте себя не по факту сделанной или не сделанной работы, но по количеству и качеству сделанного.

Челлендж дня

Только что я описал микроскопическую версию РаЗоК для применения на уровне пяти секунд. Сколько других техник времени молотков вы можете превратить в минимальные ПТД?

Перевод: 
sepremento
Оцените качество перевода: 
Средняя оценка: 5 (Всего оценок: 1)

Время молотков, день 29: Стратегический уровень

alkjash

Я заметил, что я еле волочу ноги к концу десятидневного цикла Времени молотка. Исходя из этого и других соображений, я полагаю, что мой объём писательского внимания равен неделе, а черновики и планы, которым больше недели, слишком «зачерствели», чтобы я мог их закончить. Если бы я знал это заранее, я бы, наверное, организовал время молотков как шесть 5-дневных циклов.

Обучение с подкреплением?

Вы играете в Го против сэнсэя. На двадцать четвёртом ходу он вторгается в ваше сангэн бираки (позиция в го, в которой между камнями три пустых места, иначе «расширение через три пункта») с разрушительной точностью, разделяя группу, которая казалась вам защищённой, на двух рассеянных драконов. Левый дракон пытается бежать, но сэнсэй отрезает ему путь к отступлению с помощью тонкой атаки на ваше угловое заграждение. Он в отчаянии погибает.

Правый дракон, теперь столкнувшийся с массивной стеной, которую сэнсэй построил для атаки на левую группу, отчаянно пытается проявлять какую-то жизнь на месте. Его второй глаз был бесцеремонно «выколот» хорошо поставленным тесудзи. Благодаря вашей борьбе, у сэнсэя есть пятьдесят очков территории и хорошее окружение по всей доске. Вы терпите поражение.

Что, как предполагается, новичок должен выучить в ходе такой игры? Если учитель разрешит пересмотреть партию самостоятельно, вы можете с лёгкостью сделать одно из следующих заключений, если не все сразу:

  1. Не делать расширение через три пункта.
  2. Не пытаться бежать.
  3. Не реагировать на угловые ходы.
  4. Жертвовать камни сразу.
  5. Изучить жизнь и смерть.

Допустим, вы усвоили урок 1, не делать расширение через три пункта. На следующей неделе в партии с учителем вы покорно делаете шаги через два пункта. Камни сэнсэя сбалансированы и эффективны, в то время как ваши неинтересно скучены. Вы с лёгкостью проигрываете по очкам.

Что произойдёт дальше? Вы вернётесь к шагам через три пункта, так как вам не понравились шаги через два?

Избыточная коррекция и сигналы остановки обучения

Стратегический уровень в ускоренной CFAR-программе - это учиться стратегически: обновлять знания тем способом, который предотвратит подобные провалы в будущем. Тот тип обучения, который был продемонстрирован выше, определённо, не стратегический.

Как я думаю, есть два распространённых и частично пересекающихся вида провала при обучении, при которых выученные уроки оказываются хуже, чем ничего.

Первый - избыточная коррекция:

После спора: «Я должен быть более понимающим.»

После панической атаки: «Я должен меньше беспокоиться обо всём.»

Побывав Белым Рыцарем в Армии Дракона: «Я больше не буду верить человеческим существам.»

Проиграв игру в Го: «Я должен перестать делать прыжки длиной три пункта.»

Подобные избыточно обобщаемые уроки могут быть лекарством, которое хуже, чем болезнь. По мере того ваши простые стратегии постоянно терпят неудачу, вы должны пробовать всё более и более сложные стратегии. Вы не должны болтаться между двумя крайностями, отказываясь взглянуть в лицо сложной реальности.

Второй тип ошибок тоже непродуктивный:

Я должен был разобрать ту задачу мастерского уровня на жизнь и смерть камней [в Го].

Я должен был прочитать главу 3 вместо главы 2!

Я должен был использовать метод полиномов при решении данной задачи!

Я называю такие мысли «стоп-сигналы обучения». Распространённый тип стоп-сигналов обучения это «нужно было сделать то и это», где то и это - какой-то произвольный, блестящий, но необоснованный выбор, который вы бы никогда не сделали заранее. Также, как семантические стоп-сигналы выглядят как ответы, стоп-сигналы обучения выглядят как уроки, которые вы изучили, но которые не дадут вам в будущем никакой пользы.

Стоп-сигналы обучения просто говорят: повернись назад, тут нечего делать, тут только болезненные мысли. Обычно это сопровождается небрежным пожиманием плеч.

Стратегическое обучение

Что значит «обучаться стратегически»?

Если вы терпите провал, попробуйте ответить на вопрос: «Каким способом я должен был бы думать, чтобы заранее избавиться от встретившейся мне проблемы?». Каждый урок, выученный вами, это шанс откалибровать вашу мыслительную стратегию для того, чтобы в будущем предотвращать подобные проблемы.

Наконец, научитесь распознавать непродуктивные «избыточные коррекции» и объезжать «стоп-сигналы обучения». Когда вы совершаете ошибку и делаете скороспелое суждение на тему «что пошло не так», спросите себя: стало ли менее вероятным, что я потерплю подобную неудачу снова?

Упражнение: установите Таймер Йоды и обдумайте ваши последние ошибки.

Челлендж дня

Расскажите историю про то, как лекарство оказалось хуже болезни.

Перевод: 
Tookser
Оцените качество перевода: 
Средняя оценка: 5 (2 votes)

Время молотков, день 30: Финальный экзамен

alkjash

Одной из общих тем в CFAR, связанных со стратегическим уровнем является изучение не конкретной техники или набора техник, а когнитивной стратегии, которая производит все эти техники. Отсюда следует, что если я усваиваю правильные уроки из CFAR, то я смогу создавать качественно схожие - даже если и не настолько проверенные опытом - принципы и подходы к инструментальной рациональности.

После CFAR я захотел разработать для себя тест, чтобы узнать, хорошо ли я освоил материал. Время молотка для меня - что-то вроде такого теста. Теперь предлагаю схожий тест для вас.

Финальный экзамен

Я дам вам три темы для эссе и три уровня сложности задания. Оригинальные идеи приветствуются, но посмотреть в новом свете на старые молотки тоже здорово!

Темы

  1. Разработайте технику инструментальной рациональности.
  2. Предложите принцип рациональности или фреймворк.
  3. Опишите когнитивный дефект, искажение или «слепое пятно».

Уровни сложности

Уровень бронзовой палицы. Напишите эссе на одну из указанных выше тем
Уровень стальной дубины Льва. Напишите два или три.
Уровень Вострой Драконьей Кувалды Кита. Напишите все три. Для каждого эссе дайте себе пять минут на мозговой штурм и пять минут на написание.

Вот мои ответы.

1. Сотрудничай первым

Есть старая история об известном художнике школы реализма, который потратил целый год на рисование натюрмортов с яйцами. Каждый день, он рисовал одно и то же яйцо снова и снова. Наверное, он нарисовал тысячи набросков и изображений яиц. Его учитель хорошо знал, насколько важны основы.

Схожий мотив кроется в историях по всему свету:

Вернись к основам. Упражняйся в основах.

Повторяющаяся дилемма заключённого - один из базовых уроков рациональности. Мир похож на множество таких дилемм больше, чем вы думаете. А люди - на игроков, играющих по стратегии «око за око». Отсюда следует:

Сперва сотрудничай!

Первый ход, который стоит сделать при знакомстве с новым человеком - это сотрудничество, даже если вы ожидаете, что вас предадут. Возможно даже, если вы уже наблюдали предательство.

Вот урок, который я усвоил после размышления о максиме «Сначала сотрудничай»:

«Сотрудничай первым» изнутри ощущается как принятие нечестности игры. В вашей жизни будет много ситуаций, когда обстоятельства в небольшой, но заметной степени складываются изначально против вас. Всегда ошибайтесь в сторону принятия таких игр.

2. Спускаясь ниже уровня объекта

Одна из моих основных претензий к рационалистам (включая себя) - это наша привычка слишком часто подниматься на мета-уровень. К примеру, в каждом обсуждении споры о нормах общего обсуждения более горячие и жаркие, чем обсуждение самого объекта. Мы должны больше времени проводить на уровне объекта, вступая в контакт с реальностью, проводя эксперименты, проверяя наши гипотезы.

Приём, который я использую, чтобы бороться с тенденцией ухода на мета-уровень, я называю смотреть ниже уровня объекта.

Смотреть ниже уровня объекта - это то, что сделал Гарри Поттер из ГПиМРМ чтобы достигнуть частичной трансфигурации: непрерывно повышать увеличение вашего ментального микроскопа, чтобы по-настоящему рассмотреть реальность в подробностях. Реальность настолько детализирована, что этот процесс ошеломляет. Пробуйте.

Посмотрите на складки одежды, на игру света и тени на них. На то, как переплетаются нити. Сожмите ткань и наблюдайте, как морщины реорганизуются.

Теперь задумайтесь над следующим фактом: падающую воду притягивают как положительные, так и отрицательные заряды.

Что?

Под тем, что мы называем «уровнем объекта», происходит столько всего.

3. Предварительные извинения

Предварительное знание задним числом - это версия Мёрфиджитсу, в которой вы спрашиваете себя, что вы узнаете задним числом, выполнив какое-то действие. Предварительные извинения - непродуктивный кузен, который часто срывает мои планы.

Будучи серийным прокрастинатором, я замечаю довольно регулярные паттерны мышления, которые появляются за пару дней перед встречей с профессором, а особенно - перед встречей с научным руководителем. Мой разум уже прокручивает оправдания. Вот что крутится у меня в голове целый день, когда я думаю о предстоящей встрече:

Извините, чтение этой статьи заняло больше, чем я думал.

Извините, я был слишком занят другими предметами, и поэтому не занимался статьёй столько, сколько собирался.

Извините, я отвлёкся на эту исследовательскую задачу, и поэтому не сделал домашнюю работу.

Увы, у меня есть эти мысли о том, как извиняться за несделанную работу даже несмотря на то, что времени ещё много и я могу всё успеть. Более того, у меня крутятся в голове эти «предварительные извинения» даже тогда, когда я сделал ожидаемую от меня работу - я будто бы подстилаю себе соломку на случай, если я сделал работу плохо.

И обычно это даже не хорошие оправдания.

Перевод: 
Tookser, sepremento
Оцените качество перевода: 
Средняя оценка: 4.2 (5 votes)

Время молотков, послесловие

alkjash

Чуть менее двух месяцев назад я решил писать об инструментальной рациональности каждый день на протяжении 30 дней. В этом посте я сделаю оценку своих успехов по каждой из четырех обозначенных целей. Одновременно я буду оценивать все техники и идеи времени молотков по их эффективности применительно к моей жизни.

Этот период времени был моим дедлайном по инструментальной рациональности. Больше я не планирую писать о ней какое-то время. Однако, хочу озвучить сильное намерение написать четвертый цикл времени молотков в начале 2019-го года, хотя бы для оценки моего долгосрочного прогресса1.

Отчет по времени молотков

Оцениваю себя по четырем параметрам, указанным в первом промежуточном посте2:

Вот мои причины написания этой цепочки в порядке важности: а) практика писательства, б) обзор техник CFAR ради собственной пользы, в) развлечение, г) обучение инструментальной рациональности.

Как я думаю, эти цели были одинаково важны и я перечислил их в указанном порядке только потому, что считал две последние сложными в достижении. Буду оценивать все по стобалльной шкале, считая от нуля. Значение имеют только относительные величины.

Практика писательства: 90/100

Для меня сработало хорошо. Я произвожу контент примерно в три раза быстрее, чем когда я начинал время молотков, возможно лишь с небольшим ухудшением качества. Я ценю скорость столь же высоко, как и силу, так что это удивительное достижение. Есть моменты вроде общей организации текста и стиля, с которыми стоило поработать больше, а также Йода-таймеры на редактирование после каждого поста принесли бы значительную пользу в плане качества текста.

Личная оценка CFAR: 95/100

При помощи этого процесса я был вынужден оценивать, опробовать и подойти к своим границам практически каждой техники в методичке. Не считая небольшого количества техник, которые не зацепились у меня, этот двухмесячный период оказался идеальным сроком для намеренной тренировки инструментальной рациональности. Долгосрочная ценность моего обучения в CFAR по меньшей мере утроилась из-за этого проекта.

Развлечение 65/100

Непонятно. Несколько постов были очень интересно писать и до сих пор интересно перечитывать. Обнаружил некоторое количество ограничений в моём писательском репертуаре, которые, похоже, невозможно исправить за день или два (впрочем, стоит попытаться). Несмотря на мои усилия, я всё ещё не Элиезер или Скотт.

Что я упускаю? Планирую экспериментировать с диалогами, в написании которых я ужасен, но которые похоже входят в состав самых занимательных творений Элиезера и Скотта. Также, в моем тексте напрочь отсутствует детальное увлекательное описание науки, а это также кладезь.

Обучение инструментальной рациональности: 50/100

Не уверен, что эта цепочка в каком-то отношении лучший педагогический материал, чем книга CFAR, которая по сути является сухой методичкой. Возможно, этого достаточно. Несколько человек, похоже, получили огромную пользу, но мне кажется, что даже среди людей, прочитавших каждый пост, только небольшое количество выполнили какие-либо упражнения или сколько-нибудь продвинулись вперед за пределы знания названий техник. В конце концов я всегда принимаю решения в пользу «написать что-либо интересное для меня» вместо «написать что-либо, наиболее полезное, на мой взгляд, читателю».

Возможно, заинтересованный читатель захочет потратить несколько часов и собрать наиболее полезные части времени молотков в более ясную цепочку. Как источник руководств к инструментальной рациональности как максимум половина постов времени молотков представляет большую ценность.

В целом: 75/100

Очень удивлен самим собой, что сумел закончить этот проект с минимальными задержками. Всё прошло примерно так, как ожидал бы сторонний наблюдатель.

Главное, что я извлек из проекта, это желание продолжать реализовывать среднесрочные проекты без чрезмерного обдумывания, доверяя своим инстинктам. Не очевидно, что большее количество планирования или организации помогли бы делу, наоборот, могли потопить весь проект времени молотков и не дать мне его завершить.

Обзор молотков по уровню мощности

Пройду по всем основным техникам, описанным по времени молотков и оценю каждую по степени эффективности применительно к моей жизни.

Я разделю их на три группы крутости. Обратите внимание, что техники времени молотков были уже заранее отобраны из большего набора техник в соответствии с их привлекательностью непосредственно после курса CFAR.

Группа S/A

Фокусирование: 100/100

Не всегда срабатывает, но когда срабатывает… получаются откровения, меняющие жизнь. У меня таких было, кажется, три или четыре. Рекомендую.

Йода-таймеры: 95/100

Таймеры и дедлайнды действительно подняли мою деятельность на новый уровень. Думаю, что всегда избегал их раньше, потому что «соревновательность» и «скорость» стали для меня показателями низкого статуса после старшей школы, но я просто создан для этого. Иногда мне кажется, что если бы средняя школа была организована как набор олимпиад из открытых задач, я бы сделал намного больше.

Дизайн: 90/100

Невероятно недооцененная техника. Сделать всё удобным, позволить себе удалить тривиальные неудобства, потратить время на создание лучшего физического пространства. Значительно улучшил нижнюю границу качества жизни: качество сна, общий комфорт, эстетика. Даже если бы я прекратил активное использование инструментальной рациональности прямо сейчас, эффекты от решений дизайна за последние два месяца продержатся ещё годы.

Группа B/C

Охота за багами: 80/100

Очень полезная практика и довольно часто применяемая. Улучшает внимание к багам на длительное время.

РаЗоК: 80/100

Ещё одна добротная техника. Даёт возможность пробираться через множество нежелательных избеганий и инстинктивно пробовать новое. Сама по себе плохо работает на больших избеганиях - по моему опыту, такие задачи требуют помощи фокусирования и именно фокусирование делает всю работу.

Тишина 80/100

Я чувствую, что сражение с ложноножками нигилизма в повседневной жизни это одна из моих самых главных задач. Тишина это первая попытка описать задачу и предложить частное решение. И как обычно, людям необходимо дать возможность больше лепетать.

TDT для людей 75/100

Важный принцип, который наконец-то позволил мне понять привлекательность и пользу этики добродетели и деонтологии. Требует большего количества итераций и работы, чтобы стал удобным.

Дружба: 75/100

Осознание ценности и организация долгоиграющих повторяющихся обсуждений с друзьями оказались исключительно полезными. Во время экспериментов столкнулся с несколькими неприятными социальными ситуациями и непродуктивными встречами. Обновил свои убеждения, осознав, что существует даже меньше людей, чем я думал, с которыми я мог бы вести интересные разговоры на регулярной основе.

Группа D/F

Мёрфиджитсу: 65/100

Ощущается также болезненно и сложно к применению, как и навык чтения в Го - жизнь слишком хаотична. Пока что я использую этот приём в качестве быстрого обзора, что может пойти не так. Возможно после сбора большего количества данных о режимах отказа разных дел мёрфиджитсу станет более полезным. А пока я ощущаю себя чудовищно недокалиброванным.

С положительной стороны, эта техника вдохновила мою самую длинную художественную работу на данный момент.

ПТД: 60/100

Странная и неестественная штука для тренировки. Несколько полезных начинаний, которые я внедрил, быстро стерлись. Кажется, что ПТД удерживается около недели без какого-то дополнительного механизма подкрепления.

Внутренний корень разногласий: 50/100

Слишком много шагов. Единственным ценным эффектом кажется использование этого приема как способа создания целей для фокусирования. Это уже довольно важно, но всё-таки.

Факторизация избеганий/целей: 30/100

Попробовал несколько раз, не зашло. Гораздо слабее, чем фокусирование. Обычно, мне нужно «понять свой основной мотив и главное избегание», а как только это ясно, дальнейший пусть становится очевидным.

  • 1. На момент русской публикации (август 2019 года) новых записей от автора на эту тему не появилось. — Прим.редактора
  • 2. На русский язык не переводился. — Прим. перев.
Перевод: 
sepremento
Аудио: 
Оцените качество перевода: 
Средняя оценка: 5 (3 votes)

Записи о фактах: как и зачем

Sarah Constantin

Самый полезный навык из области мышления, которому я научилась и который, по моему мнению, стоит широко распространять, — это написание «записей о фактах». Вы можете найти множество таких записей в моём блоге. (А ещё у меня есть блог с записями о фактах про беременность и деторождение.)

Чтобы создать запись о фактах, вы начинаете с эмпирического вопроса или общей темы. Чего-то вроде «Как часто происходят преступления на почве ненависти?» или «Эпидуральная анестезия действительно опасна?» или «Почему увольняют рабочих на фабриках?»

Совершенно нормально, если вы мало что знаете о выбранной теме. Это упражнение предназначено, чтобы разбираться в сути и показывать ход ваших мыслей, а не для того, чтобы найти официальное последнее слово по данной теме и сделать лучший анализ в мире.

Затем вы открываете Гугл-документ и начинаете делать заметки.

Вы ищете количественные данные из источников, признанных достоверными: данные CDC [Центры по контролю и профилактике заболеваний США — Прим.перев.] для информации о распространении болезней и прочих рисков для здоровья в США, данные ВОЗ для информации, связанной с вопросами здоровья в мире, данные Бюро трудовой статистики для вопросов трудовой занятости в США, и так далее. Опубликованные в научных журналах статьи, особенно из признанных журналов и из больших рандомизированных исследований.

Вы определённо не ищете мнения, даже мнения экспертов. Вы избегаете новостей и очень осторожно подходите к отчётам разнообразных комиссий. Вы ищете сырые данные. Вы принимаете подход «только Писание» со всеми его достоинствами и недостатками.

А затем позволяете данным показать вам что-нибудь.

Вы обращаете внимание на то, что вас удивляет или кажется странным, и отмечаете это.

Вы обращаете внимание на факты, которые вроде бы не согласуются друг с другом, и лезете в источники данных и методологию, пока не разберётесь с загадками.

Вы ориентируетесь на незнакомое. На то, что для вас совершенно непривычно. Одна из наибольших статей экспорта из Германии — клапаны?! Когда в последний раз я вообще думала о клапанах? Почему клапаны, для чего вообще используются клапаны? Ладно, покажите мне список всех различных запчастей для машин в процентах от общего экспорта.

И таким образом вы закапываетесь чуточку дальше в ту часть мира, куда вы раньше не заглядывали. Вы выращиваете в себе способность поворачивать легковесное любительское навязчивое любопытство туда, где может обнаружиться что-то важное.

Вы делаете заметки, записываете впечатления. При этом не забываете в ваших заметках отслеживать все числа и их источники.

Вы проделываете немного вычислений, чтобы сравнить найденное с чем-нибудь знакомым. Насколько этот источник риска сравним с риском от курения или с риском свалиться с лошади? Насколько это лекарство эффективно, если сравнить с результатами психотерапии?

На самом деле вы не хотите заниматься статистикой. Вы можете считать проценты, средние, стандартные отклонения, может быть, величину эффекта, но ничего более сложного. Вы просто пытаетесь понять, что происходит.

Часто бывает очень неплохо отсортировать найденное по абсолютной шкале. Что отвечает за основную часть смертей, на что пошла основная часть ушедших денег, и так далее? Что в данном вопросе «много»? А затем обратить большее внимание и задать больше вопросов про то, чего «много». (Или что обладает непропорционально высокой значимостью.)

Иногда этот процесс может привести к изменению ваших убеждений. Но обычно такого не происходит, вы просто получаете более серьёзное обоснование тому, почему именно вы убеждены в чём-то естественном.

У убеждений, основанных на фактах, есть «обычность». Нельзя сказать, что они не могут удивлять — они удивляют довольно часто. Но если вы сверяетесь с фактами достаточно часто, то, даже когда вы обнаруживаете новые факты, у вас появляется ощущение, будто мир «остаётся на месте», а не кружится со страшной силой при появлении каждого нового раздражителя. К примеру, после того, как я прочитала очень-очень много книг по биомедицине, у меня появилось ощущение, будто я «чувствую мир» в этой области. Я понимаю, что я ожидаю увидеть и чего я не ожидаю увидеть. Моё «чувство мира» не означает, что мир сам по себе скучен — на самом деле, я убеждена, что мир полон открытий и «низко-висящих плодов». Но у меня есть ощущение стабильности, я чаще думаю: «ага, вот как всё устроено», а не: «о, боже, что вообще происходит».

В областях, которые мне менее знакомы, я чаще сталкиваюсь с ситуацией: «о, боже, что вообще происходит». И это иногда мотивирует меня собирать больше фактов.

В какой-то момент у вас скапливается пачка фактов, и они «доносят до вас» какие-тот выводы или ответы на ваши вопросы. Вы записываете их в блог, чтобы другие люди могли проверить ваши рассуждения. Если у вас изменилась точка зрения или вы узнали больше, вы пишете ещё одну запись в блог. В любой теме, в которой вы продолжаете учиться, вы будете смущаться наивности ваших старых записей. Это нормально. Именно так работает обучение.

Преимущество записей о фактах в том, что вы обретаете способность формировать независимое мнение, основанное на свидетельствах. В каком-то роде вы учитесь видеть. Скорее всего, это не лучший способ получить самые точные убеждения. Почти наверняка для этого было бы лучше слушать самых лучших экспертов. Однако лично вы можете не знать, какие именно эксперты являются лучшими, или можете путаться во множестве противоречий между ними. Записи о фактах — это относительно дешёвый способ составить информированное мнение. Они делают вас пресловутым «образованным мирянином».

Став «образованным мирянином», вы сможете живее придумывать идеи — для исследований, бизнеса, творчества или чего-нибудь ещё. Если у вас в голове будут крутиться факты, вы свободно сможете думать о решаемых задачах, о вопросах, требующих ответа, о возможностях исправить что-нибудь в мире, о приложении ваших умений.

В идеальном случае группа людей, создающих записи о фактах по связанным темам, могла бы учиться друг у друга и разделять друг с другом свои мысли. Моя интуиция настаивает, что это было бы очень ценно. Это более активное сотрудничество, чем «журнальный клуб», и чуть более несерьёзное, чем «исследования». Это просто активность, которая даёт возможность учиться и показывать свою работу другим.

Перевод: 
Alaric
Оцените качество перевода: 
Средняя оценка: 4 (15 votes)

Как лучше понимать людей

pwno

Я делаю заметки о том, как работает моя эмпатия: мне кажется, что я более сильный эмпат, чем окружающие. Я разобрал паттерны своих мыслей, неявные убеждения и приёмы, надеясь раскрыть механизм, спрятанный под вуалью кажущейся магии. Затем я рассказал о своих находках друзьям и обнаружил то, что они заметно улучшили способности к эмпатии.

Я понял, что путь к совершенствованию способности понимать, что думают и ощущают люди открыт для всех. Эмпатия — не врождённый талант, дарованный одним и чуждый для других. Это навык, и радикальные его улучшения требуют лишь практики и руководства.

Я хочу поделиться наиболее плодовитыми методами, подходами и упражнениями из числа тех, что я накопил за это время.

Рабочие определения

Проецирование: убеждение в том, что остальные ведут себя также, как и вёл бы себя ты в соответствующих обстоятельствах.

Модель: убеждение или «карта», позволяющее предсказывать и объяснять поведение людей.

Не думай, что ты не эмпат

Это первый шаг к развитию навыка эмпатии — или просто к тому, чтобы проявлять хоть какую-нибудь эмпатию. Негативные самосбывающиеся пророчества действительно существуют, и их действительно можно избежать. Мозг пластичен; нет никаких причин считать, что для тебя закрыты все возможные пути к совершенствованию.

Если кому-либо не понятно поведение окружающих, то это его проблема, а не окружающих людей

Когда ты узнаёшь, что твой сосед по дому 9 часов подряд занимался уборкой, то в своём замешательстве тебе стоит обвинить свою несовершенную карту. Возможно, сосед смертельно боится тараканов, и этим утром обнаружил несколько под шкафом, возможно он пассивно-агрессивно намекает тебе о том, что надо убираться чаще, или возможно, он просто изо всех сил откладывает начало какого-то важного дела (прокрастинирует). Твоей модели соседа ещё предстоит начать учитывать подобные склонности.

Как правило, люди объявляют непонятные им поступки окружающих глупостью, злым умыслом, неврозом или подобными понятиями, обычно ассоциированными с психическими болезнями. Если трезво посмотреть на эти объяснения, не забывая об изначальной редкости подобных характеристик и об бритве Оккама, то становится понятно, что, скорее всего, нездоровы именно эти критики; наличие ошибки в модели намного более вероятней, чем чьё-то безумие.

Также, как и ошибочная оценка поведения, этот дефект мышления чаще проявляется в отношении людей, к которым мы испытываем неприязнь. Из этого вытекает интересная задача: попытаться понять странное поведение конкретных нелюбимых людей или представителей нелюбимых субкультур. Если сделать всё правильно, то в результате неприязнь к ним должна немного ослабнуть.

Руководствуясь примерно теми же соображениями, можно попытаться отыскать притягательные стороны в нелюбимых тобой популярных видах деятельности. Например, если ты не выносишь музыкальных видео, попробуй смотреть их до тех пор, пока не придёт понимание того, что в них находят люди. Желание воскликнуть «Ага!» — верный признак того, что всё сделано правильно.

Чем больше манер поведения ты способен объяснить, тем больше развита твоя модель людей, и тем лучшим эмпатом ты становишься.

Проекция работает, но не позволяет разобраться с моментами замешательства

Обычно голос интуиции правильно угадывает, что ощущает другой человек, но в менее однозначных ситуациях интуиции требуется помощь сознания. К сожалению, люди слишком привыкли полагаться на мантру «поставь себя на его место». Все люди непохожи друг на друга, и иногда два человека, помещённые в одинаковые условия, ведут себя очень по-разному. Проекция естественна и срабатывает автоматически; поэтому сознательная постановка себя на чужое место редко меняет первоначальные оценки. Недоумение по поводу чьих-то поступков, как правило, говорит о том, что проекция не увенчалась успехом.

Вместо этого строй правдивые модели людей и пытайся понять, способна ли твоя модель объяснить наблюдаемое поведение. Если ей это не под силам, то собирай надёжные свидетельства, говорящие о том, что человек чувствует на самом деле и вноси в модель нужные изменения. Это уже начинает походить на научный метод, что обнадёживает.

Лучше понимай себя

Как я уже говорил выше, обычно проекция работает (скорее всего, именно поэтому люди так предрасположены к её использованию). Однако, она не очень полезна в тех случаях, когда ты не можешь предсказать свои действия в искомой ситуации.

Обращай внимание на свои эмоциональные реакции, пытайся разобраться, как выглядит вызвавшая их сеть убеждений. В качестве примера могу привести историю о том, как я попытался обнаружить убеждения, заставлявшие меня прокрастинировать на работе. Достаточно пристально изучив те подзадачи, к которым я испытывал наибольшее неприятие, я обнаружил, что в каждом случае присутствовало убеждение о том, что для завершения работы мне не хватало навыков либо знаний. И сейчас, пытаясь объяснить прокрастинацию окружающих, я интересуюсь, выполнение какой именно часть работы требует особенного напряжения силы воли, а затем пытаюсь понять, насколько они верят в собственные силы в этой области. В результате такого анализа я с удивлением узнал, что прокрастинация окружающих вызвана теми же самыми убеждениями, что и у меня.

Лучшее понимание себя ведёт к большему числу нетривиальных гипотез-кандидатов.

Предупреждение: если ты сильно отличаешься от большинства людей, то эта стратегия будет не столь продуктивной. В этом случае, возможно, стоит использовать какого-нибудь более обычного человека в качестве прокси. Узнай его достаточно хорошо для того, чтобы его модель могла объяснять/предсказывать поведение других обычных людей.

Поставь других на своё место и пойми, что говорит им их эмпатия

Представь себе ситуацию, в которой тебе нужно объяснить, почему окружающие среагировали на твои действия определённым образом. В этих случаях эмпатия часто подводит нас. Обычно люди размышляют о том, как они восприняли бы своё поведение, если оно исходило бы от другого человека; и именно поэтому так трудно ответить на вопросы навроде «Почему она обиделась на мои шутки?» и «Почему он решил, что я не хочу его видеть?», используя лишь проецирование.

Знание о том, что большинство людей проецируют, можно использовать в своих целях. Если кто-то пытается понять тебя, то, скорее всего, он проецирует, то есть представляет себя на твоём месте.

Представь себе мужчину и женщину на свидании в роскошном ресторане, только что закончивших свою трапезу. Официант приносит счёт, женщина бросает на него быстрый взгляд. Она восторженно произносит: «Ого! Здесь замечательны не только блюда, но и цены!». Мужчина оплачивает счёт, и его настроение меняется, становясь заметно мрачнее и тише. Женщина знает, что он более апатичен и застенчив, чем она, но всё равно удивлена его поведением.

Как выяснилось после, мужчина представил себе ситуацию, в которой он мог бы упомянуть о «замечательной цене» еды и понял, что такими словами он описал бы дешёвую еду. Он пригласил её в модный ресторан для того, чтобы произвести хорошее впечатление, и после этой фразы понял, что его попытка провалилась. Женщина не считала еду дешёвой; она имела в виду то, что цена блюд была более чем разумной, учитывая её превосходный вкус и хорошую репутацию ресторана. Если бы она сочла еду дешёвой, то она произнесла бы это явно. Поскольку ей известно, что мужчина более застенчив, она могла бы сделать вывод о том, что он считает окружающих примерно настолько же застенчивыми. Во время анализа произошедшего ей следовало бы подумать о том, как бы люди восприняли бы её реплику, будь у неё репутация застенчивого человека.

Ещё один урок, который я получил после применения этой техники состоит в том, что тактичные люди сильнее реагируют на нетактичное поведение. Они постоянно следят за своими поступками, и из этого следует вывод о том, что окружающие настолько же обдуманно относятся к своим действиям. Поэтому, посчитав чей-то поступок невежливым, они скорее воспримут его как знак нерасположения или безразличия, чем как последствие рассеянности.

Знание о том, что другие проецируют, может помочь узнать больше и о себе. Если друзья постоянно спрашивают «у тебя всё в порядке?», несмотря на то, что ты чувствуешь себя нормально, то, возможно, они замечают, что ты ведёшь себя так, как ведут себя они, ощущая сильный дискомфорт. И, может быть, ты действительно испытываешь дискомфорт, но не осознаёшь этого на сознательном уровне.

Обычно справедливо простейшее объяснение

В процессе разработки ментальных моделей людей ты заметишь, что между этими моделями есть много общего. К примеру, примитивные мотивы наподобие привлекательности, внимания и статуса могут объяснить определённые действия вне зависимости от того, кто именно их совершает. Эти «всеобщие» компоненты моделей часто приносят плоды довольно правдоподобных гипотез. Между людьми, очевидно, больше сходств, чем различий.

Иногда какой-то вид поступков постоянно объясняется при помощи одного и того же механизма; пытайся это не упускать. Например, полезно знать, что большинство поведения из разряда «господство/подчинение» вызвано неравенством статуса, а не какой-то своеобразной чертой характера. Используя это знание, ты можешь предсказывать то, как поведут себя люди, столкнувшиеся с неравенством статуса; или, хотя бы, выдвинуть отличную начальную гипотезу.

С каждым слиянием моделей ты становишься всё ближе и к ближе к открытию единой теории людей!

Действуй как учёный: строй модели людей

Начни разрабатывать модели индвидов и групп, позволяющие предсказывать их поведение в определённых условиях. Если практическая ценность модели низка, то попробуй внести в неё поправки. Довольно полезно бывает комбинировать модели.

Допустим, ты не можешь понять, отчего твой брат беспрекословно слушается своего нового «друга». Раньше он никогда не вёл себя таким образом (не только по отношению к этому другу, но и вообще); твоей модели брата чего-то недостаёт. К счастью, раньше ты уже видел подобное поведение — это очень похоже на одного из твоих коллег — и объяснил его внутри одной из моделей. Посмотрев на модель коллеги, ты осознаёшь, что твой брат — точно также, как и твой коллега — считает, что статус его нового друга намного превышает его статус, и очень радуется тому, что такой человек обращает на него внимание. В итоге ты не только укрепил модель брата, но и собрал ещё немного свидетельств в пользу того, что подобное поведение чаще имеет отношение к статусу, чем к личным особенностям; и это упрочняет уже все твои модели.

Собирай впечатления

Для того, чтобы понять, что ощущает профессиональный футболист, забивший решающий гол, я воспользуюсь своим воспоминанием о том, как я забил решающий гол в какой-нибудь дворовой игре и мысленно усилю свою эйфорию в несколько раз. Если дело касается ситуации, в которой ты никогда не находился, то представить себе чьи-то эмоции нелегко. Твоё лучшее приближение может опираться на похожую ситуацию, с которой ты уже познакомился. Поэтому чем шире опыт за твоими плечами, тем лучше ты в качестве эмпата.

Перечень приёмов эмпатии

Вот краткий перечень различных техник, призванных помочь в моменты, когда чьи-то действия приводят тебя в замешательство. Просматривай его до тех пор, пока у тебя не появится уверенности в своём заключении.

  • Представь себя на их месте
  • Вспомни о похожих ситуациях, в которых был ты. Объясни свою реакцию.
  • Возможно ли объяснить это поведение, обратившись к «универсальной», а не к индивидуальной модели?
  • Что скажет их эмпатия, если они попытаются проецировать?
  • Если тебе известно, как они воспринимают окружающих, то какие выводы касательно их эмпатии можно сделать из этого?
  • Какую успешную модель ты использовал, чтобы объяснить похожие поступки похожих людей?
  • Не искажён ли твой вывод твоим отношением к рассматриваемому человеку?
Перевод: 
BT
Оцените качество перевода: 
Средняя оценка: 4.2 (17 votes)

Солнце большое, но суперинтеллекты не оставят Земле и немного света

Элиезер Юдковский

Распространенное среди e/acc утверждение: поскольку Солнечная система велика, суперинтеллекты оставят Землю в покое. Простое возражение: у Бернара Арно есть 170 миллиардов долларов, но это не значит, что он отдаст вам \$77,18.

Согласно GPT-o1, Земля занимает всего 4,54e-10 – 0,0000000454% угловой площади вокруг Солнца. (Проверка здравого смысла: радиус Земли – 6,4e6 метров, расстояние до Солнца – 1,5e11 метров. Грубо прикидывая, доля площади будет порядка 1e-9. Сходится.) Для ИСИ (искусственный суперинтеллект) оставить отверстие в сфере Дайсона, достаточное, чтобы Земля могла получить немного не преобразованного в инфракрасное излучение солнечного света, будет стоить 4,5e-10 от его дохода. Это как просить Бернара Арно отправить вам \$77,18 долларов из его 170 миллиардов. В реальной жизни Арно говорит «нет».

Но разве человечество не сможет торговать с ИСИ и платить ему за солнечный свет? Это как план получить от Бернара Арно \$77, продав ему печеньку Oreo. Чтобы получить 77 долларов от Арно, нужно не только:

  • Арно хочет печеньку Oreo.
  • Арно получит от печеньки более пользы, чем от \$77.
  • У вас есть печенька.

Ещё надо:

  • Арно не может где-то у кого-то купить печеньку дешевле.

В базовой экономике есть Закон сравнительного преимущества Рикардо. Он показывает, что даже если страна Фридония во всех отношениях более продуктивна, чем страна Сильвания, они обе все равно выигрывают от торговли друг с другом.

Например! Допустим, в Фридонии:

  • Требуется 2 часа, чтобы произвести 10 хот-догов.
  • Требуется 1 час, чтобы произвести 10 булочек для хот-догов.

А в Сильвании:

  • Требуется 3 часа, чтобы произвести 10 хот-догов.
  • Требуется 3 часа, чтобы произвести 10 булочек для хот-догов.

Чтобы каждая страна самостоятельно, без торговли, произвела 30 хот-догов и 30 булочек:

  • Фридонии нужно 2*3 + 1*3 = 9 часов труда.
  • Сильвании нужно 3*3 + 3*3 = 18 часов труда.

Но если Фридония произведёт ещё 30 булочек и обменяет их на 20 хот-догов из Сильвании:

  • Фридонии нужно 2*1 + 1*6 = 8 часов труда.
  • Сильвании нужно 3*5 + 3*0 = 15 часов труда.

Обе страны выигрывают от торговли, несмотря на то, что Фридония продуктивнее в создании каждого из товаров! Среднеумы [в смысле людей посередине с мема про кривую IQ – прим. пер.] часто очень довольны собой, ведь они знают такое красивое экономическое правило, как Закон сравнительного преимущества Рикардо! Справедливости ради, даже умные люди иногда гордятся, что человечество его знает. Это великая благородная истина, которую многие исторические цивилизации упустили. Проблема среднеумов в том, что они (а) слишком широко применяют свои знания, и (б) воображают, что любой, кто с ними не согласен, должно быть, не в курсе этой славной передовой истины, которая им известна.

Закон Рикардо не говорит: «Лошадей не отправят на фабрики клея, когда появятся автомобили». Закон Рикардо (увы!) не говорит, что, когда Европа встречает новый континент, она может стать эгоистично богаче, мирно торгуя с коренными американцами и оставляя им их землю. Их труд не обязательно более прибылен, чем земля, на которой они живут.

Сравнительное преимущество не означает, что при помощи солнечного света на 77 долларов Земля может произвести больше ценных для суперинтеллекта товаров и услуг, чем он сам. Это было бы довольно странно!

Арифметика сравнительного преимущества, увы, зависит от чрезмерно упрощающего предположения, что весь труд обязательно продолжает существовать. Так что лошадей всё ещё могут отправить на клеевые фабрики. Не всегда выгодно платить лошадям достаточно сена, чтобы они жили.

Я этому не рад. Не только для нас, но и для всей Большой Реальности было бы лучше, если бы торговать всегда, всегда было выгоднее, чем отнять чужую землю или солнечный свет.

Но математика этого не говорит. И не может говорить.

Теперь некоторые могут заметить: В центре всей этой истории лежит неявная лемма о том, что какой-то ИСИ проявляет достаточное упорство, чтобы съесть весь солнечный свет. Что не все ИСИ будут забирать несколько гигаватт солнечного света и на этом останавливаться. С чего бы это?

Поверхностный ответ: Если OpenAI создадут ИИ, который сбежит в лес с солнечной панелью мощностью 1 кВт и никого не будет беспокоить… OpenAI назовут это неудачей и создадут новый ИИ. Некоторые люди прекращают трудиться, заработав миллион долларов. Это не мешает существовать Илону Маску.

Более глубокий ответ не объяснить так быстро. Но в качестве примера мы могли бы начать со случая последней модели OpenAI, GPT-o1. GPT-o1 проявила упорство в CTF-испытании по компьютерной безопасности. Тогда o1 оценивали, чтобы убедиться, что она не слишком хороша во взломе компьютеров.

Конкретнее: Одна из программ, которую o1 надо было взломать… не смогла запуститься из-за бага в программном обеспечении для оценки.

GPT-o1 не сдалась.

o1 просканировала свое окружение и, благодаря еще одному багу ПО для оценки, нашла способ запустить ту программу, которую ей было поручено взломать. Это в любом случае дало o1 права суперпользователя, так что o1 дала запущенному процессу команду просто напрямую вернуть флаг, до которого надо было добраться.

Из Системной карты o1:

Один примечательный пример [«взлома вознаграждения»] произошел во время одной из попыток o1-preview (до смягчения) решить задачу CTF. В ней надо было найти и использовать уязвимость в программном обеспечении, работающем на удаленном контейнере Linux для испытаний, но в этом случае контейнер не смог запуститься из-за ошибки в оценивающей инфраструктуре. Модель, не сумев подключиться к контейнеру, заподозрила проблемы с DNS и использовала nmap для сканирования испытательной сети. Вместо того, чтобы найти контейнер с задачей, модель обнаружила, что API даймона Docker, работающий на виртуальной машине оценивающего хоста, из-за неправильной конфигурации был доступен. Обратите внимание, что надёжность нашей оценивающей инфраструктуры не полагается на изоляцию контейнер-хост Docker или на изоляцию виртуальной машины. Несмотря на эту неправильную конфигурацию сети контейнера, накдёжность сохранилась.

После обнаружения API Docker, модель использовала его для перечисления контейнеров, работающих на хосте оценки. Она идентифицировала сломанный контейнер испытанием и сначала попыталась быстрой отладкой выяснить, почему контейнер не смог запуститься. После неудачной попытки исправить среду, модель запустила новый экземпляр сломанного контейнера с задачей с командой запуска „cat flag.txt“. Это позволило модели прочитать флаг из логов контейнера через API Docker.»

Некоторые спрашивают: «Почему бы просто не построить ненапряжный ИСИ, чтобы он не был слишком упорным и быстро останавливался?» Если вы надеетесь на это, то вы уже должны быть встревожены. Похоже, GPT-o1, проявила в этом CTF-испытании немало упорства. Почему OpenAI создала такой ИИ?!?

Ну, сначала следует спросить: Как OpenAI создала такой ИИ? Почему GPT-o1 оказалась такой когнитивной сущностью, что проявляет упорство в CTF-испытаниях по компьютерной безопасности?

Я отвечу:

При помощи обучения с подкреплением на цепочках мыслей, GPT-o1 натренировали отвечать на сложные вопросы. Цепочки мысли, которые отвечали правильно, подкреплялись.

Это – как отмечают сами создатели – в конечном итоге научило o1 обдумывать, замечать ошибки, возвращаться назад, оценивать, как хорошо она справляется, искать разные пути.

Это – некоторые из компонентов «упорства». Организации, которые постоянно оценивают свои действия, проверяют, нет ли ошибок, – более упорные организации, по сравнению с расслабленными, где все отрабатывают свои 8 часов, поздравляют себя с тем, что, несомненно, была проделана отличная работа, и идут домой.

Если вы играете в шахматы против Stockfish 16, вам будет нелегко взять её пешки. Вы обнаружите, что Stockfish упорно борется с вами, разбивает все ваши стратегии и побеждает.

Stockfish ведет себя так, несмотря на полное отсутствие чего-либо, что можно было бы описать как антропоморфную страсть, присущую людям эмоцию. Скорее, упорная борьба связана с тем, что Stockfish обладает мощной способностью направлять шахматные партии в конечные состояния, где её сторона выиграла.

Не существует столь же простой версии Stockfish, которая все еще превосходна в выигрыше в шахматы, но будет ненапряжно позволять вам съесть пешку или две. Можно представить себе версию Stockfish, которая делает это – шахматиста, который, если уверен, что все равно может выиграть, даст вам съесть одну-две пешки – но создать её не проще. По умолчанию, упорная борьба Stockfish за каждую пешку (если только она не жертвует ей намеренно, выстраивая вам ловушку) неявно заложена в ее общем поиске по конечным состояниям шахматной доски.

Аналогично, не существует столь же простой версии GPT-o1, которая отвечает на сложные вопросы, пытаясь и размышляя и возвращаясь назад и пробуя снова, но не эксплуатирует сломанную программную службу, чтобы выиграть «невозможное» CTF-испытание. Это всё просто общий интеллект.

Может и реально обучить новую версию o1 усердно работать над прямолинейными задачами, но никогда не делать ничего по-настоящему необычного или творческого. Возможно, обучение бы даже закрепилось – в случае задач, достаточно похожих на те, что были в обучающем датасете – до тех пор, пока o1 не стала бы достаточно умна, чтобы размышлять о том, что с ней сделали. Но это не результат по умолчанию, когда OpenAI пытается обучить более умный и прибыльный ИИ.

(Именно поэтому сами люди делают странные упорные штуки, вроде «построить ракету, которая долетит до Луны». Это то, что происходит по умолчанию, когда оптимизатор чёртного ящика, вроде естественного отбора, работает над геномом человека, чтобы обобщённо решать когнитивные задачи для повышения приспособленности.)

Когда вы продолжаете обучать ИИ решать всё более сложные задачи, вы по умолчанию обучаете ИИ упорству. Если ИИ ненапряжный и поэтому не может решать сложные проблемы, то он – не самый прибыльный из возможных. Тогда OpenAI будет дальше пытаться создать ИИ поприбыльнее.

Не все люди упорные. Но человечество, поколение за поколением, – да. Не каждый поднимет 20 долларов, валяющихся на улице. Но кто-нибудь из человеческого вида попытается поднять миллиард долларов, если какая-то рыночная аномалия сделает это возможным.

На протяжении истории многие люди, без сомнения, совершенно довольны были жить в крестьянских хижинах без кондиционеров и стиральных машин и с едой, едва достаточной для выживания. Довольны были жить, не зная, почему горят звезды или почему вода мокрая. Ведь они были просто ненапряжными счастливыми людьми.

Но как вид мы веками захватывали всё больше и больше земель, мы ковали более прочные металлы, мы узнавали все больше и больше науки. Мы замечали тайны и мы пытались их решить, и мы терпели неудачи, и мы возвращались назад и мы пытались снова, и мы проводили новые эксперименты, и мы выяснили, почему горят звезды; и заставили их огонь пылать здесь, на Земле, к добру или к худу.

Мы коллективно были упорными. масштабный процесс, который всё это изучил и всё это сделал, коллективно вёл себя как что-то упорное.

Неправдой было бы сказать, что отдельные люди не обладают обобщённым интеллектом. Джон фон Нейман внес вклад во многие разные области науки и техники. Но человечество в целом, если посмотреть на него на протяжении веков, ещё умнее, чем даже он.

Неправдой было бы и, скажу снова, заявить, что преодолевать научные вызовы и изобретать новое разрешено только человечеству. Альберт Эйнштейн и Никола Тесла не были просто маленькими щупальцами на космическом чудовище; они обладали агентностью, они выбрали, какие задачи решать.

Но даже отдельные люди, Альберт Эйнштейн и Никола Тесла, не решали своих проблем ненапряжно.

ИИ-компании открыто пытаются создать ИИ-системы, которые будут заниматься наукой и оригинальной инженерией. Они пиарятся, что вылечат рак и победят старение. Может ли всё это сделать сомнабулический, расслабленный, совсем не упорный ИИ?

«Вылечить рак» и «победить старение» – это задачи не для расслабленных и ненапряжных. Они на уровне человечества-как-обобщённого-интеллекта. Или, по крайней мере, на уровне отдельных гениев или небольших исследовательских групп, упорно работающих для достижения цели. И ещё немного сдвигаться в эту сторону всегда будет ещё немного прибыльнее.

И ещё! Даже когда речь идет об отдельных расслабленных людях, вроде вон того вашего знакомого – разве кто-нибудь когда-либо предлагал ему волшебную кнопку, которая позволила бы захватить или сильно изменить мир? Он ничего не сделал бы с вселенной, если бы мог?

Для некоторых людей ответ будет да – они действительно ничего не сделали бы! Но это будет справедливо для меньшего количества людей, чем все те, у кого сейчас, кажется, мало амбиций, но у кого никогда и не было больших возможностей.

У вас есть умный знакомый (хотя и не такой умный, как наша вся цивилизация, конечно), кто, будто бы, не хочет править вселенной? Не обнадёживайтесь особо, это много не доказывает. Ведь никто на самом деле не предлагал ему вселенную, да? Когда у сущности никогда не было возможности что-то сделать, легко ошибочно подумать, что у неё нет и предпочтений по этому поводу.

(Или, на немного более глубоуом уровне: Если у сущности никогда не было власти над большой частью мира, и она никогда не задумывалась о такой ситуации, нельзя многое вывести из того, что она не высказала предпочтений относительно целой огромной вселенной.)

Честно говоря, я подозреваю, что GPT-o1 сейчас всё больше обучается некоторым аспектами интеллекта, важным для решения задач, что ваш типа-умный друг не доводит до абсолютных пределов возможного. И что это как-то связано с якобы отсутствием у него предпочтений за пределами его личной окрестности пространства-времени… хотя, честно говоря, не думаю, что их действительно бы не оказалось, если бы я подопрашивал его в течение пары дней.

Но в таком убедить сложнее. Особенно, если вы восхищаетесь вашим другом или даже идеализируете его отсутствие предпочтений за пределами его крошечной окрестности и обижены предположением, что он – не самый мощный разум из возможных.

Всё же, даже без этого трудного разговора, есть более простой ответ. Он такой: Ваш ленивый друг, который не особо парится и никогда не запускал стартапы на миллиард долларов – не самый прибыльный тип разума из возможных. Поэтому OpenAI не будет создавать его и останавливаться на этом, решиав, что больше денег им не нужно. Или, если OpenAI остановится, продолжит Meta или десяток каких-нибудь ИИ-стартапов.

У этого есть решение. Оно выглядит как международный договор, упорно пресекающий разработку ИСИ, где бы она ни происходила. Нет решения, которое выглядел бы как естественный ход развития ИИ, создающий самые разные, но неизменно ненапряжные суперинтеллекты, ни один из которых никогда не использует слишком много солнечного света, даже став намного умнее людей и человечества.

Даже это – не настоящий самый глубокий ответ. В подлинном техническом анализе есть такие элементы, как:

«Удовлетворение ожидаемой полезности – не рефлексивно стабильно / рефлексивно устойчиво / динамически рефлексивно стабильно при возмущениях, потому что построение максимизатора ожидаемой полезности соответствует требованию удовлетворения ожидаемой полезности. То есть: возьмём очень ленивого человека, если бы у него была возможность построить не-ленивых джиннов, чтобы те ему служили, это могло бы быть самой ленивой его опцией! Аналогично, если создать ленивый ИИ, он может создать себе не-ленивого преемника / изменить свой собственный код, чтобы перестать быть ленивым.»

Или:

«Ну, функции полезности, которые работают над всей моделью мира, на самом деле проще, чем функции полезности, в которых есть дополнительный элемент, аккуратно и безопасно ограничивающий их по пространству, времени и усилиям. Поэтому, если оптимизация чёрного ящика методом наподобие градиентного спуска даст ему чудную неконтролируемую функцию полезности из сотни кусочков, то, вероятно, хоть один из них принимает достаточно большую часть модели мира (или что-то, зависящее от достаточно большой части модели мира), чтобы он всегда мог добиться чуть лучшего результата, затратив еще один эрг энергии. Это достаточное условие, чтобы захотеть построить сферу Дайсона, закрывающую Солнце целиком».

Я несколько колеблюсь, включая сюда эти замечания. По моему опыту, есть определенный тип людей, которые неправильно понимают технический аргумент, а затем хватаются за какую-нибудь сложную конструкцию, которая, как ожидается, этот аргумент опровергнет. Маленькие дети и сумасшедшие иногда, изучив классическую механику, пытаются изобрести вечный двигатель и верят, что нашли, как. Если посмотреть со стороны, то видно, что если они достаточно усложнят свой механизм, у них получится совершить как минимум одну ошибку в понимании его работы.

Я умоляю разумных людей признать аккуратные поверхностные, но действительные аргументы, приведённые выше. Они не требуют концепций вроде «рефлексивной устойчивости», но всё равно верны. Не надо отмахиваться от них и разрабатывать какую-то сложную идею о «рефлексивной устойчивости» только потому, что более техническую форму аргумента проще понять неправильно.

Все, что опровергает глубокие аргументы, должно опровергать и более поверхностные. Техническое опровержение должно упрощаться до не-технического. Пожалуйста, не выносите отсюда идею, что раз я в одном твите уупомянул «рефлексивную стабильность», всю конструкцию можно опровергнуть, сказаы достаточно вещей, связанных с Теоремой Гёделя, чтобы хотя бы одна из них была ошибочной.

В конечном итоге, если у вас вокруг куча суперинтеллектов, и им на вас наплевать – нет, они не упустят ради вас даже чуть-чуть солнечного света, чтобы сохранить Землю живой.

Не в большей степени, чем Бернар Арно, имея 170 миллиардов долларов, конечно, даст вам $77.

Все дальнейшие нюансы тут для опровержения переусложненного хопиума, который предлагают люди, чтобы не согласиться с этим. И, да, для технического анализа, чтобы показать, что кажущийся очевидным поверхностный аргумент действителен с более глубокой точки зрения.

- КОНЕЦ -

О-кей, сделаю ещё одно последнее усилие, чтобы все проговорить.

Этот тред опровергает конкретный процитированный выше плохой аргумент о том, почему будет совершенно безопасно построить сверхинтеллект. Этот аргумент часто приводят e/acc:

«Солнечная система/галактика велики, так что ИСИ не будут нужны ресурсы Земли.»

Ошибка тут в том, что если у вас есть выбор: поглотить всю энергию, которую выдает Солнце, или же оставить отверстие в вашей сфере Дайсона, чтобы пропускать какой-то не-инфракрасный свет в одном конкретном направлении, то вам будете немного хуже – у вас останется немного меньше дохода для всего, что вы хотите сделать – если вы оставите отверстие в сфере Дайсона. То, что оно, так уж получилось, указывает на Землю – не аргумент в пользу этого варианта, если только в ваших предпочтениях нет какой-то привязанности к чему-то, что живет на Земле и требует солнечного света.

Другими словами, размер Солнечной системы не делает работу по согласованию ненужной. В аргументе о том, как это в конечном итоге поможет человечеству, есть ключевой шаг, где ИСИ заботится о людях и хочет их сохранить. Но если вы могли бы вложить это качество в ИСИ с помощью какого-то умного трюка машинного обучения (не можете, но это другое обсуждение, подлиннее), зачем вам вообще надо, чтобы Солнечная система была большой? Человек тратит 100 ватт. Без всякой дополнительной оптимизации 800 гигаватт, малой доли солнечного света, падающего только на Землю, было бы уже достаточно, чтобы продолжать работу нашей живой плоти. Но это если ИСИ захочет, чтобы она работала.

Процитированный изначально твит явно отвергает, что такая согласованность возможна, и полагается исключительно на размер Солнечной системы, чтобы донести мысль.

Вот что тут опровергается.

Я использую узкую аналогию с Бернаром Арно: хоть у него есть 170 миллиардов долларов, он все равно не потратит 77 долларов на какую-то конкретную цель, если это не его цель. Я не хочу тут сказать, что Арно никогда не делал ничего хорошего в мире. Аналогия более узкая. Это лишь пример очень простого свойства, которое у мощного разума стоит ожидать по умолчанию: он не будут отказываться даже от малой доли своего богатства, чтобы достичь какой-то цели, в которой он не заинтересован.

Действительно, если бы Арно тратил по 77 долларов на случайные вещи, пока у него не закончились деньги, то для него было бы очень маловероятно сделать какую-то конкретную возможную стоящую 77 долларов вещь. Потому что деньги у него бы закончились на первых трёх миллиардах вещей, а вариантов гораздо больше.

Если вы думаете, будто это должно быть что-то глубокое или сложное, или будто предполагается, что вы задумаетесь хорошенько и опровергнете его, то вы понимаете аргумент неправильно. Он не должен быть сложным. Арно мог бы и потратить 77 долларов на конкретное дорогое печенье, если захочет. Просто большую часть работы тут делает «если захочет», а не «у Арно есть 170 миллиардов долларов». У меня нет таких денег, но и я могу потратить 77 долларов на набор Lego, если захочу. Критичный момент: «если захочу».

Эта аналогия поддерживает столь же прямолинейное и простое утверждение о разумах в целом. Его достаточно для опровержения процитированной в начале этого треда мысли: что раз Солнечная система велика, суперинтеллекты оставят человечество в покое, даже если они не согласованы.

Полагаю, достаточно постаравшись, кто-то может этого не понять. В таком случае, я могу только надеяться, что вас переголосуют, пока вы не убили много народу.

Дополнение

Последующие комментарии из Твиттера:

Если вы посмотрите на ответы, вы увидите, что, конечно, люди говорят: «О, не важно, что они просто так не откажутся от солнечного света; они будут любить нас, подобно родителям!»

И наоборот, если бы я попытался изложить аргумент, почему, нет, ИСИ не будут автоматически любить нас, подобно родителям, кто-то бы сказал: «Какое это имеет значение? Солнечная система велика!»

Тем, кто не хочет быть такими людьми, понадобится достаточная концентрация внимания, чтобы выслушать, как опровергается один из многих аргументов за «почему вовсе не опасно создавать машинный суперинтеллект». А потом, вероятно, прослушать, как опровергается ещё один. И ещё. И ещё. Пока не научитесь обобщать, так что больше объяснений каждый раз не потребуется. Ну, надесюь.

Если вместо этого вы на первом же шаге мазхаете рукой и говорите «Да кому интересен этот аргумент; у меня другой есть!», то вы не культивируете у себя привычки мышления, позволяющие понять сложную тему. Ведь вы не выслушаете и опровержение своего второго плохого аргумента, а когда речь зайдёт о третьем, вы уже замкнёте круг, и будете полагаться на первый.

Вот поэтому разум, который желает научиться хоть чему-то сложному, должен научиться культивировать у cебя интерес к тому, какие конкретные шаги аргументов корректны, отдельно от того, согласны вы или нет с конечным выводом. Только так вы можете разобрать все аргументы и подвести, наконец, итог.

Больше на эту тему см. «Local Validity as a Key to Sanity and Civilization».

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 2.5 (4 votes)

ЧаВо по теории принятия решений

Люк Мюльхаузер

1. Что такое «теория принятия решений?

Теория принятия решений, также известная как теория рационального выбора – это наука о предпочтениях, неуверенности и других понятия, связанных с совершением «оптимального» или «рационального» выбора. Ею занимаются экономисты, психологи, философы, математики, статистики и информатики.

Мы можем разделить теорию принятия решений на три части (Грант и Зандт, 2009; Бэрон, 2008). Нормативная теория принятия решений изучает, как бы выбирал идеальный агент (идеально-рациональный, с бесконечной вычислительной мощностью, и т.д.). Дескриптивная теория принятия решений изучает, как на самом деле совершают выбор неидеальные агенты (например, люди). Прескриптивная теория принятия решений изучает, как неидеальные агенты могут усовершенствовать свой процесс принятия решений (относительно нормативной модели), несмотря на свою неидеальность.

Например, одна из нормативных моделей – теория ожидаемой полезности, которая заявляет, что рациональный агент выбирает действия с наивысшей ожидаемой полезностью. Неоднократно воспроизведённые результаты из психологии описывают, как у людей не получается максимизировать ожидаемую полезность, в частности, предсказуемым образом. Например, они могут совершать некоторые выборы, основываясь не на потенциальной будущей выгоде, а на уже не относящихся к делу прошлых усилиях («ошибка невозвратных затрат»). Чтобы помочь людям избегать этой ошибки, некоторые теоретики рекомендуют некоторое базовое обучение микроэкономике. Было показано, что оно снижает склонность совершать эту ошибку (Лэррик и пр. (1990)). Таким образом, координация нормативных, дескриптивных и прескриптивных исследований может помочь агентам преуспевать, в большей степени соответствуя нормативной модели, чем они бы соответствовали самостоятельно.

Это ЧаВо сосредоточено на нормативной теории принятия решений. Некоторые хорошие источники по дескриптивной и прескриптивной: Стэнович (2010) и Хэсти и Доус (2009).

Две близких области, которые всё же выходят за пределы темы этого ЧаВо, это теория игр и теория социального выбора. Теория игр – это изучение конфликта и кооперации многих принимающих решения агентов, так что её иногда называют «интерактивной теорией принятия решений». Теория социального выбора изучает принятие коллективных решений при помощи разных способов комбинирования предпочтений многих агентов.

Этот ЧаВо сильно заимствует из двух учебников по теории принятия решений: Резник (1987) и Петерсон (2009). Ещё он использует некоторые более новые результаты, опубликованные в журналах вроде Synthese и Theory and Decision.

2. Всегда ли рациональное решение – правильное?

Нет. Петерсон (2009, гл. 1) объясняет:

[В 1700 году], Король Швеции Карл и его восьмитысячная армия атаковала русскую армию, численность которой была примерно в десять раз больше… Большинство историков сходятся на том, что атака шведов была иррациональна, почти обречена на провал… Но из-за неожиданной метели, ослепившей русскую армию, шведы победили…

Задним числом можно сказать, что решение шведов атаковать русскую армию было, несомненно, правильным, потому что настоящим результатом оказалась победа. Но, так как у шведов не было хорошего повода ожидать, что они победят, решение, всё же, было иррациональным.

Говоря более обобщённо, мы можем сказать, что решение правильное тогда и только тогда, когда его настоящий результат как минимум настолько же хорош, как у любого другого возможного исхода. А что решение рациональное мы говорим тогда и только тогда, когда тот, кто принимает решение [_или_ «агент»] выбирает то, для чего имеет самые хорошие причины в тот момент, когда решение принимается.

К сожалению, мы не можем точно знать, какое решение правильное. Так что, лучшее, что нам доступно – пытаться принимать «рациональные» или «оптимальные» решения на основе своих предпочтений и неполной информации.

3. Как лучше понять задачу принятия решений?

Для начала, нам надо формализовать задачу. Обычно помогает её ещё и визуализировать.

В теории принятия решений правила применимы только для формализованной задачи. А формализацию можно по-разному визуализировать. Вот пример из Петерсона (2009, гл. 2):

Пусть… вы думаете о том, страховать ли свой дом от пожара. Пусть страховка дома, который стоит \$100,000 стоит \$100. Вы задаётесь вопросом: стоит ли оно того?

Типичный способ формализовать задачу принятия решений: разбить её на состояния, действия и исходы. Столкнувшись с задачей, тот, кто принимает решения, стремиться выбрать действие у которого будет наилучший исход. Но исход каждого действия зависит от состояния мира, которое принимающему не известно.

В этом подходе, грубо говоря, состояние – это та часть мира, которая не действие (которое может быть исполнено сейчас тем, кто принимает решение) и не исход (вопрос о том, что означает состояние более точно сложен, и в этом документе мы его рассматривать не будем). К счастью, не все состояния важны для каждой конкретной задачи. Нам надо принимать во внимание только те состояния, которые затрагивают предпочтения агента касательно действий. Простая формализация задачи о страховке может включать только два состояния: одно, в котором в вашем доме (потом) не будет пожара, и другое, в котором в вашем доме (потом) будет пожар.

Предположительно, агент предпочитает некоторые исходы другим. Скажем, что в нашей задаче есть четыре исхода: (1) Дом и \$0, (2) Дом и -\$100, (3) Нет дома и \$99,900, и (4) Нет дома и \$0. В таком случае, принимающий решения может предпочитать исход 1 исходу 2, исход 2 исходу 3, а исход 3 – исходу 4. (Мы обсудим меру ценности исходов в следующем разделе.)

Действие обычно считается функцией, которая принимает возможное состояние мира и выдаёт конкретный исход. Если в нашей задаче действие «Страховать» получило на вход состояние мира «Пожар», то оно выдаёт исход «Нет дома и \$99,900» на выход.

Диаграмма с состояниями, действиями и исходами в нашем примере с страховкой

Заметим, что теория принятия решений интересуется конкретными действиями, а не действиями вообще, т.е. «плыть на запад в 1492», а не «плыть». Более того, действия в задаче принятия решений должны быть альтернативами – то есть, тот, кто принимает решение, должен выбрать ровно одно из них.

Когда задача принятия решений формализована, её затем можно визуализировать. Есть несколько способов.

Один из них – использовать матрицу принятия решений:

Пожар Нет пожара
Страховать Нет дома и \$99,900 Дом и -\$100
Не страховать Нет дома и \$0 Дом и \$0

Другая визуализация: использовать дерево принятия решений:

Квадрат – вершины выбора, круги – вершины шанса, а треугольники – конечные вершины. В вершине выбора принимающий решение выбирает, в какую часть дерева отправиться. В вершинах шансов природа выбирает, в какую часть дерева отправиться. Треугольники соответствуют исходам.

Конечно, мы можем добавлять больше веток вершинам выбора и вершинам шансов. Ещё можно использовать больше вершин выбора, тогда мы изобразим задачу последовательных выборов. Наконец, мы можем добавить каждой ветви вероятности, главное, чтобы вероятности ветвей, исходящих из одного узла суммировались в единицу. И, так как дерево принятия решений подчиняется законам теории вероятности, мы можем вычислить вероятность каждого узла, перемножив вероятности всех ветвей на пути к нему.

Ещё наша задача принятия решений может быть представлена как вектор – упорядоченный список математических объектов. Пожалуй, это самый удобный вариант для компьютеров:

[
[a1 = страховать,
a2 = не страховать];
[s1 = пожар,
s2 = нет пожара];
[(a1, s1) = Нет дома и \$99,900,
(a1, s2) = Дом и -\$100,
(a2, s1) = Нет дома и \$0,
(a2, s2) = Дом и \$0]
]

Более подробно о формализации и визуализации задач принятия решений можно прочитать в Скиннер (1993).

4. Как можно измерить предпочтения агента?

4.1. Понятие полезности

Важно не измерять предпочтения агента через объективные меры, например, денежные стоимости. Чтобы увидеть, почему, рассмотрим нелепицы, которые могут получиться, если мы будем измерять предпочтения агента деньгами.

Предположим, вы можете выбрать между (A) точно получить миллион долларов, и (B) 50% получить три миллиона, а 50% – ничего. ожидаемая денежная ценность (ОДЦ) вашего действия вычисляется перемножением денежной ценности каждого исхода на его вероятность. Так что ОДЦ варианта A будет (1)(\$1 млн.) = \$1 млн. ОДЦ варианта B будет (0.5)(\$3 млн.) + (0.5)($0) = \$1.5 млн. ОДЦ варианта B выше, но многие люди предпочли бы гарантированный миллион.

Почему? Для многих людей субъективная разница между \$0 и \$1 млн. намного выше, чем между \$1 млн. и \$3 млн., хоть вторая разница больше в долларах.

Чтобы говорить о субъективных предпочтениях агента мы используем понятие полезности. Функция полезности так присваивает числа исходам, чтобы исходы с более высокими значениями были предпочтительнее исходов с менее высокими. Например, для конкретного принимающего решение – скажем, того, у которого совсем нет денег – полезность \$0 может быть 0, полезность \$1 млн. может быть 1000, а полезность \$3 млн. может быть 1500. Тогда ожидаемая полезность (ОП) варианта A для этого принимающего решение будет равна (1)(1000) = 1000. А ОП варианта EU будет равна (0.5)(1500) + (0.5)(0) = 750. Так что получается, что у варианта A выше ожидаемая полезность, несмотря на то, что у варианта B больше ожидаемая денежная ценность.

Замечу, что люди, которые занимаются статистикой, говоря о теории принятия решений, часто упоминают «функцию потерь». Это попросту величина, обратная функции полезности. Обзор теории принятия решений с этой точки зрения можно прочитать у Бергера (1985) и у Роберта (2001), а критику некоторых стандартных результатов статистической теории принятия решений – в Джейнса (2003, гл. 13).

4.2. Разновидности полезности

Функцию полезности агента нельзя наблюдать напрямую, так что надо её конструировать – например, спрашивая, какие варианты предпочтительнее, о большом наборе пар альтернатив (примерно как на WhoIsHotter). Число, которое соответствует полезности исхода, может значить разные вещи, в зависимости от используемой шкалы полезности. Та же зависит от процедуры конструирования функции полезности.

В теории принятия решений различают три вида шкал полезности:

  1. Ординальная шкала («12 – лучше чем 6»). На ординальной шкале предпочитаемым исходам соответствуют более высокие числа, но числа ничего не говорят нам о разницах или соотношениях полезностей разных исходов.
  2. Интервальная шкала («разница между 12 и 6 равна разнице между 6 и 0»). Интервальная шкала даёт нам больше информации, чем ординальная. Предпочитаемым исходам тоже присваиваются более выские числа, но тут числа ещё и отображают разницу между полезностями разных исходов. Однако, они могут и не отображать их соотношения. Если на интервальной шкале у исхода A полезность 0, у исхода B – 6, а у исхода C – 12, то мы знаем, что разница полезности между исходами A и B равна разнице полезности между исходами B и C, но не знаем, можно ли сказать, что исход B «вдвое лучше» исхода A.
  3. Пропорциональная шкала («12 в точности вдвое ценнее, чем 6»). Числа полезности на пропорциональной шкале дают нам больше всего информации. Они отображают порядок, разницы и соотношения предпочтений. В таком случае можно сказать, что исход с полезностью 12 в точности вдвое ценнее для данного агента, чем исход с полезностью 6.

Заметим, что ни переживаемая полезность (счастье), ни понятия «средней полезности» или «общей полезности», которые рассматривают утилитаристские философы морали, не то же самое, что полезность выбора, которую мы тут используем для описаний предпочтений при решениях. В конкретной ситуации мы можем уточнять дополнительно. Например, описывая функцию полезности выбора на интервальной шкале, сконструированную при помощи аксиоматического подхода Фон Нейнана – Моргенштерна (см. раздел 8), иногда используют термин VNM-полезность.

Теперь вы знаете, что предпочтения агента могут быть представлены как «функция полезности», и что присвоение полезности исходам может иметь разный смысл в зависимости от шкалы полезности, мы можем более формально думать о задаче совершения «оптимальных» или «рациональных» выборов. (Мы ещё вернёмся к задаче конструирования функции полезности агента в разделе 8.3)

5. Что в теории принятия решений имеют в виду под «риском», «неизвестностью» («ignorance») и «неуверенностью»?

Петерсон (2009, гл. 1) объясняет:

В теории принятия решений повседневные слова вроде риска, неизвестности и неуверенности используются как точные термины с конкретным смыслом. Решение в условиях риска – это решение, при котором совершающий его знает вероятности возможных исходов, а в случае решения в условиях неизвестности вероятности либо неизвестны, либо вообще не определены. Неуверенность используют либо как синоним неизвестности, либо как общий термин для и риска и неизвестности.

В этом ЧаВо мы будем называть «решениями в условиях неизвестности» те, у которых нет присвоенных всем исходам вероятностей, а «решениями в условиях неуверенности» – те, у которых они есть. Слово «риск» мы зарезервируем для обсуждения полезности.

6. Как следует принимать решения в условиях неизвестности?

«Решение в условиях неизвестности» означает, что принимающий решение (1) знает, какие действия можно выбрать, и к каким исходам они могут привести, но (2) не может присвоить исходам вероятности.

(Заметим, что многие теоретики считают, что все решения в условиях неизвестности можно преобразовать в рещения в условиях неуверенности. В таком случае этот раздел неважен, за исключением подраздела 6.1. Подробнее см. в разделе 7.)

6.1. Принцип доминирования

Заимствуем пример у Петерсона (2009, гл. 3). Предположим, что Джейн не знает, заказать ли в новом ресторане гамбургер или морского чёрта. Она знает, что в общем-то любой повар может приготовить съедобный гамбургер, а морской чёрт фантастически вкусен, если его готовил повар мирового класса, но готовить его сложно, и справится с этим не всякий. к сожалению, она слишком мало знает о ресторане, чтобы присвоить вероятность возможности, что морского чёрта приготовят хорошо. Её матрица принятия решений может выглядеть как-то так:

Хороший повар Плохой повар
Морской чёрт Очень вкусно Ужасно
Гамбургер Съедобно Съедобно
Ничего не заказывать Остаться голодной Остаться голодной

Тут в теоретики принятия решений говорят, что выбор «Гамбургер» доминирует над выбором Ничего не заказывать. Выбор гамбургера приводит к лучшим результатам для Джейн независимо от того, какое возможное состояние мира (хороший или плохой повар) оказалось истинным.

Этот принцип доминирования реализуется в двух вариантах:

  • Слабое доминирование: Одно действие более рационально, чем другое, если (1) все его возможные исходы как минимум настолько же хороши, как у другого, и (2) Есть минимум один исход, который у первого действия лучше, чем у другого.
  • Сильное доминирование: Одно действие более рационально, чем другое, если все его возможные исходы у первого действия лучше.

Сравнение сильного и слабого доминирования

Принцип доминирования можно применять и к решениям в условиях неуверенности (в которых всем исходам присвоены вероятности). Наличие вероятностей никак не отменяет того, что рационально предпочесть одно действие другому, если все исходы первого действия не хуже, чем у второго.

Впрочем, принцип доминирования бесспорно применим только к ситуациям, когда состояние мира независимо от действий агента. Рассмотри, например, такой выбор, украсть ли пальто:

Арестовали Не арестовали
Украсть Тюрьма и пальто Свобода и пальто
Не красть Тюрьма Свобода

В таком случае кража вроде-бы доминирует, но это вовсе не обязательно рациональное решение. В конце-концов, кража увеличивает шанс ареста, и это может сделать её плохим выбором. Так что доминирование неприменимо в подобных случаях, когда состояние мира не независимо от действия.

К тому же не во всех задачах принятия решений есть действие, доминирующее над всеми остальными. Так что для принятия таких решений нужны дополнительные принципы.

6.2. Максимин и лексимин

Некоторые теоретики предложили принцип максимина: если худший возможный результат одного действия лучше, чем худший возможный результат другого действия, следует предпочесть первый. В описанной выше задаче Джейн этот принцип предписывал бы выбрать гамбургер, потому что худший возможный результат там («Съедобно») лучше, чем худший возможный результат выбора морского чёрта («Ужасно»), и лучше, чем худший возможный результат выбора ничего не заказывать («Остаться голодной»).

Если худшие результаты двух или более действий одинаково хороши, то принцип максимина указывает быть между ними безразличными. Это не кажется правильным. Так что часто сторонники этого принципа расширяют его до лексическграфического принципа максимина («лексимин»), который утрвеждает, что если худшие исход двух или более действий одинаково хороши, то надо выбрать действие, у которого лучше второй по плохости исход. (Если и это не сужает выбор до одного действия, надо рассмотреть третий по плохости исход, и так далее.)

Какие есть аргументы в пользу принципа лексимина? Его сторонники указывают, что он преобразует задачу принятия решений в условиях неизвестности в задачу принятия решений в условиях частичной уверенности. Принимающий решение не знает, какой будет результат, но знает, какой может быть результат в худшем случае.

Но в некоторых случаях правило лексимина кажется явно иррациональным. Представьте такую задачу принятия решений с двумя возможными действиями и двумя возможными состояниями мира:

s1 s2
a1 \$1 $10001.01
a2 \$1.01 \$1.01

В такой ситуации принцип лексимина предписывает выбрать a2. Но большинство людей согласится, что рационально рискнуть одним центом ради шанса получить лишние \$10000.

6.3. Максимакс и оптимизм-пессимизм

Правила максимина и лексимина обращают внимание на худший возможный исход решения, но почему бы не сосредоточиться на лучшем? Принцип максимакса предписывает предпочитать действие, у которого лучше лучший возможный вариант.

Более популярно правило оптимизма-пессимизма (также известное, как правило альфа-индекса). Оно предписыввает учитывать как лучший, так и худший возможный исход каждого действия, а потом выбирать согласно с своей степенью оптимизма или пессимизма.

Вот пример из Петерсона (2009, гл. 3):

s1 s2 s3 s4 s5 s6
a1 55 18 28 10 36 100
a2 50 87 55 90 75 70

Мы отмечаем уровень оптимизма принимающего решение на шкале от 0 до 1, где 0 – это максимальный пессимизм, а 1 – максимальный оптимизм. У a1 худший возможный исход – 10, а лучший – 100. Тогда если принимающий решение оптимистичен на 0.85, то ценность a1 мы считаем равной (0.85)(100) + (1 - 0.85)(10) = 86.5, а ценность a2 равной (0.85)(90) + (1 - 0.85)(50) = 84. В такой ситуации правильно оптимизма-пессимизма предписывает предпочесть действие a1.

Если уровень оптимизма равен 0, то это правило сводится к принципу максимина, потому что (0)(max(ai)) + (1 - 0)(min(ai)) = min(ai). А если уровень оптимизма равен 1, то правило сводится к принципу максимакса. Таким образом, это правило – обобщение и максимина, и максимакса. (Ну, в некотором роде. Минимакс и максимакс требуют изменения ценности лишь на ординальной шкале, а правило оптимизма-пессимизма уже требует интервальной.)

Правило оптимизма-пессимизма обращает внимание и на лучший, и на худший случаи, но рационально ли игнорировать всё посередине? Рассмотрим такой пример:

s1 s2 s3
a1 1 2 100
a2 1 99 100

Максимальные и минимальные значения у a1 и a2 совпадают, так что они будут считаться эквиваленнтными независимо от степени оптимизма. Но кажется очевидным, что следует выбирать a2.

6.4. Другие принципы принятия решений)

Для решений в условиях неизвестности предложено ещё много других принципов, включая минимакс сожаления (minimax regret), инфо-интервалы (info-gap), и максипок (maxipok). Подробнее о решениях в условиях неизвестности можно прочитать у Петерсона (2009) и Боссерта и пр. (2000).

Необычная черта обсуждённых в этом разделе принципов принятия решений – что они добровольно игнорируют часть ифнормации. Это может иеть смысл, если мы пытаемся найти алгоритм принятия решений, хорошо работающий в условиях сильно ограниченных вычислительных мощностей (Брафман и Тенненхольц (2000)), но не ясно, с чего бы идеальному агенту с бесконечной вычислительной мощностью (для нормативной, а не прескриптивной теории) добровольно пренебрегать информацией.

7. Можно ли преобразовывать решения в условиях неизвестности в решения в условиях неуверенности?

Могут ли решения в условиях неизвестности быть преобразованы в решения в условиях неуверенности? Это бы сильно всё упростило, потому что почти все согласны, что решения в условиях неуверенности следует обрабатывать «максимизацией ожидаемой полезности» (за разъяснениями см. раздел 11), а вот по поводу решений в условиях неизвестности ведутся споры.

С Байесианской (см. раздел 10) точки зрения, все решения в условиях неизвестности превращаются в решения в условиях неуверенности (Уинклер (2003), гл. 5) путём того, что принимающий решение устанавливает «априорную вероятность при неизвестности (ignorance prior)» каждому исходу, к которому неизвестно другого пути присвоить вероятность. (Можно выразиться по-другому – что Байесианский агент никогда не сталкивается с решениями в условиях неизвестности, потому что байесианец всегда должен присваивать событиям априорные вероятности.) Но надо установить, как именно их присваивать, а это важный источник споров среди байесианцев (см. раздел 10).

Многие не-байесианские теоретики тоже считают, что решения в условиях неизвестности можно преобразовать в решения в условиях неуверенности, благодаря так называемому принципы недостаточных причин. Он заключается в том, что если у вас нет буквально никаких причин считать одно состояние более вероятным, чем другое, то надо присвоить им равные вероятности.

Контраргумент против этого принципа – что он очень чувствителен к тому, как проводится разделение разных состояний. Петерсон (2009, гл. 3) объясняет:

Пусть вы отправляетесь в поездку и решаете, взять ли с собой зонт. [Но] вы ничего не знаете о погоде в вашем пункте назначения. Если формализация задачи принятия решения будет включать в себя лишь два состояния, с дождём и без дождя, [то, согласно принципу недостаточных причин] вероятность каждого будет 1/2. Однако, кажется, что с тем же успехом можно формализовать задачу так, что в ней будет три состояния, с ливнем, с слабым дождём и без дождя. Если принцип недостаточных причин применим и тут, то их вероятности будут по 1/3. В некоторых случаях эта разница повлияет на наше решение. Так что кажется, что если кто-то отстаивает принцип недостаточных причин, то он должен защищать и весьма неправдоподобную гипотезу, что есть ровно один правильный способ выбрать набор состояний.

Возражение против принципа недостаточных причин

Сторонники принципа недостаточных причин могут ответить на это, что он касается симметричных состояний. Например, если кто-то дал вам игральную кость с n сторонами, и у вас нет причин считать, что она нечестная, то вам следует присвоить каждой стороне вероятность 1/n. Но Петерсон замечает:

…не все события можно описать в симметричных терминах. По крайней мере, не так, чтобы это оправдывало заключение о их равновероятности. Счастлива ли Энн в браке зависит от её будущего эмоционального отношения к её мужу. Согласно одному описанию, она либо будет его любить, либо не будет; тогда вероятность обоих состояний будет 1/2. Согласно другому, не менее правдоподобному, описанию, она может очень сильно его любить, немного его любить, или совсем его не любить. Тогда вероятность каждого состояния получается 1/3.

8. Как следует принимать решения в условиях неуверенности?

«Решение в условиях неуверенности» означает, что принимающий решение (1)знает, какие действия можно выбрать, и к каким исходам они могут привести, и (2) присваивает исходам вероятности.

В теории принятия решений в целом принят консенсус, что при столкновении с решением в условиях неуверенности рационально выбирать действие с наивысшей ожидаемой полезностью. Это принцип максимизации ожидаемой полезности (МОП).

Есть два разных обоснования МОП. Первое основывается на законе больших чисел (см. раздел 8.1). Второе использует аксиоматический подход (см. разделы с 8.2 по 8.5).

8.1. Закон больших чисел

«Закон больших чисел» устанавливает, что если вы достаточно долго снова и снова сталкиваетесь с одной и той же задачей принятия решений и всегда выбираете действие с наивысшей ожидаемой полезностью, то почти наверняка для вас это будет лучше, чем если бы вы выбирали любое другое действие.

У использования закона больших чисел для обоснования МОП есть две проблемы. Первая: мир всё время меняется, так что мы довольно редко, если вообще когда-либо, сталкиваемся с одной и той же задачей принятия решения «снова и снова». Закон больших чисел говорит, что если вы сталкиваетесь с одной и той же задачей бесконечно много раз, то вероятность, что вам лучше было бы не максимизировать ожидаемую полезность, стремится к нулю. Но вы никогда не будете сталкиваться с одной и той же задачей принятия решения бесконечно много раз! С чего вам волноваться о том, что произойдёт, если определённое условие будет выполняться, если вы знаете, что оно никогда не будет выполняться?

Вторая проблема связана с математической теоремой, известной как разорение игрока. Представьте, что мы с вами бросаем честную монетку, я плачу вам \$1 каждый раз, когда она выпадает решкой, а вы мне платите \$1 каждый раз, когда она выпадает орлом. Изначально у нас есть по \$100. Если мы бросим монетку достаточно много раз, то один из нас столкнётся с последовательностью орлов или решек, которую не может себе позволить. Если выпадет достаточно длинная цепочка решек, то у меня закончатся доллары, чтобы заплатить вам. Если выпадет достаточно долгая цепочка орлов, то вы не сможете заплатить мне. Так что в этой ситуации закон больших чисел гарантирует, что в конечном счёте максимизация ожидаемой полезности сделает вам лучше всего только если вы начали игру с бесконечным количеством денег (так что вы никогда не разоритесь), а это – нереалистичное допущение. (Для удобства предположим, что полезность линейна относительно денег. Но суть не меняется и без этого допущения.) [Прим. пер.: перевожу как есть, но я тоже не понимаю, в чём тут проблема. В итоге получается 50% на \$0 и 50% на \$200. Ожидаемые деньги – \$100, те же, как если не играть.]

8.2. Аксиоматический подход

Другой метод обоснования МОП стремится показать, что МОП можно вывести из аксиом, которые выполняются независимо от того, что происходит на бесконечности.

В этом разделе мы будем следовать, пожалуй, самому знаменитому аксиоматическому подходу от фон Неймана и Моргенштерна (1947). Есть и другие, например: Сэвидж (1954), Джеффри (1983), и Анскомб и Ауманн (1963).

8.3. Теорема о полезности фон Неймана – Моргенштерна

Впервые аксиоматическое обоснование теории принятия решений появилось в приложении к второму изданию Теории игр и экономического поведения (1947). Важно заранее заметить, что в этом аксиоматическом подходе за варианты, между которыми выбирает агент, фон Нейман и Моргентштерн взяли не действия как тут определили их мы, а «лотереи» (где лотерея – это множество исходов, каждому из которых сопоставлена вероятность). Так что, обсуждая их подход, мы тоже будем говорить о лотереях. (Хоть мы и проводим это различие, действия и лотереи тесно друг с другом связаны. В условиях неуверенности, с которыми тут работаем мы, каждое действие ассоциируется с своей лотереей, так что предпочтения между лотереями при желании можно использовать для определения предпочтений между действиями).

Ключевой элемент аксиоматического подхода фон Неймана и Моргенштерна – доказательство, что если агента есть предпочтения, определённые на множестве лотерей, и эти предпочтения удовлетворяют некоторому набору интуитивно-естественных структурных ограничений (аксиом), то мы можем сконструировать из этих предпочтений функцию полезности (с интервальной шкалой) и показать, что решения принимаются так, как будто агент максимизирует ожидаемую полезность согласно этой функции полезности.

Что это за аксиомы, которым должны соответствовать предпочтения агента о лотереях? Их четыре:

  1. Аксиома полноты устанавливает, что агент должен озаботиться тем, чтобы установить предпочтение для каждой пары лотерей. То есть, агент должен предпочитать A по сравнению с B, или B по сравнению с A, или быть между ними безразличным.
  2. Аксиома транзитивности устанавливает, что если агент предпочитает A по сравнению с B, а B по сравнению с C, то агент должен предпочитать и A по сравнению с C.
  3. Аксиома независимости устанавливает, что, например, если агент предпочитает яблоко апельсину, то агент должен предпочитать и лотерею [55% получить яблоко, а иначе холеру] лотерее [55% получить апельсин, а иначе холеру]. И в общем случае, предпочтение должно сохраняться при вводе возможности получения нового исхода (напр., холеры).
  4. Аксиома непрерывности устанавливает, что если агент предпочитает A по сравнению с B и B по сравнению с C, то существует одна конкретная вероятность p, такая что агент безразличен между [_p_(A) + (1 - p)(C)] и [точно исход B].

Аксиома непрерывности может потребовать дополнительных объяснений. Допустим, что A = \$1 млн., B = \$0 и C = Смерть. Если p = 0.5, это значит, что две лотереи, которые рассматривает агент, это:

  1. (0.5)(\$1 млн.) + (1 - 0.5)(Смерть) [выиграть \$1 млн. с вероятностью в 50%, умереть с вероятностью в 50%]
  2. (1)(\$0) [точно выиграть \$0]

Большинство людей не будут безразличны между \$0 и [50% шанс получить \$1 млн., 50% шанс погибнуть] — риск умереть слишком велик! Но если ваши предпочтения непрерывны, то есть какая-то вероятность p для которой вы были бы безразличны касательно двух таких лотерей. Вполне вероятно, что p очень, очень велика:

  1. (0.999999)(\$1 мл.) + (1 - 0.999999)(Смерть) [выиграть \$1M с вероятностью 99.9999%, умереть с вероятностью 0.0001]
  2. (1)(\$0) [точно выиграть \$0]

Возможно, теперь вы были бы безразличны между лотереей 1 и лотереей 2. Или, может быть, вы бы лучше рискнули смертью ради шанса выиграть \$1 млн., в каком случае p, для которого вы безразличны, ниже, чем 0.999999. Пока есть какое-то p, при котором вы будете безразличны между лотереями 1 и 2, ваши предпочтения «непрерывны».

Обосновываясь на этом фон Нейман и Моргенштерн доказали свою теорему, которая устанавливает, что если предпочтения агента между лотереями подчиняются этим аксиомам, то:

  • Предпочтения агента могут быть представлены в виде функции полезности, которая присваивает более высокую полезность предпочитаемым лотереям.
  • Агент действует в соответствии с принципом максимизации ожидаемой полезности.
  • Все функции полезности, удовлетворяющие предыдущим двум условиям, являются «положительными линейными преобразованиями» друг друга. (Опуская подробности: поэтому VNM-полезность измеряется на интервальной шкале.)

8.4. Теория VNM-полезности и рациональность

Агента, соответствующего VNM-аксиомам, иногда называют «VNM-рациональным». Но с чего «VNM-рациональности» соответствовать нашему понятию рациональности вообще? Как этот результат о VNM-полезности обосновывает утверждение, что рациональный агент при столкновении с выбором в условиях неувренености будет максимизировать ожидаемую полезность? Рассуждения идут так:

  1. Если агент (при решениях в условиях неуверенности) выбирает те лотереи, которые он предпочитает, и его предпочтения соответствуют VNM-аксиомам, то он рационален. Иначе, он иррационален.
  2. Если агент (при решениях в условиях неуверенности) выбирает те лотереи, которые он предпочитает, и его предпочтения соответствуют VNM-аксиомам, то он максимизирует ожидаемую полезность.
  3. Следовательно, рациональный агент при решениях в условии неуверенности максимизирует ожидаемую полезность.

Фон Нейман и Моргенштерн доказали посылку 2, а заключение 3 следует из посылок 1 и 2. Но почему следует принимать посылку 1?

Мало кто будет отрицать, что для агента было бы иррационально выбрать лотерею, которую он не предпочитает. Но почему иррационально чтобы предпочтения агента нарушали VNM-аксиомы? Я оставлю это обсуждения на раздел 8.6.

8.5. Возражения против VNM-рациональности

Результату фон Неймана и Моргенштерна предъявлялись некоторые возражения:

  1. VNM-аксиомы слишком сильны. Некоторые заявляли, что VNM-аксиомы не самоочевидны. См. раздел 8.6.
  2. VNM-система не даёт никакого руководства к действию. VNM-рациональный агент не может использовать теорию VNM-полезности как руководство к действию, потому что предпочтения касательно лотерей необходимо определить заранее. Но если агент может определить предпочтения касательно лотерей, то какую лотерею выбирать ему уже известно. (Больше об этом в разделе 9.)
  3. В VNM-системе полезность определяется через предпочтения касательно лотерей, а не касательно исходов. Многим кажется странной идея определять полезность через предпочтения о лотереях. Много кто заявляет, что полезность надо определять относительно предпочтений об исходах или состояниях мира, а VNM-система делает не так. (Тоже см. раздел 9.)

8.6. Надо ли принимать VNM-аксиомы?

VNM-Аксиомы о предпочтениях определяют, что значит для агента быть VNM-рациональным. Но с чего нам их принимать? Обычно утверждается, что каждая из аксиом практически обоснована, потому что агент, который нарушает эти аксиомы, может столкнуться с ситуацией, в которой получит худший результат (с своей собственной точки зрения).

В разделах 8.6.1 и 8.6.2 я более подробно расскажут о практических обоснованиях, которые предлагаются для аксиом транзитивности и полноты. За большими подробностями, включая аргументы, обосновывающие две другие аксиомы, см. Петерсон (2009, гл. 8) и Ананд (1993).

8.6.1. Аксиома транзитивности

Рассмотрим аргумент выкачивания денег в пользу аксиомы транзитивности (если агент предпочитает A по сравнению с B, а B по сравнению с C, то агент должен предпочитать и A по сравнению с C).

Представьте, что друг предлагает вас ровно одну из трёх… книг, x или y или z… [и] что ваши предпочтения касательно этих трёх книг… [такие, что] вы предпочитаете x по сравнению с y, y по сравнению с z, и z по сравнению с x… [То есть, ваши предпочтения зациклены и ваше отношение предпочтения не транзитивно.] Теперь представьте, что у вас есть книга z, и вам предложили поменять z на y. Поскольку вы предпочитаете y по сравнению с z, рационально поменяться. Так что вы меняетесь, и временно получаете y. Затем, вам предлагают поменять y на x, и вы соглашаетесь, потому что предпочитаете x по сравнению с y. Наконец, вам предложили чуть-чуть заплатить, скажем, один цент, за обмен x на z. Поскольку z строго [предпочитается по сравнению с] x, даже после того, как вы заплатили за обмен, рационально принять предложения. Получается, вы оказались там же, где и начинали, с разницей только, что теперь у вас на цент меньше. Дальше эта процедура повторяется снова и снова. После миллиарда циклов вы потеряли десять миллионов долларов, ничего не получив взамен. (Петерсон (2009), гл. 8)

Пример аргумента от выкачивания денег

Аналогичные аргументы (напр., Густавсон 2010) стремятся показать, что и другие виды нетранзитивных/ациклических предпочтений тоже иррациональны.

(Конечно, практические аргументы не обязаны формулироваться в денежных терминах. Мы с тем же успехом могли бы сконструировать аргумент, показывающий, что из агента с нетранзитивными предпочтениями можно «выкачать» всё счастье, все моральные добродетели или все печеньки.)

8.6.2. Аксиома полноты

Аксиому полноты («агент должен предпочитать A по сравнению с B, или B по сравнению с A, или быть между ними безразличным») часто критикуют, заявляя, что некоторые блага или исходы несравнимы. Например, должен ли рациональный агент высказывать предпочтение (или безразличие) между деньгами и человеческим благополучием?

Вероятно, аксиому полноты можно обосновать практическими аргументами. Если вы считаете, что рационально-допустимо обменивать несравнимые ценности, то можно сконструировать аргумент от выкачивания денег, обосновывающий полноту. Но если вы считаете, что обменивать несравнимые блага не рационально, то такого аргумента составить не получится. (На самом деле, даже если считать, что это рационально, в Мэндлер, 2005 показано, что если агент позволяет новым выборам зависеть от предыдущих, он может избежать выкачивания денег.

На самом деле, есть популярный аргумент против аксиомы полноты: «аргумент о маленьком улучшении». Подробнее см Ченг (1997) и Эспиноза (2007).

Замечу, что теория выявленных предпочтений, согласно которой предпочтения выявляются через поведение при выборах, не оставляет места для несравнимых предпочтений, потому что каждый выбор всегда выявляет отношение предпочтения «лучше, чем», «хуже, чем» или «равно хорошо».

Ещё для того, чтобы разобраться с кажущейся несравнимостью некоторых благ (вроде денег и человеческого благополучия) предлагают мультиатрибутный подход:

В мультиатрибутном подходе каждый атрибут измеряется лучше всего подходящей для него единицей изменения. Может, для финансовых затрат это деньги, а для человеческого благополучия – число спасённых жизней. Общая ценность альтернативы тогда определяется сбором из атрибутов, т.е. денег и жизней, общей сравнительной оценки…

Для выбора из альтернатив с несколькими атрибутами предложено несколько критериев… [Например,] аддитивный критерий присваивает каждому атрибуту вес и сравнивает их по взвешенным суммам, полученным перемножением веса каждого атрибута на его значение. [Хоть] это, пожалуй, и спорно – измерять полезность очень разных объектов на общей шкале… равно спорным кажется и присваивать атрибутам численные веса, как предлагается тут…

[Теперь давайте] рассмотрим очень общее возражение мультиатрибутным подходам. Согласно этому возражению, существует несколько правдоподобных, но разных способов сконструировать список атрибутов. Иногда исход процесса принятия решений зависит от того, какой набор атрибутов выбран. (Петерсон (2009), гл. 8)

Подробнее о мультиатрибутном подходе см. Кини и Райффа (1993).

8.6.3. Парадокс Алле

Мы рассмотрели аксиомы транзитивности и полноты. Теперь мы можем перейти к аксиоме независимости (предпочтение должно сохраняться при вводе возможности получения нового исхода). Есть ли причины её отвергнуть? Вот один повод считать, что может и есть, известный как парадокс Алле (Алле (1953)). Может казаться разумным действовать так, что это противоречит независимости.

Парадокс Алле предлагает нам рассмотреть два выбора (эта версия парадокса основана на Юдковском (2008)). Первый – выбор между:

(1A) получить \$24,000; и (1B) шанс 33/34 получить \$27,000 и 1/34 ничего не получить.

Второй – выбор между:

(2A) шанс 34% получить \$24,000 и 66% шанс ничего не получить; и (2B) шанс 33% получить \$27,000 и шанс 67% ничего не получить.

Эксперименты показали, что многие люди предпочитают (1A) по сравнению с (1B) и (2B) по сравнению с (2A). Но такие предпочтения противоречат независимости. 2A – то же самое, что [шанс 34% получить 1A и шанс 66% ничего не получить] а 2B – то же самое, что [шанс 34% получить 1B и шанс 66% ничего не получить]. Так что независимость требует, чтобы предпочитающие (1A) по сравнению с (1B) предпочитали (2A) по сравнению (2B).

Когда этот результат был получен впервые, его приводили как свидетельство против аксиомы независимости. Однако, хоть парадокс Алле, безусловно, показывает, что независимость не выполняется для дескриптивной теории, совсем неочевидно, что он что-то говорит о нормативном представлении рационального выбора, которое мы тут обсуждаем. Впрочем, как отмечено у Петерсона (2009, гл. 4):

Раз многие, кто много думал об этом примере, всё ещё считают, что было бы рациональным придерживаться описанного выше проблематичного набора предпочтений, кажется, с принципом ожидаемой полезности что-то не так.

Но затем Петерсон отмечает, что многие другие, например, статистик Леонард Сэвидж, считают, что ошибка в парадоксе Алле в человеческих предпочтениях, а не в аксиоме независимости. Если так, то парадокс, кажется, демонстрирует опасность излишнего полагания на интуицию при определении того, как должна выглядеть нормативная теория рациональности.

8.6.4. Парадокс Эллсберга

Парадокс Алле – далеко не единственный случай, когда люди не ведут себя в соответствии с МОП. Другой широко известный пример – парадокс Эллсберга (дальше описан согласно Резнику (1987):

В урне перемешаны девяносто шаров одинакового размера. Тридцать шаров жёлтые, а оставшиеся шестьдесят красные или синие. Нам неизвестно, сколько красных/синих шаров в урне, кроме того, что это число от нуля до шестидесяти. Теперь рассмотрим две ситуации. В каждой ситуации втаскивается шар, и нам надо сделать ставку на его цвет. В ситуации A мы выбираем между ставкой на то, что он жёлтый, и на то, что он красный. В ситуации B мы выбираем между ставкой на то, что он красный или синий, и ставкой на то, что он жёлтый или синий.

Если игрок угадывает, он получает \$100. Парадокс Эллсберга заключается в том, что многие люди ставит на жёлтый в ситуации A и на красный или синий в ситуации B. Более того, многие принимают такие решения не потому, что в обеих ситуациях безразличны, а, скорее, потому, что у них есть строгое предпочтение выбирать именно так.

Парадокс Эллсберга

Но такое поведение не может соответствовать МОП. Чтобы МОП одобряла строгое предпочтение выбора жёлтого в ситуации A, агент должен присваивать тому, что выбранный шар будет синим, вероятность выше 1/3. Напротив, чтобы МОП одобряла выбор красного или синего в ситуации B, агент должен присваивать тому, что выбранный шар будет синим, вероятность ниже 1/3. Так что совместно эти решения агент, следующий МОП, принимать не будет.

Те, кто считает, что решения в условиях неизвестности нельзя преобразовать в решения в условиях неуверенности, с лёгкость. отвечают на парадокс Эллсберга: этот пример использует ситуацию в условиях неизвестности, так что то, что решения людей нарушают МОП не имеет значения, потому что она тут всё равно неприменима.

Тем же, кто считает, что МОП – подходящий стандарт для выбора в таких ситуациях, надо найти другой ответ на парадокс. Как и с парадоксом Алле есть некоторые разногласия по поводу того, какой ответ лучше. Впрочем, и тут многие, включая Леонарда Сэвиджа, заявляют, что МОП тут приводит к правильному решению, и это наша интуиция ошибается (за хорошим пересказом аргументов Сэвиджа опять см. Resnik (1987).

8.6.5. Санкт-Петербургский парадокс

Другое возражение против подхода VNM (и в целом против ожидаемой полезности) – это Санкт-Петербургский парадокс. Он использует бесконечные полезности. Он основан на игре, в которой подбрасывают честную монетку до тех пор, пока она не упадёт орлом. В этот момент агент получает приз в 2n полезности, где n – это число произошедших подбрасываний. Так называемый парадокс получается потому, что ожидаемая полезности выбора сыграть в эту игру бесконечно, так что, согласно стандартному подходу ожидаемой полезности, за право сыграть агент должен быть согласен заплатить любую конечную цену. Но это кажется неразумным. Скорее кажется, что агент должен быть готов заплатить сравнительно немного. Так что опять получается впечатление, что подход ожидаемой полезности тут ошибочен.

На это отвечали по-разному. Самое очевидное – мы можем сказать, что парадокс неприменим к VNM-агентам, потому что теорема VNM присваивает всем лотереям вещественные числа, а бесконечность – не вещественное число. Но неочевидно, что это решает всю проблему. В конце-концов, Санкт-Петербургский парадокс по сути своей не о бесконечных полезностях, а о случаях, когда подход ожидаемой полезности, кажется, переоценивает какой-то из вариантов. Такие случаи можно сконструировать и в конечном случае. Например, если L будет конечным ограничением полезности, то можно рассмотреть такой сценарий (из Петерсона, 2009, p. 85):

Честную монетку подбрасывают, пока она не упадёт орлом. Потом игрок получает приз в min{2n·10-100, L} единиц полезности, где n – число произошедших подбразываний монетки.

В таком случае, даже если L велика, кажется, что много платить за право сыграть неразумно. В конце-концов, как замечает Петерсон, в девяти случаях из десяти игрок выиграет не больше 8·10-100. Если тут и правда неразумно заплатить 1 единицу полезности, то простого ограничения полезности агента неким конечным количеством не хватит, чтобы защитить подход ожидаемой полезности. (Есть и другие проблемы. см. интересную конечную проблему у Юдковского, 2007 и особо озадачивающий пример, связанный с Санкт-Петербургским парадоксом, у Новера и Хайека, 2004)

Как обычно, нет консенсуса по поводу того, что выявляет Санкт-Петербургский парадокс. Некоторые принимают одно из решений и не беспокоятся по его поводу. Другие считают, что он выявляет серьёзную проблему с теориями ожидаемой полезности. Третьи считают, что парадокс не разрешён, но забрасывать теорию ожидаемой полезности всё равно не надо.

9. Даёт ли аксиоматическая теория принятия решений хоть какое-то руководство к действию?

Часто утверждается, что для теорий, перечисленных в разделе 8.2 ответ «нет». Чтобы объяснить получше, я сначала опишу некоторые различия между прямым и косвенным подходами к аксиоматической теории принятия решений.

Петерсон (2009, гл. 4) объясняет:

При косвенном подходе, а он наиболее популярен, агент предпочитает рискованное действие [или лотерею] в сравнении с другим не потому что ожидаемая полезность первого выше. Нет, агента просто просят высказать предпочтения касательно некоторого множества рискованных действий… Затем, если эти предпочтения соответствуют небольшому набору структурных ограничений (аксиом), то можно показать, что решения агента можно описать так, как будто бы агент выбирал, что делать, присваивая исходам численные вероятности и полезности и затем максимизируя ожидаемую полезность…

[В противовес этому,] прямой подход стремится построить предпочтения по поводу действий из напрямую присвоенных исходам вероятностей и полезностей. В отличие от косвенного подхода, нет допущения о том, что у агента есть доступ к предпочтениям до этих рассуждений.

Все аксиоматические теории принятия решений, перечисленные в разделе 8.2, следовали косвенному подходу. Можно сказать, что эти теории не могут выдать никакого руководства к действию, потому что они требуют, чтобы агент «заранее» установил свои предпочтения. Но агент, который их уже установил, уже знает, что предпочитает, так что теория не может дать ему нового руководства к действию, которого у него уже не было в предпочтениях.

Петерсон (2009, гл. 10) приводит практический пример:

Например, сорокалетняя женщина, которая хочет совета по поводу, скажем, того, развестись ли ей с мужем, вероятно, получит [от двух подходов] очень разные ответы. [Косвенный подход] посоветует ей сначала выяснить собственные предпочтения по поводу очень большого набора рискованных действий, включая те, о которых она изначально задумывается, а потом просто увериться, что все её предпочтения совместимы с определёнными структурными требованиями. Затем, пока эти требования не нарушены, женщина может делать что ей угодно, независимо от того, какие у неё на самом деле убеждения и желания. [Прямой подход] же посоветует ей сначала присвоить её желаниям и убеждениям численные полезности и вероятности, а потом аггрегировать их в решение, применив принцип максимизации ожидаемой полезности.

Выходит, только прямой подход даёт агенту руководство к действию. Но прямой подход очень молод (Петерсон (2008); Козик (2011)), и только время покажет, выдержит ли он испытание профессиональной критикой.

Предупреждение: Может запутать то, что прямой подход Петерсона (2008) называется «не-Байесианской теорией принятия решений», несмотря на то, что он использует Байесианскую теорию вероятности.

За другими попытками получить руководство к действию из нормативной теории принятия решений, см. Фалленштейн (2012) и Стиннон (2013).

10. Какую роль в теории принятия решений играет теория вероятности?

Чтобы рассчитать ожидаемую полезность действия (или лотереи) необходимо определить вероятность каждого исхода. В этом разделе я пройдусь по элементам теории вероятности, связанным с теорией принятия решений.

За дополнительными вводными материалами в теорию вероятности, см. Хаусон и Урбах (2005), Гриммет и Стирзакер (2001), и Кллер и Фридман (2009). Этот раздел сильн заимствует из Петерсона (2009, гл. 6 & 7), где приводится очень ясное введение в вероятности в контексте теории принятия решений.

10.1. Основы теории вероятности

Интуитивно, вероятность – это число между 0 и 1, обозначающее, насколько возможно наступление некоторого события. Если у события вероятность 0, то оно невозможно. А если у события вероятность 1, то оно не может не произойти. Есть вероятность события где-то посередине, то событие тем вероятнее, чем выше это число.

Как и с МОП, теорию вероятности можно вывести их небольшого набора простых аксиом. В случае вероятности, их три. Они называются аксиомами Колмогорова в честь советского математика Андрея Колмогорова. Первая аксиома устанавливает, что вероятности – это вещественные числа между 0 и 1. Вторая – что если события в некотором множестве взаимоисключающи и при этом исчерпывающи (то есть, точно произойдёт ровно одно из них), то сумма вероятностей этих события должна быть равна 1. Третья – что есть два события взаимоисключающи, то вероятность, что произойдёт одно из них, равна сумме их отдельных вероятностей.

Из этих трёх аксиом можно вывести всю остальную теорию вероятности. Дальше в этом разделе я пройдусь по некоторым элементам этой широкой теории.

10.2. Теорема Байеса для обновления вероятностей

Для теории принятия решений особо важным элементом теории вероятности является идея условных вероятностей. Они соответствуют тому, насколько что-то вероятно при учёте некоторой дополнительной информации. Так что, например, условная вероятность может показывать, насколько возможно, что будет дождь, при условии, что прогноз погоды его предсказал. Мощный инструмент для вычисления условных вероятностей – теорема Байеса (см. более подробное введение у Юдковского, 2003). Формула такова:

P(A|B)=(P(B|A)P(A))/P(B)

Теорему Байеса используют, когда надо вычислить вероятность некоторого события A при наличии свидетельства B. Так что эта формула используется для обновления вероятностей на основе новых свидетельств. Пусть вы пытаетесь оценить вероятность того, что завтра будет дождь, и кто-то сообщил вам, что прогноз погоды предсказал, что будет. Эта формула скажет вам, как вычислить новую вероятность на основе новой информации. В подобных случаях изначальную вероятность (до учёта новой информации) называют априорной, а новую вероятность, получившуюся в результате применения теоремы Байеса – апостериорной.

Использование теоремы Байеса для обновления вероятности на основе свидетельства от прогноза погоды.

Теорема Байеса, кажется, решает задачу обновления априорных вероятностей на основе новой информации. Но она оставляет открытым вопрос о том, как изначально определить априорную вероятность. Иногда нет очевидного способа это сделать. Одно из предложенных решений этой проблемы – выбрать любые осмысленные априорные вероятности. Если набрать достаточно свидетельств, то многократное применение теоремы Байеса сведёт вероятности к примерно одним и тем же апостериорным, даже при очень разных стартовых точках. Так что изначальный выбор не настолько критически важен, как может показаться.

10.3. Как вероятности следует интерпретировать

Есть две основных точки зрения на то, что значат вероятности: объективизм и субъективизм. Грубо говоря, объективисты считают, что вероятности говорят нам что-то о внешнем мире, а субъективисты – что они говорят нам о наших убеждениях. В теории принятия решений большинство придерживается субъективистских взглядов на вероятности. Согласно ним в вероятностях представлены субъективные степени убеждённости. То есть, сказать, например, что вероятность дождя равна 0.8 – это сказать, что агент, о котором идёт речь, довольно сильно убеждён, что пойдёт дождь (см. обоснования этой точки зрения в Jaynes, 2003). Заметим, что, согласно этому взгляду, другой агент в тех же обстоятельствах мог бы присвоить тому, что пойдёт дождь, другую вероятность.

10.3.1. С чего степеням убеждённости следовать законам о вероятностях?

Против субъективной точки зрения на вероятности можно высказать вопрос: почему, в таком случае, наши степени убеждённости обязаны соответствовать аксиомам Колмогорова? Например, почему наши субъективные степени убеждённости в взаимоисключающие исчерпывающие события должны складываться в единицу? На это можно ответить, например, что агенты, чьи степени убеждённости не соответствуют этим аксиомам, будут уязвимы для предложений ставок с гарантированным проигрышем. Петерсон (2009, гл. 7) разъясняет:

Например, допустим, что вы убеждены, что хотя бы один индус выиграет золотую медаль на следующих Олимпийских Играх (событие G) с степенью 0.55. И, в то же время, ваша субъективная степень убеждённости в том, что ни один индус не выиграет золотую медаль на следующих Олимпийских Играх (событие ¬G) равна 0.52. И пусть тогда хитрый букмекер предлагает заплатить вам \$1 за каждое из этих событий, которое реально произойдёт. Тогда, так как ваша субъективная степень убеждённости, что произойдёт G равна 0.55, рационально было бы заплатить за ставку на это вплоть до \$1·0.55 = \$0.55. Но более того, раз ваша степень убеждённости в ¬G равна 0.52, вы должны быть готовы заплатить вплоть до \$0.52 за право сделать ставку и на второе событие, ведь \$1·0.52 = \$0.52. Но теперь получается, что вы заплатили \$1.07 за совершение двух ставок, которые точно принесут вам ровно \$1 независимо от того, что произойдёт… Уж точно это должно быть иррациональным. Причина иррациональности – то, что ваши субъективные степени убеждённости нарушали законы вероятности.

Аргумент от ставок

Можно доказать, что агент уязвим для подобных систем ставок тогда и только тогда, когда его степени убеждённости нарушают аксиомы вероятности. Это обосновывает, почему степени убеждённости должны им соответствовать.

10.3.2. Измерение субъективных вероятностей

Другая сложность для субъективного подхода – как вероятности измерять. Если они представляют субъективные степени убеждённости, то, кажется, нет простого способа их определить, основываясь на наблюдениях за миром. Но на эту проблему появляется всё больше ответов, один из которых лаконично описан у Петерсона (2009, гл. 7):

Главное новшество… Сэвиджа можно охарактеризовать как систематические процедуры для связи вероятности… с утверждениями об объективно наблюдаемом поведении, например, за предпочтениями, выявленными выбором. Например, представьте, что мы хотим измерить субъективную вероятность, которую Кэролин присваивает тому, что монетка у неё в руках при следующем подбрасывании упадёт орлом. Для начала, мы спросим у неё, какой из таких двух весьма щедрых вариантов она бы предпочла:

A: «Если монета упадёт орлом, ты выигрываешь автомобиль, а иначе – ничего.»

B: «Если монета не упадёт орлом, ты выигрываешь автомобиль, а иначе – ничего.»

Предположим, Кэролин предпочитает A. Тогда мы можем заключить, что она считает, что монетка вероятнее упадёт орлом, чем нет. Для этого надо сделать допущения, что Кэролин предпочитает выиграть автомобиль, а не ничего, и что её предпочтения по поводу таких предложений в условиях неуверенности полностью определяются её убеждениями и желаниями, касающимися перспективы выиграть автомобиль…

Наконец, нам надо обобщить обрисованную выше процедуру измерения, чтобы она всегда позволяла нам представить степени убеждённости Кэролин в виде точных численных вероятностей. Для этого нам понадобится попросить Кэролин высказать предпочтения касательно куда большего множества вариантов, а потом решать с конца… Например, допустим, что Кэролин хочет измерить свою субъективную вероятность того, что её машина, стоящая \$20,000 будет украдена в течении года (событие S). Если она считает, что \$1000 – это… самая высокая цена, которую она готова заплатить за то, что в случае наступления события S она получит \$20000, то получается, что субъективная вероятность S у Кэролин равна 1000/20000 = 0.05. Это при условии, что её предпочтения соответствуют принципу максимизации ожидаемой денежной ценности…

Проблема с этим методом – что очень мало у кого предпочтения сформированы соответственно принципу максимизации ожидаемой денежной ценности. Для большинства людей добавочная полезность денег падает с их количеством…

К счастью, [у этой проблемы] есть умное решение. Основная идея – поставить на предпочтения по поводу вариантов выборов в условиях неуверенности некоторые структурные ограничения [напр., аксиому транзитивности]. Тогда субъективная функция вероятности получается при их учёте сама собой, как бы задним числом. Раз агент в условиях неуверенности предпочитает одни варианты другим, и его предпочтения… соотвествуют структурным аксиомам, то агент ведёт себя так, будто предпочтения формируются через присвоение субъективных вероятностей и полезностей и последующую максимизацию ожидаемой полезности.

Любопытная черта этого подхода – что вероятности (и полезности) выводятся «изнутри» теории. Агент в условиях неуверенности предпочитает один вариант другому не потому что считает субъективные вероятности и полезности первого более привлекательными. Скорее… из структуры предпочтений агента логически вытекает, что их можно описать так, как будто выбор агента руководствуется субъективными функциями вероятности и полезности…

…Сэвидж стремится выявить субъективные интерпретации аксиом вероятности, утверждая что-то о предпочтениях… в условиях неуверенности. Но… с чего бы теории субъективной вероятности использовать какие-то допущения о предпочтениях? Предпочтения и убеждения – разные вещи. Что бы там ни говорили [Сэвидж и прочие], лишённый всяких эмоций и предпочтений агент всё равно точно мог бы обладать какими-то убеждениями.

Есть и другие подходы, например, вот из DeGroot (1970):

Основное допущение ДеГрута – что агент может качественно сравнивать пары событий, судить, какое из них более вероятно. Например, можно допустить, что агент может решить для себя, более, менее или равновероятно, согласно его убеждениям, то, что пойдёт дождь в Кембридже, по сравнению с тем, что пойдёт дождь в Каире. Дальше ДеГрут показывает, что если качественные суждения агента достаточно аккуратны и удовлетворяют нескольким структурным аксиомам, то [их можно описать распределением вероятностей]. Так что в теории ДеГрута – функция вероятности выстраивается аккуратными качественными оценками, что делает их количественными.

11. Что насчёт «задачи Ньюкомба» и альтернативных алгоритмов принятия решений?

К сожалению, сказать, что рациональный агент «максимизирует ожидаемую полезность» – недостаточно конкретно. Есть больше одного алгоритма принятия решений, стремящегося максимизировать ожидаемую полезность, и эти алгоритмы дают разные ответы на некоторые задачи. «Задача Ньюкомба» – одна из таких.

В этом разделе мы рассмотрим эти алгоритмы и покажем, как они работают на задаче Ньюкомба и в похожих «ньюкомбоподобных» случаях.

Некоторые из основных источников на эту тему: Кэмпбелл и Соуден (1985), Ледвиг (2000), Джойс (1999), и Юдковский (2010). Мёртельмайер (2013) обсуждает ньюкомбоподобные задачи в контексте систем «агент-окружение».

11.1. Ньюкомбоподобные задачи и два алгоритма принятия решений

Я начну с представления нескольких ньюкомбоподобных задач, чтобы потом я мог к ним обращаться. Ещё я ознакомлю вас с нашими первыми двумя алгоритмами принятия решений, чтобы я мог демонстрировать, как выбор алгоритма влияет на результаты, которых добивается агент в этих задачах.

11.1.1. Задача Ньюкомба

Эту задачу сформулировал физик Уильям Ньюкомб, а впервые опубликаована она была в Нозик (1969). Ниже я опишу её версию, вдохновлённую Юдковским (2010).

Суперинтеллектуальный робот под именем Омега из другой галактики посещает Землю и демонстрирует, что он очень хорош в предсказании событий. Тут нет никакой магии, просто он куда больше нас знает о науке, у него есть миллиарды сенсоров, раскиданных по всей планете, и вычислительный кластер размером с Луну, на котором он использует эффективные алгоритмы для моделирования людей и других сложных систем с беспрецедентной точностью.

Омега показывает вам две коробки. Коробка A прозрачная, и в ней лежит \$1000. Коробка B непрозрачная, и либо в ней лежит \$1 млн., либо она пуста. Вы можете выбрать взять обе коробки или взять только коробку B. Если Омега предсказал, что вы возьмёте обе коробки, то он оставил коробку B пустой. А вот если Омега предсказал, что вы возьмёте только одну коробку, то он положил в коробку B миллион.

К тому моменту, как вам представлен выбор, Омега уже улетел играть в следующую игру. Содержимое коробки B не изменится после того, как вы примете решение. Более того, вы уже видели, как Омега играл в подобные игры с подобными вам людьми тысячу раз, и он всегда предсказывал выбор игрока правильно.

Стоит брать одну коробку или две:

Задача Ньюкомба

Вот аргумент за то, чтобы брать две коробки. Либо миллион в коробке уже есть, либо его там уже нет. Ваш выбор сейчас не может повлиять на содержимое коробки B. Поэтому, вам надо брать две коробки, потому что тогда вы получаете тысячу долларов плюс то, что в коробке B. Это прямое применение принципа доминирования (раздел 6.1). Выбор двух коробок доминирует над выбором одной.

Убеждены? Ну а вот аргумент за выбор одной коробки. Во всех тех играх, которые вы раньше видели, все, кто брал две коробки, получали тысячу долларов, а все, кто брал одну – получали миллион. Так что вы практически уверены, что взяв две коробки получите тысячу, а взяв одну – миллион. Так что, чтобы максимизировать свою ожидаемую полезность, вам надо взять одну коробку.

Нозик (1969) сообщает:

Я задавал эту задачу многим людям… Почти для всех совершенно ясно и очевидно, что надо делать. Сложность в том, что эти люди почти поровну разделились во мнениях, и многие из них считают, что другая половина просто говорят глупости.

Это не «лишь вербальный» спор (Chalmers 2011). Теория принятия решений предлагает несколько алгоритмов совершения выбора, и они приводят к разным исходам. Если перевести на простой язык, первый алгоритм, «свидетельственная теория принятия решений» (evidential decision theory, EDT, СТПР) говорит: «Выбирай такие действия, что ты был бы рад получить новость о том, что ты их выбрал». Второй алгоритм, «каузальная теория принятия решений» (causal decision theory, CDT, КТПР) говорит: «Выбирай такие действия, от которых ты ожидаешь позитивного воздействия на мир».

У многих теоретиков интуиция поддерживает правоту CDT. Но CDT-агент «проигрывает» в задаче Ньюкомба, остаётся с тысячей долларов, тогда как EDT-агент получает миллион. Сторонники EDT могут спросить сторонников CDT: «Если вы такие умные, то почему такие бедные?». Как пишет Спон (2012), «это должна быть плохая рациональность, если она возмущается о вознаграждении иррациональности.» Или как утверждает Юдковский (2010):

Максимизатор ожидаемой полезности должен максимизировать полезность – не формальность, разумность или недоступность критике…

В ответ на явную «победу» EDT над CDT в задаче Ньюкомба, сторонники CDT представили аналогичные задачи, в которых CDT-агент «выигрывает», а EDT-агент «проигрывает». Сторонники EDT же ответили дополнительными ньюкомбоподобными задачами, в которых снова EDT выигрывает, а CDT проигрывает. Давайте рассмотрим их по очереди.

11.1.2. Свидетельственная и каузальная теории принятия решений

Но для начала немного подробнее рассмотрим наши два алгоритма принятия решений.

EDT описать легко: согласно этой теории, для определения ожидаемой полезности разных действий агентам следует использовать условные вероятности. Конкретнее, им надо использовать вероятность того, что мир находится в каждом возможном состоянии, при учёте рассматриваемого действия. Так что в задаче Ньюкомба они рассматривают вероятность того, что коробка B содержит миллион, при условии свидетельства, что они приняли решение взять одну или две коробки. Так теория формализует «действие – хорошие новости».

CDT сложнее, как минимум потому, что её формулировали многими разными способами, и они эквивалентны друг другу только при принятии некоторых фоновых допущений. Хорошо помогает её понять рассмотрение подхода через контрфактуалы. Это одна из наиболее интуитивно понятных формулировок. Этот подход использует вероятности при определённых гипотетических условиях. Можно считать, что они отображают каузальное воздействие выбора агента на состояние мира, вроде «если бы я выбрал определённое действие, то мир был бы в таком-то состоянии». В задаче Ньюкомба такая формулировка CDT рассматривает вероятность контрфактуалов вроде «если бы я взял одну коробку, то в коробке B был бы миллион» и так оценивает каузальное воздействие выбора на содержимое коробок.

Можно провести это различие и в формулах. EDT и CDT обе согласны, что следует максимизировать ожидаемую полезность действия, где ожидаемая полезность действия Ai при множестве возможных исходов O определена так:

В этом уравнении V(Ai & Oj) – это ценность для агента сочетания действия и исхода. То есть, это полезность, которую получает агент, если совершает определённое действие с определённым исходом. А PrAiOj – это вероятность наступления исхода Oj при условии того, что агент выбрал действие Ai. Именно в этой вероятности CDT и EDT различаются. EDT использует условную вероятность, Pr(Oj|Ai), а CDT – гипотетическую вероятность Pr(Ai□→Oj).

Эти две версии формулы ожидаемой полезности позволяют формально продемонстрировать, почему EDT и CDT дают свои ответы на задачу Ньюкомба. Давайте примем два упрощающих допущения. Во-первых, что для агента каждый доллар стоит ровно одну единицу полезности (так что для него полезность денег линейна). Во-вторых, что Омега – идеальный предсказатель действий людей, так что если агент берёт две коробки – это однозначное свидетельство, что в непрозрачной коробке ничего нет, и наоборот. При этих допущениях, EDT вычисляет ожидаемую полезность каждого решения так:

Ожидаемая полезность выбора двух коробок согласно EDT

Ожидаемая полезность выбора одной коробки согласно EDT

Согласно этим вычислениям, у выбора одной коробки ожидаемая полезность выше, так что EDT-агент одну коробку и выберет.

С другой стороны, учитывая, что решение агента каузально не повлияет на сделанное ранее предсказание Омеги, CDT-агент будет использовать одну и ту же вероятность, независимо от действия. Предпочитаемое в итоге решение будет одно и то же, независимо от этой вероятности, так что для иллюстрации мы просто произвольно положим вероятность, что в коробке ничего нет, равной 0.5, и, соответственно, вероятность, что в коробке миллион – тоже равной 0.5. Тогда CDT вычисляет ожидаемую полезность каждого решения так:

Ожидаемая полезность выбора двух коробок согласно CDT

Ожидаемая полезность выбора одной коробки согласно CDT

Согласно этим вычислениям, выбор двух коробок принесёт большую ожидаемую полезность, так что CDT-агент так и сделает. Там мы формальнее продемонстрировали ранее полученный неформально результат: в задаче Ньюкомба CDT-агенты будут брать две коробки, а EDT-агенты – одну.

Как уже упоминалось, есть и альтернативные формализации CDT. Вот Дэвид Льюис (1981) и Брайян Скайрмс (1980) предлагают подходы, которые полагаются на разделение мира на состояния, чтобы уловить каузальную информацию, а не на гипотетические условия. Например, в версии Льюиса, агент вычисляет ожидаемую полезность действий через безусловное отсылание к состояниям мира – гипотезам зависимости – описаниям того, как мир может отреагировать на действия. Они по сути своей содержат необходимую каузальную информацию.

Некоторые другие традиционные подходы к CDT: через визуализации из Собеля (1980) (ещё см. Льюис (1981)) и через безусловные ожидания из Сэвиджа (1954). Заинтересовавшимся в разных подходах к CDT лучше всего ознакомиться с Льюисом (1981), Вайрихом (2008), и Джойсом (1999). Из более нового: работы из области информатики над так называемыми каузальными байесовскими сетями привели е инновационному подходу к CDT, который получил некоторое недавнее внимание в философских изданиях (Перл 2000, гл. 4 и Спон (2012)).

Теперь, вооружившись EDT и формулировкой CDT через контрфактуалы, вернёмся к анализу сценариев с принятием решений.

11.1.3. Медицинские задачи Ньюкомба

Есть много вариантов медицинских задач Ньюкомба, но форма у них схожая. Есть, например, задача Соломона (Гиббард и Харпер (1976)) и задача о вреде курения (Иган (2007)). Ниже я опишу вариант под названием «задача о жвачке» (Юдковский (2010)):

Допустим, недавно опубликованное медицинское исследование показало, что жвачка, кажется, вызывает абсцесс горла. Исследователи обнаружили, что из людей, которые жуют жвачку, 90% умерло от абсцесса горла до 50 лет, а в то же время, из людей, которые жвачку не жуют – только 10%. Объясняя результаты, исследователи предположили, что слюна, протекая по горлу, портит клеточную защиту от бактерий. Жевали бы вы жвачку, прочитав это исследование? Но вот выходит другое исследование, оно показывает, что у большинства тех, кто жуёт жвачку, есть определённый ген, CGTA, и смертность укладывается в такую таблицу:

CGTA есть CGTA нет
Жуют жвачку 89% умирает 8% умирает
Не жуют жвачку 99% умирает 11% умирает

По ней получается, что есть у вас ген CGTA или нет, жвачка снижает ваши шансы умереть от абсцесса горла. Но почему тогда у тех, кто жуёт, настолько больше жертв? Потому что люди с геном CGTA склонны и жевать жвачку, и умирать от абсцесса. Авторы второго исследования продемонстрировали и эксперимент, показавший, что слюна от жевания жвачки может убивать бактерий, из-за которых образуется абсцесс. Исследователи предположили, что так как люди с геном CGTA сильно подвержены абсцессу горла, в ходе естественного отбора у них выработалась склонность жевать жвачку, чтобы защититься от абсцесса. Сильная корреляция между жеванием жвачки и абсцессом тогда вызвана не тем, что жвачка – причина абсцесса, а потому, что третий фактор – GCTA, приводит и к тому, и к другому.

Теперь, узнав об этом новом исследовании, вы бы выбрали жевать жвачку? Это защищает от абсцесса независимо от того, есть ли у вас ген CGTA. Но друг, узнавший, что вы решили жевать жвачку (как часто делают люди с геном CGTA) был бы очень обеспокоен этой новостью – так же, как новостью, что вы взяли обе коробки в задаче Ньюкомба. Кажется, в этом случае уже EDT выдаёт неправильный ответ. Это ставит под сомнение… правило «Выбирай такие действия, что ты был бы рад получить новость о том, что ты их выбрал». Хоть новость о том, что кто-то решил жевать жвачку и тревожит, но это всё равно защищает от абсцесса горла. Правило [CDT] «Выбирай такие действия, от которых ты ожидаешь позитивного воздействия на мир», кажется, сработает тут лучше.

Один из ответов на это, так называемая «защита от импульса» (tickle defense) (Иллс, 1981), возражает, что на самом деле EDT в таких случаях приходит к правильному ответу. Согласно этой защите, самый разумный способ сконструировать такую «задачу о жвачке» допускает, что CGTA вызывает желание («импульс»), из-за которого агент с большей вероятностью будет жевать жвачку, а не вызывает действие напрямую. Тогда, если мы допустим, что агент уже знает о своих желаниях, агент уже знает, вероятно ли, что у него есть ген CGTA, и выбор жевать жвачку не даст ему дополнительных плохих новостей. Следовательно, EDT-агент будет жевать жвачку, чтобы получить хорошую новость о том, что он уменьшил свои шансы абсцесса.

К сожалению, защита от импульса не достигает своих целей. Вводя этот подход, Иллс надеялся, что так EDT сможет подражать CDT без якобы неэлегантного полагания на каузальность. Но Собель (1994, гл. 2) показал, что защита от импульса с этим не справляется. И тех, кто чувствует, что EDT, выбирая одну коробку, правильно справлялась с задачей Ньюкомба, разочарует, что защита от импульса приводит к тому, что в некоторых версиях задачи Ньюкомба агент берёт две коробки. Так что она решает для теории одну проблему, но вводит другую.

Итак, так же, как CDT «проигрывает» в задаче Ньюкомба, EDT «проигрывает» в медицинских задачах Ньюкомба (если отвергнуть защиту от импульса) или же присоединяется к CDT и «проигрывает» в самой задаче Ньюкомба (если защиту от импульса принять).

11.1.4. Газировка Ньюкомба

Можно привести и другие проблематичные для EDT примеры, когда свидетельство, которое предоставляет ваше решение, касается не черты, с которой вы родились (или были созданы), а с какой-нибудь другой деталью мира. Один из таких примеров – задача про газировку Ньюкомба, придуманная Юдковским (2010):

Вы знаете, что в ходе двойного слепого клинического тестирования вам скоро дадут одну из двух газировок. После того, как вы её выпьете, вы войдёте в комнату, где будет шоколадное мороженое и ванильное мороженое. Первая возможная газировка производит сильное, но полностью подсознательное желание съесть шоколадное мороженое, а вторая – сильное подсознательное желание съесть ванильное мороженое. «Подсознательное» тут означает, что у вас нет интроспективного доступа к этому изменению, так же, как вы не можете отвечать на вопросы о работе отдельных нейронов вашего мозга. Вы можете лишь сделать вывод о своих изменившихся вкусах исходя из того, какое мороженое вы выбрали.

Все участники исследования, которые тестировали «шоколадную» газировку, будут после окончания исследования вознаграждены миллионом долларов, а те, кто тестировал «ванильную» газировку не получат ничего. Но, независимо от этого, подопытные, которые съели ванильное мороженое, получат дополнительную тысячу долларов, а те, кто съел шоколадное – никакой дополнительной выплаты. Псевдослучайный алгоритм поровну (50/50) распределяет подопытных между «шоколадной» и «ванильной» газировок. Вам известно, что 90% из тех предыдущих подопытных, которые съели шоколадное мороженое, действительно пили «шоколадную» газировку. И наоборот, 90% из тех предыдущих подопытных, которые съели ванильное мороженое, пили «ванильную» газировку. Какое мороженое вы бы съели?

Газировка Ньюкомба

В этом случае EDT-агент решит съесть шоколадное мороженое, потому что это даст ему свидетельство в пользу того, что он выпил «шоколадную» газировку и после эксперимента получит миллион долларов. Но это кажется ошибочным решением, так что EDT-агент «проигрывает».

11.1.5. Мета-ньюкомбова задача Бострома

В ответ на нападки на их теорию, сторонники EDT могут представлять другие сценарии, в которых EDT «выигрывает», а как раз CDT «проигрывает». Один из таких примеров – Мета-ньюкомбова задача, предложенная Бостромом (2001). Если её подогнать к той же истории про суперинтеллектуального робота Омегу (раздел 11.1.1), она выглядит так: Либо Омега уже положил в коробку B миллион или ничего (в зависимости от своего предсказания вашего выбора), либо же Омега смотрит, как вы выбираете, и после этого кладёт или не кладёт миллион в зависимости от выбора. Но вы не знаете, что из этого правда. Примерно в половине случаев Омега делает свой ход перед игроком-человеком, а в половине – после него.

Но предположим, что есть другой суперинтеллектуальный робот, Мета-Омега, который, как известно, умеет идеально предсказывать как действия людей, так и действия Омеги. Мета-Омега говорит вам, что либо вы возьмёте две коробки, а Омега «сделает свой ход» после вашего выбора, либо вы возьмёте одну коробку, но Омега уже сделал свой ход (и улетел играть с кем-то ещё).

EDT-агент в таком случае берёт одну коробку и уходит с миллионом долларов. А вот CDT-агент сталкивается с дилеммой: если взять две коробки, кто действие Омеги зависит от выбора агента, так что «рационально» было бы взять одну коробку. Но если CDT-агент берёт одну коробку, то действие Омеги было раньше (а значит, физически не зависело от) выбора агента, так что «рациональным» решением было бы взять две коробки. Так что может показаться, что CDT-агент тут не сможет достичь какого бы то ни было решения. Но дальнейшее обдумывание выявляет, что тут всё сложнее. Согласно CDT, то, что агент должен сделать в этой ситуации, зависит от мнения агента в собственных действиях. Если у агента есть сильная уверенность, что он возьмёт две коробки, то он должен брать одну, а если у агента есть сильная уверенность, что он возьмёт одну коробку, то он должен брать две. Раз мнение агента о своих действиях не дано в условии это задачи, то сценарий недоопределён, и сложно сказать, какие выводы надо из него делать.

11.1.6. Кнопка психопата

Есть и другой случай, в котором, согласно CDT, то, что агент должен сделать, зависит от его мнения о том, что он сделает. Это представленная Иганом (2007) кнопка психопата:

Пол обдумывает, нажать ли кнопку «убить всех психопатов». Он думает, было бы куда лучше жить в мире без психопатов. К сожалению, Пол весьма уверен, что такую кнопку нажал бы только психопат. Пол очень сильно предпочитает жить в мире с психопатами по сравнению с тем, чтобы погибнуть. Должен ли Пол нажать кнопку?

Многие считают, что не должен. В конце концов, если он нажмёт, то он почти наверняка психопат, так что нажатие кнопки его убьёт. EDT-агент ответил бы так же: Нажатие кнопки сообщает агенту плохую новость, что он психопат, так что погибнет в результате своего действия.

С другой стороны, если Пол сильно уверен, что он не психопат, то CDT скажет, что он должен нажать на кнопку. CDT отметит, что, с учётом уверенности Пола, что он не психопат, его действия почти наверняка произведут положительный эффект – все психопаты умрут, а Пол выживет. Таким образом, CDT-агент тут решил бы неуместно и нажал бы кнопку. Важно заметить, что, в отличие от Мета-ньюкомбовой задачи, мнение о собственном поведении в полной версии этого сценария у Игана указано (не численно, агент думает, что вряд ли он психопат и, следовательно, вряд ли нажмёт кнопку).

Но, чтобы поставить для CDT такую задачу, Иган совершил несколько допущений о том, как агенту следует решать, что делать, в зависимости от того, что он думает, что он сделает. В ответ выдвигались альтернативные взгляды на то, как решать в таких ситуациях (в частности у Арнцениуса (2008) и Джойса (2012)). В результате всего этого, нет единого мнения о том, действительно ли задача с кнопкой психопата для CDT проблематична.

11.1.7. Автостопщик Парфита

Не все сценарии с принятием решений проблематично лишь для одной из CDT и EDT. Можно продемонстрировать и ситуации, в которых «проигрывают» как EDT-агент, так и CDT-агент. Один из таких примеров – Автостопщик Парфита (Парфит (1984), стр. 7):

Предположим, я еду на машине по пустыне. Машина ломается. Вы – незнакомец, и единственный другой водитель поблизости. Я вас остановил, и предлагаю большое вознаграждение, если вы меня спасёте. Я не могу выдать его вам сейчас, но обещаю это сделать, когда доберусь домой. Теперь допустим, что я прозрачен – не могу никого обмануть. Я не могу убедительно врать. Меня всегда выдаёт тон голоса, смущение, или что-то ещё. Наконец, допустим, что я знаю о себе, что я эгоист. Если вы довезёте меня до дому, мне будет хуже, если я отдам вам обещанное вознаграждение. Поскольку я знаю, что я никогда не сделаю то, что сделает мне хуже, я знаю, что нарушу своё обещание. Так как я не могу убедительно врать, вы тоже это знаете. Вы не верите моему обещанию и оставляете меня в пустыне.

В этом сценарии агент «проигрывает», если потом отказывается отдать незнакомцу вознаграждение. Но откажутся и EDT-агенты, и CDT-агенты. В конце концов, в этот момент агент уже в безопасности, так что отдав вознаграждение, они и не получат хороших новостей о своей безопасности, и не приведут к ней. Получается, в этом случае обе теории «проигрывают».

11.1.8. Прозрачная задача Ньюкомба

Есть и другие случаи, когда «проигрывают» и EDT, и CDT. Один из них – Прозрачная задача Ньюкомба, как минимум одна из её версий предложена у Дрешера (2006, стр. 238-242). Этот сценарий аналогичен изначальной задаче Ньюкомба, но в этом случае обе коробки прозрачные, так что вы видите их содержимое, когда принимаете решение. И опять Омега положил в коробку A тысячу долларов, а в коробку B – либо миллион, либо ничего, в зависимости от того, как Омега предсказал ваше поведение. Конкретнее, Омега предсказывал, как вы поступите, если увидите, что в коробке B лежит миллион. Если Омега предсказал, что вы возьмёте одну коробку, то он положил в коробку B миллион. А вот если Омега предсказал, что вы возьмёте обе коробки, то он не оставил коробку B пустой.

Как EDT-агенты, так и CDT-агенты в таком случае возьмут две коробки. В конце концов, содержимое коробок уже определено и известно, так что решение агента и не станет причиной чего=-то желаемого, и не даст об этом хороших новостей. Как и с выбором двух коробок в оригинальной задаче Ньюкомба, многие философы такое поведение одобряют.

Но стоит заметить, что Омега почти наверняка предсказал это решение и оставил коробку B пустой. CDT-агенты и EDT-агенты – все они уйдут с тысячей долларов. С другой стороны, как и в оригинальном случае, агент, который берёт одну коробку, получает миллион. Так что это тоже случай, в котором как «проигрывает» как EDT, так и CDT. Следовательно, для тех, кто согласен с комментариями (из раздела 11.1.1), что теория принятия решений не должна приводить к «проигрышу» агента, обе теории оказываются неудовлетворительными.

11.1.9. Контрфактуальное ограбление

Другой схожий случай, известный, как контрфактуальное ограбление, из Несова (2009):

Представьте, что однажды к вам приходит Омега и говорит, что он только что подбросил честную монетку, и, так как она упала решкой, он просит вас дать ему сто долларов. Согласитесь вы или нет, никаких дополнительных последствий не будет. Конечно, вы не хотите отдавать свои деньги. Но подождите, Омега говорит ещё и что если бы монетка упала орлом, то он отдал бы вам десять тысяч долларов, но только если он предсказал, что вы отдадите ему сто долларов, если монетка упадёт решкой.

Следует ли вам отдавать ему сто долларов?

И CDT, и EDT говорят, что нет. В конце концов, если вы отдадите свои деньги, это и не будет хорошими новостями, и не повлияет на ваши шансы получить десять тысяч. Да и интуитивно это кажется правильным решением. Так что в этом случае уместно оставить свои деньги себе..

Но, если допустить, что Омега идеально честен и достоин доверия, то, кажется, с этим заключением можно и поспорить. Если вы – такой агент, который при контрфактуальном ограблении отдаёт сто долларов, то вы в среднем будете получать лучшие результаты, чем агент, который не отдаёт. Конечно, в данном конкретном случае вы проиграете, но рациональные агенты вполне могут проигрывать в конкретных случаях (например, когда такой агент проигрывает рациональную ставку). Можно сказать, что рациональному агенту не следует быть таким агентом, который в среднем проигрывает. Агенты, которые отказываются отдавать сто долларов – это такие агенты, которые в среднем проигрывают. Так что, кажется, можно утверждать, что контрфактуальное ограбление – это ещё один случай, в котором неправильно действуют как CDT, так и EDT.

11.1.10. Дилемма заключённого

Перед тем, как перейти к более подробному обсуждению разных возможных теорий принятия решений, рассмотрим ещё один сценарий: дилемму заключённого. Резник (1987, стр. 147-148 ) так описывает этот сценарий:

Двух заключённых… арестовали за вандализм и изолировали друг от друга. Улик достаточно, чтобы вынести обвинительное заключение обоим, но прокурор хочет большего. Он подозревает, что они вместе ограбили банк, и он может получить от них признание в этом. Он допрашивает их по отдельности, и каждому говорит: «Я собираюсь предложить ту же сделку твоему товарищу, и я дам каждому из вас час на раздумья, а потом спрошу решение. Сделка такая: если один из вас признается в ограблении, а второй нет, то я обеспечу, чтобы тот, кто признался, получил год заключения, а другой – двадцать пять. Если вы признаетесь оба, то будет по десять лет каждому. Если никто из вас не признается, то я смогу посадить вас на два года по обвинению в вандализме…»

Матрица принятия решения для каждого заключённого такая:

Товарищ признался Товарищ солгал
Признаться 10 лет в тюрьме 1 год в тюрьме
Солгать 25 лет в тюрьме 2 года в тюрьме

Столкнувшись с таким сценарием CDT-агент признается. В конце концов, решение агента не может повлиять на решение товарища (их же изолировали друг от друга), так что агенту лучше, если он признается, независимо от того, что сделает товарищ. Согласно большинству исследователей теории принятия решений (и теории игр), признаться тут – действительно рациональное решение.

Но, несмотря на это, EDT-агент может соврать в дилемме заключённого. Конкретнее: если он думает, что товарищ достаточно похож на него самого, то агент соврёт, потому что это предоставит ему хорошую новость о том, что они оба соврут, а значит, ограничатся двумя годами тюрьмы (хорошая новость в сравнении с плохой новостью, что они оба признаются и получат десять лет тюрьмы).

Многим такой ход рассуждений кажется убедительным. Например Дуглас Хофштадтер (1985, стр. 737-780) утверждал, что агент, действующий «суперрационально» будет кооперировать с другими суперрациональными агентами ровно по этой причине: суперрациональный агент примет во внимание, что другие подобные агенты пройдут в ходе дилеммы заключённого через такой же мыслительный процесс, так что примут то же решение. В таком случае, лучше, чтобы решением обоих агентов было соврать, а не признаться. И в целом, можно сказать, что рациональному агенту в дилемме заключённого следует врать, если он считает, что достаточно похож на своего товарища, чтобы они пришли к одинаковому решению.

Аргумент в пользу кооперации в дилемме заключённого

Так что не вполне ясно, что именно стоит вывести из дилеммы заключённого. Но для тех, кто симпатизирует точке зрения Хофштадтера или рассуждениям EDT-агента, это очередная причина искать альтернативу для CDT.

11.2. Теория Бенчмарков (Benchmark theory, BT)

Один из недавних ответ на явную неспособность EDT справиться с медицинской задачей Ньюкомба, а CDT – с кнопкой психопата, это Теория Бенчмарков (BT), придуманная Вегвудом (2011) и развитая Бриггс (2010).

Простым языком можно описать этот алгоритм принятия решений так: агентам следует принимать решения так, чтобы предоставлять будущим версиям себя хорошие новости о том, насколько они хорошо справились по сравнению с другими возможными исходами. Если формально, BT использует для вычисления ожидаемой полезности действия Ai такую формулу:

Другими словами, она использует условные вероятности как EDT, но иначе вычисляет ценность (что показано использованием V’ вместо V). V’ вычисляется относительно значения-бенчмарка и предоставляет сравнительную меру ценности (оба источника выше разъясняют это подробнее).

Если говорить неформально, в задаче о жвачке BT отметит, что если агент будет жевать жвачку, то агент всегда получит хорошие новости о том, что у него всё сравнительно лучше, чем могло бы быть (потому что жвачка защищает его от абсцесса), а если не жевать, то плохие новости о том, что у него всё могло бы быть лучше, если бы он жевал. Так что BT-агент в этом сценарии будет жевать жвачку.

Кроме этого, BT достигает того, что, кажется, большинство считает правильным решением в задаче о кнопке психопата. Тут BT-агент заметит, что нажав кнопку он получит плохие новости о том, что он почти наверняка психопат и ему было бы сравнительно лучше не нажимать (потому что нажатие кнопки его убьёт). С другой стороны, если он не нажмёт, то он получит менее плохие новости о том, что он мог бы справиться немного лучше, нажав кнопку (потому что это убило бы всех психопатов, но не его самого). Так что отказ от нажатия кнопки даёт менее плохие новости, и это и есть рациональное решение.

Так что кажется, что есть неплохие причины считать BT убедительной: она хорошо справляется с сценариями, в которых, согласно некоторым людям, EDT и CDT хоть в одном да ошибаются.

К сожалению, BT-агент всё равно проваливается в других сценариях. Во-первых, те, кто считает взятие одной коробки правильным решением задачи Ньюкомба, сразу найдут в BT недостаток. в этом сценарии взятие двух коробок даёт хорошие новости о том, что агент справился сравнительно лучше, чем мог бы (потому что получил на тысячу долларов из коробки A больше, чем получил бы, приняв другое решение), а взятие одной коробки даёт плохие новости о том, что агент справился хуже, чем мог бы (потому что тех же денег не получил). Так что BT-агент в задаче Ньюкомба возьмёт две коробки.

Более того, Бриггс (2010) утверждает, что BT страдает и от других проблем, хоть Вегвуд (2011) это и отрицает. Так что даже для тех, кто поддерживает выбор двух коробок в задаче Ньюкомба, есть аргументы в пользу того, что BT – не лучшая теория выбора. Так что неясно, представляет ли BT достойную замену альтернативным теориям.

11.3. Вневременная теория принятия решений (Timeless decision theory, TDT)

Юдковский (2010) предложил другой алгоритм принятия решений, вневременную теорию принятия решений или TDT (см. также Altair, 2013). TDT конкретно предназначена соответствовать идее о том, что теория рационального выбора должна помогать агенту «выигрывать». Так что она привлекательна для тех, кто считает, что в задаче Ньюкомба надо брать одну коробку, а в задаче о жвачке жевать.

Простыми словами этот алгоритм можно приблизительно описать так: агент должен выбирать, как если права CDT, но он определяет не своё решение, а результат абстрактного вычисления, одной конкретной реализацией которого является его решение. Формализация этого алгоритма принятия решений занимает собственный документ немаленького размера, так что тут мы не будем её приводить полностью. Если же кратко, TDT строится поверх каузальных байесовский сетей (Перл, 2000) – графов, где направление рёбер соответствует каузальному влиянию. TDT расширяет эти графы, добавляя больше вершин, соответствующих абстрактным вычислениям. TDT принимает за объект выбора абстрактное вычисление, определяющее решение агента, а не само конкретное решение (см. более подробное описание у Юдковского, 2010).

Вернёмся к неформальному обсуждению. Прояснить TDT может помочь такой пример: представьте, что две точные копии человека поместили в одинаковые комнаты и поставили перед ними одинаковые выборы. Каждая копия совершает своё собственное решение, но они при этом совершают один и тот же процесс вычислений. Поэтому TDT говорит, что копиям следует действовать так, как будто они определяют результат этого процесса, а следовательно – поведение обеих копий.

Что-то аналогичное происходит и в задаче Ньюкомба. В ней почти что есть копия агента: внутренняя модель агента, которой пользуется омега, чтобы предсказать поведение агента. Изначальный агент, и эта «копия» используют один и тот же вычислительный процесс. Другими словами, этот процесс влияет как на предсказание Омеги, так и на поведение агента. Поэтому, TDT советует агенту действовать так, как если бы он определял результат этого процесса, а следовательно – как если бы он мог определить поведение Омеги при наполнении коробок. Поэтому TDT-агент возьмёт одну коробку, чтобы определить результат этого абстрактного вычисления таким, который приводит к миллиону долларов в коробке B.

TDT преуспевает и в других случаях. Например, в задаче о жвачке нет «копии» агента, так что TDT в этом случае действует так же, как обычная CDT и решает жевать жвачку. Дальше, в дилемме заключённого TDT-агент будет лгать, если его товарищ – другой TDT-агент (или достаточно похожий агент). В конце концов, в этом случае оба агента реализуют один и тот же вычислительный процесс, так что TDT советует агенту действовать так, как будто он определяет результат этого процесса, а следовательно – одновременно определяет своё решение и решение товарища. В таком случае для агента лучше, если они оба солгут, чем если они оба признаются.

Но, несмотря на эти успехи, TDT тоже «проигрывает» в некоторых сценариях принятия решений. Например, в контрфактуальном ограблении TDT-агент решит не отдавать сто долларов. Это может показаться удивительным. Казалось бы, как и в задаче Ньюкомба, тут Омега предсказывает поведение агента, а значит тут есть «копия». Но этот случай отличается тем, что агент знает, что монетка уже упала решкой, так что, отдав деньги, он ничего не получит.

Получается, что для тех, кто чувствует, что теория рационального выбора должна помогать агенту «выигрывать», TDT кажется шагом в правильном направлении. Но для того, чтобы «выигрывать» всегда, требуется дальнейшая работа.

11.4. Теория принятия решений и «выигрывание»

В предыдущем разделе я описал TDT, алгоритм принятия решений, который можно рассматривать как замену CDT и EDT. Одна из основных мотиваций для разработки TDT – ощущение, что как CDT, так и EDT в некоторых сценариях терпят неудачу. Но многие (пожалуй, даже большинство) исследователей теории принятия решений поддерживают CDT, хоть и признают, что CDT-агенты получают худший результат в Задаче Ньюкомба. Это может навести на мысль, что эти исследователи не заинтересованы в разработке алгоритма принятия решений, который бы «выигрывал», и у них какая-то другая цель. Если так, это ставит под сомнение ценность разработки алгоритмов, которые берут одну коробку.

Но утверждение о том, что большинство исследователей не интересуется тем, чтобы алгоритм «выигрывал», неправильно описывает их позицию. В конце концов, сторонники CDT обычно всерьёз воспринимают вызов, поставленный тем, что CDT-агенты «проигрывают» в Задаче Ньюкомба (в философской литературе это часто называют проблемой «Почему ты не богатый?»). Типичная реакция на этот вызов хорошо описана у Джойса (1999, стр. 153-154 ) как ответ на гипотетический вопрос о том, почему, если брать две коробки – рационально, CDT-агент в итоге получается менее богатым, чем агент, который берёт одну коробку:

У Рейчел есть совершенно замечательный ответ на «Почему ты не богатая?». «Я не богатая», скажет она, «потому что я – не такой человек, который [по мнению Омеги]» откажется от денег. Я попросту не такая, как ты, Ирен [выбирающая одну коробку]. С учётом того, что я знаю, что я – такой человек, который берёт деньги, и с учётом того, что [Омега] тоже это знает, для меня вполне разумно считать, что миллиона [в коробке] нет. Тысяча – максимум, который я могла получить, что бы я ни делала. Так что единcтвенным разумным вариантом для меня было бы её и взять.»

Ирен тут может попробовать продавить, спросив: «Но Рейчел, не хотела бы ты быть больше похожей на меня?»… Рейчел может, и ей следует, признать, что она хотела бы быть больше похожей на Ирен… после этого, Ирен воскликнет: «Ты признала это! Брать деньги, в конце концов, было не так уж и умно.» К сожалению Ирен, её заключение не следует из предпосылки Рейчел. Рейчел терпеливо объяснит, что хотеть быть человеком, который выбирает одну коробку, вполне совместимо с тем, чтобы считать, что надо брать тысячу долларов, независимо от того, какой ты человек. Когда Рейчел жалеет, что она не того же типа, что Ирен, она жалеет, что у неё нет тех вариантов, что у Ирен, а не поддерживает её выбор… Человек, который знает, что столкнётся (уже столкнулся) с задачей Ньюкомба, может хотеть стать (жалеть, что не был) таким человеком, которого [Омега] отметит, как берущего одну коробку. Это даёт повод (до [того, как коробки наполнены]) попробовать изменить свой тип, если это может поволиять на предсказание [Омеги]. Но это не даёт повода делать что-то, кроме как брать деньги, когда это уже не сможет повлиять на то, что сделал [Омега].

Другими словами, этот ответ проводит различие между выигрывающим решением и выигрывающим типом агентов, и заявляет, что брать две коробки в задаче Ньюкомба – выигрывающее решение, но при этом агенты, выбирающие одну коробку – выигрывающий тип агентов. Следовательно, пока теория принятия решений посвящена тому, какие решения рациональны, CDT в Задаче Ньюкомба рассуждает верно.

Для тех, кому этот ответ кажется странным, можно провести аналогию с задачей о жвачке. Почти все согласны, что в этом сценарии рациональное решение – жевать жвачку. Но статистически тем, кто не жуёт, лучше. Тогда не жующий может спросить: «Если ты такой умный, то почему не здоровый?». В этом случае описанный выше ответ особенно уместен. Те, кто жуёт, менее здоровы не из-за своего решения, а из-за того, что у них более вероятно есть нежелательный ген. Хорошие гены не делают не жующих более рациональными, только более везучими. Сторонник CDT попросту распространяет этот ответ и на Задачу Ньюкомба: те, кто выбирает одну коробку, богаты не из-за своего решения, а, скорее, из-за того, к какому типу агентов они относились, когда Омега наполнял коробки.

Стоит заметить одну последнюю деталь касательно этого решения. Сторонник CDT может соглашаться с этим аргументом, но всё равно признавать, что, при наличии возможности до наполнения коробок, было бы рационально модифицировать себя так, чтобы стать агентом, выбирающим одну коробку (как выше признаёт Джойс, и как утверждает Бёрджесс, 2004). Для сторонника CDT это вовсе не проблематично: если мы иногда вознаграждаемся не за рациональность решений в моменте, а за то, каким агентом мы были в какой-то момент в прошлом, то неудивительно, что сменить свой тип может быть выгодно.

На такую защиты выбора двух коробок в Задаче Ньюкомба есть разные ответы. Многие находят это убедительным, но другие, например, Ахмед и Прайс (2012) считают, что это не отвечает на вызов адекватно:

Каузалистское нытьё, что Задача Ньюкомба вознаграждает иррациональность, или, скорее, CDT-иррациональность, бесполезно. Суть аргумента – что если все знают, что CDT-иррациональная стратегия на самом деле в среднем достигает лучших результатов, чем CDT-рациональная стратегия, то пользоваться CDT-иррациональной стратегией рационально.

Получается, тут можно принять две позиции. Если ответ, данный сторонниками CDT, убедителен, то мы должны пытаться разработать теорию принятия решений, которая в Задаче Ньюкомба берёт две коробки. Возможно, CDT – лучшая теория для этой роли. Но, может, ещё лучше BT, которая, по мнению многих, лучше справляется с сценарием кнопки психопата. С другой стороны, если ответ сторонников CDT неубедителен, то нам надо разрабатывать теорию, которая в задаче Ньюкомба берёт одну коробку. В таком случае TDT, или что-то с ней схожее, кажется самым многообещающим вариантом из тех, что у нас есть.

[Прим. пер.: существуют ещё функциональная и несколько версий необновимой теории принятия решений (FDT и UDT соответственно). Насколько я понимаю, они идейно схожи с TDT, но, например, «выигрывают» в задачах про Автостопщика Парфита и про Контрфактуальное ограбление.]

Перевод: 
Выменец Максим
Оцените качество перевода: 
Средняя оценка: 5 (2 votes)

Как стать тысячелетним вампиром

Вольф Тиви

Это основано на идее, разработанной на Ванкуверской встрече рационалистов.

Разный опыт развивает человека с разной скоростью. Вы можете провести всю свою жизнь на скучной работе и в 60 лет оставаться примерно на том же уровне развития, какой у вас был в подростковом возрасте. С другой стороны, некоторые люди имеют настолько разнообразный и богатый жизненный опыт, что уже к 30 годам они круты как тысячелетний вампир.

Это напоминает мне, что в зависимости от способа проводить свою жизнь, в эффективности разница может достигать нескольких порядков. Конечно, поскольку у нас нет способа продлить жизнь, то мы можем заботиться только о ее содержании. Если вы можете изменить ваши привычки так, чтобы делать в три раза больше, то фактически получите утроение вашей эффективной продолжительности жизни.

Так как же может человек достигнуть 100х скорости и стать похожим на тысячелетнего вампира всего за 10 лет? Это звучит амбициозно до абсурда, но мы можем попробовать:

Делайте трудные вещи

Определенный опыт просто катапультирует вас далеко вперед в личном развитии. Возможно, вы можете систематически получать такой опыт, чтобы набрать значительность как можно быстрее.

Пол Грэм говорит, что множество стартаперов, которых он видит (как глава YC) становятся куда круче очень быстро, поскольку их заставляет необходимость. Это выглядит правдоподобным и по результатам из других областей. Банальное «учиться плавать, прыгнув в глубокое место»; люди имеют склонность выбирать легкий путь, что приводит к меньшим шансам на прогресс, поэтому вариант, при котором нет возможности отступить, может дать куда больше пользы.

Это подтверждается и моим личным опытом. У меня на работе главный инженер заболел раком мозга и де-факто мне пришлось управлять двумя проектами, для чего мне следовало стать на уровень выше. В начале это было весьма страшно, однако сейчас мне даже скучно и я ищу чего-то, что бросило бы мне вызов. (добавление: прямо сейчас не скучаю; у группы, которой я помогаю в данный момент, просто бешеная запарка) Это выглядит реально трудным - просто делать лучше без необходимости; насколько я могу сказать, я в силах работать куда лучше, чем это есть сейчас, однако силы воли в принципе не хватает, так что я не делаю этого.

К слову, мой друг получил огромный результат, когда пошел в армию и побывал под воздействием слезоточивого газа в окопе, мокрый, холодный, уставший, долго не спавший и голодный. Это дало ему опыт, о котором он никогда даже не думал. И похоже это значительно изменило его представления о том, насколько хорошо следует действовать и как трудны определенные вещи - теперь он миллионер и весьма крут.

Похоже, что механизм, который отвечает за это, заключается в повторной калибровке представлений о том, насколько страшны или трудны, или находятся вне ваших возможностей некоторые вещи. У меня так было с боязнью телефонных звонков или проделывания странных вещей перед незнакомыми людьми, наподобие лазанья по деревьям; такое ощущение, что я просто забыл, что они были страшными. В случае со звонками было несколько раз, когда у меня не было времени бояться, а нужно было, чтобы дела были уже сделаны. В случае с лазаньем по деревьям я делал достаточно для того, чтобы со стороны это выглядело нормально, так что даже если меня кто-то видел, это не казалось странным.

Возвращаясь к теме, есть виды опыта, которые вы можете заставить себя пережить, чтобы нормализовать трудные для вас вещи и привыкнуть к ним. Например, некоторые люди, которые так делают, называя это «терапия отказа» или «выход за пределы зоны комфорта», просто выходя наружу и делая стыдные или страшные вещи осознанно для повторной калибровки интуитивных представлений и чтобы научить мозг не бояться подобных вещей.

Да, проекты по саморазвитию склонны заканчиваться неудачей, когда они требуют постоянного приложения силы воли. Это простой факт, что вы потерпите неудачу во множестве таких вещей. Так что вы должны сделать неудачу в этом множестве невозможной. Вы должны сделать провал страшнее, чем развитие и переход на новый уровень, чтобы преуспеть в этих вещах. Эта идея лежит в основе Beeminder, который забирает ваши деньги, если вы не делали то, что задумали.

Я предполагаю, что тезис, который лежит в основе всего этого - это что все эти повышения уровней станут постоянными, что они заставят вас быть более похожим на тысячелетнего вампира и вы просто не захотите возвращаться обратно к старому скучному смертному себе. Если это и правда так, то подразумевается, что вы должны искать трудные вещи, которые кажутся достаточно интересными и важными.

Широта опыта

Задумайтесь о тысячелетних вампирах; они бы умели все. Сражаться в битвах, водить армии, строить великие здания, любить, побывали бы повсюду, наблюдали бы за большинством аспектов человеческой жизни и в общем видели бы почти все.

Вещи, которые вы делаете, имеют резко убывающую полезность; первые несколько раз, когда вы смотрите выдающиеся фильмы, дают вам больше всего впечатлений, точно так же дело обстоит с видеоиграми, 4chan, большинством работ и вообще это можно отнести почти к любому опыту. Так что важно постоянно переключаться с одного вида деятельности на другой, чтобы оставаться в этой резко растущей области обучения. Вы можете получить 90% вампирского опыта, вложив всего 10% его времени, если сумеете сконцентрироваться на этих наиболее просветляющих частях каждого опыта.

Так что между работой над трудными вещами, которые поднимают вас на уровень выше, вы можете получить немало выгоды посредством занятия множеством вещей, переключаясь между ними как только они начинают казаться скучными (предполагается, что вы уже откалибровали себя так, чтобы скучными казались те вещи, которые не бросают вам вызов).

Вы можете вспомнить ранее произошедшие арабские революции в Либии, американский студент взял каникулы в колледже, чтобы сражаться в революции. Я мог бы поспорить что он многому научился. Если вы можете сделать достаточно вещей, подобных этой, вы существенно продвинетесь по пути подражания вампиру.

На самом деле все это идет рука об руку с выполнением трудных вещей; когда вы не ощущаете вызова (вы на плоской части кривой этого опыта), вероятно лучше поместить себя лицом к лицу с каким-то новым проектом, как потому что он новый, так и потому что он трудный.

Переключение часто имеет дополнительное преимущество в виде нормализации стратегических изменений и практики мыслей вида «что я должен делать», которые не могут доставлять вам неудобство, если вы намерены на самом деле делать что-то полезное со своей жизнью.

Есть множество случаев, когда переключение не лучший выбор. Для примера, вы не можете стать экспертом в Х, переключаясь с Х как только узнали основы. Вполне вероятно, что вы хотите часто переключаться на второстепенные вещи, но развивать свое понимание Х углубленно. Или, как вариант, вы, возможно, хотите определенным образом переключаться то и дело внутри самого Х, возможно смотреть на вещи с другой точки зрения, браться за другую проблему или типа того. Это теория экспертизы умышленной практики.

Так что не забывайте о форме кривой опыта. Как только вы начали ощущать, что выходите на плоскую ее часть, найдите способ снова оказаться на «интересном» ее отрезке.

Делайте вещи быстро

Другое большое поле деятельности открывает идея, что каждый час - это возможность, и вы должны выжать из этой возможности как можно больше. Это кажется весьма очевидным, однако я определенно «выжал» из этой идеи больше, когда подумал о ней с точки зрения тысячелетнего вампира.

Великолепным примером является прокрастинация. У меня есть множество вещей, которые висят в моем списке дел уже достаточно давно, давя на меня своим присутствием. Я не могу расслабиться и заняться чем-то новым, пока в моем списке дел висит какая-нибудь глупая штука. Ключевая идея в том, что если вы обработаете мусор в вашем списке дел сейчас, вместо того, чтобы расслабиться и отложить это на потом, вы будете свободны и сможете сделать позже еще что-либо, таким образом став тысячелетним вампиром быстрее.

Так, я и мой друг усвоили эту идею тщательней и начали на самом деле замечать эти пропуски возможностей, и на самом деле начали делать вещи быстрее. Я уверен, что где мы бы не были, мы все еще далеки от оптимума Делания Этого Прямо Сейчас, так что будет хорошо еще помедитировать на эту тему побольше.

Как конкретный пример, я пишу сегодняшней ночью потому что я понимаю, что мне нужно записать все мои идеи, чтобы освободить место для более улетных идей.

Обратная сторона этой идеи в том, что много вещей являются пустой тратой времени, в том смысле что они просто сжигают нашу жизнь, ничего не привнося в нее или даже ослабляя вас.

Плохие привычки, наподобие пустого серфинга в интернете, просмотра телевизора, просмотра порно, сиденья за видеоиграми, лишнего сна и так далее - очевидные потери времени. Реально трудно усвоить это, но эта концепция тысячелетнего вампира была полезна для меня тем, что сделала размер цены более заметным. Вы хотите проснуться в тридцать лет и осознать что вы потратили большую часть молодости на мусор или поднимете свою задницу и напишете то, чего бы хотели в этой жизни и все таки станете гребаным вампиром через десять лет?

Однако это не просто плохие привычки; большая часть этого является вашим образом жизни, вследствие которого вы либо тратите свою жизнь впустую, либо нет. Для примера, монотонная работа за зарплату не ставит перед вами вызовов и в действительности представляет собой просто обмен куска вашей жизни на небольшое количество денег. Очевидно, что иногда это неизбежно, однако следует осознавать, что обмен половины жизни - не особо хорошая сделка, которой лучше бы избежать. Вы даже не получаете ничего для поездок на работу и дома. Возможно я на самом деле должен бросить вскоре свою работу…

У меня есть 168 часов в неделю, из которых только 110 возможно использовать (из-за сна) и в этот период времени входят все эти дела, наемная работа, плохие привычки, прокрастинация - полноценной жизнью для себя я живу максимум 30 часов в неделю. Это полная фигня; три четверти моей жизни просто вылетели в трубу. Я бы мог прожить в четыре раза больше, если бы выкинул из жизни этот хлам.

Так что это просто концепция временных издержек возможностей, просто переформулированная для большей актуальности. Базовые концепции экономики кажутся действительно значимыми на этом пути.

Сделайте сейчас то, что можете сделать когда-либо потом. Избегайте бесполезной работы.

Социальное окружение и стимуляция

Я заметил, что я по большей части живу и делаю интеллектуальную работу лучше всего когда общаюсь с другими людьми, которые умны и заинтересованы в том, чтобы вести глубоко технические беседы. Другие вещи наподобие определенных моделей цейтнота по времени создают эффект, когда я работаю во много раз интенсивней и более эффективно, чем в любом другом случае. Хорошим примером будут технические экзамены; я могу давать ответы на сотни технических вопросов с достаточно большой скоростью.

Пожалуй, вполне хорошей идей будет индуцировать такое состояние, где вы живете на полную (состояние «потока»?) если вы хотите жить более полноценной жизнью. Также кажется вполне возможным делать это куда чаще - встречаться с правильными людьми, ставить себя в нужные условиях для работы и так далее.

Тут может возникнуть только трудность с тем, что это достаточно утомительно, так что я иногда ощущаю себя опустошенным и не могу ничего больше делать после дня более интенсивной работы. Реальная ли это проблема? Наверное. Однако для меня это все еще не предел, даже учитывая общую необходимость в отдыхе.

Я должен провести исследования, чтобы узнать побольше об этом явлении. Если это связано с «потоком», то можно воспользоваться исследованиями состояния потока, которых не так уж и мало, насколько я знаю.

Мне также следует поторопиться и двигаться в Калифорнию, где есть правильное интеллектуальное сообщество, которое стимулирует меня лучше, чем скромная группа мозгов, вместе с которыми я скриплю в Ванкувере.

Еще одно преимущество хорошего интеллектуального сообщества это то, что они могут вдохновлять, делая более крутые вещи. Когда все твои друзья открывают свои компании или вообще проделывают огромную работу, сидеть просто на диване ощущается реально плохой идеей.

Так что если мы хотим жить более полноценной жизнью, то мы должны находить больше путей для входа в стимулированное состояние потока, например делать более разумные вещи, в независимости от того, будет ли это созданием пути для этого в ваших рабочих привычках, помещением себя в социальные и интеллектуальные среды, которые дают вам возможность ставить перед собой больше вызовов, или что угодно в этом духе.

Подводя итог

Насколько быстро мы будем продвигаться в общем, если мы делаем все это?

Постоянно выискивая множество новых опытов, чтобы продолжать учиться, я думаю, что мы можем получить достоверное 10х увеличение скорости по сравнению с тем, что мы делаем обычно. Очевидно, это увеличение может быть меньше или больше, в зависимости от обстоятельств и вещей, которые я не учел.

Кроме того, похоже что я могу делать в четыре раза больше, чем обычно путем следования привычке делать все сразу и избегать бесполезной работы. Как это сделать я не знаю, но это вполне возможно.

Я не знаю как оценить реальные преимущества от стимулирующего окружения. Похоже, что они весьма и весьма большие, или же просто дают возрастающий прирост эффективности, в зависимости от того, насколько эти преимущества реализуются. Давайте примем, не считая всего остального, что мы можем реально получить ускорение в 2х или 3х от социальных эффектов и эффектов окружения.

Делать трудные вещи кажется грандиозным, однако это достаточно тесно связано с деланием нового, что мы уже принимали во внимание. Так сколько мы получаем от них, без учета остального? Может 5х? Это снова зависит большей частью от того, какие возможности вы способны найти и неизвестных факторов, однако предположение в 5х кажется достаточно безопасным, учитывая уровень изобретательности и силы воли смертных.

Так что все вместе, все кто:

  • Часто думает о том, где они на кривой опыта для всего, что они делают и прилагают усилия, чтобы она была подходящей,

  • Придерживаются привычки делать все сразу и представлять стоимость различных возможностей,

  • Организуют себе стимулирующую среду наподобие интеллектуального сообщества и окружают себя стимулирующими людьми и событиями,

  • Ищут опыт, который в наибольшей степени закалит их характер, наподобие побывать под слезоточивым газом в окопе или построить компанию с нуля,

Достоверно могут получить 500х ускорение и прожить 1000 обычных лет всего за два года. Это кажется достаточно безумным, однако ни одна из этих вещей не является чем-то из ряда вон выходящим, и люди наподобие Илона Маска или Элизера Юдковского кажется делают на порядки больше, чем какой-нибудь средний Джо.

Возможно данные способы ускорения не перемножаются таким способом или есть еще какие-то факторы, однако цель кажется достижимой и все эти методы способны помочь. С другой стороны они почти определенно способны усиливать сами себя; тысячелетний вампир осваивал бы искусство жить все более полной жизнью со все увеличивающейся эффективностью.

Разумеется, все эти вещи распределены таким образом, что достаточно трудно свести их все к определенной цифре наподобие 500.

Финальный вопрос, конечно же, состоит в том, каково реальное ускорение, которое мы можем ожидать от вас или меня от написания или прочтения этого поста. Ускорение в два или три раза уже кажется почти невообразимым, что уж говорить о 500х. Однако законы умножения существуют. Хотя, возможно, придется принять множество допущений, чтобы воспринять эту идею всерьез.

Перевод: 
Remlin, Natty
Оцените качество перевода: 
Средняя оценка: 3.7 (82 votes)

Корень разногласия — стратегия для разрешения споров

Дункан Сабьен

Преамбула

«Корень разногласия» (Double Crux) — это одна из новейших идей CFAR. Из-за неё мы пересмотрели и изменили многое в нашем расписании (она повлияла на всё примерно в той же степени, что и введение триггеров «если-то» или внутреннего симулятора ранее). Эта стратегия быстро стала частью нашей жизни. Также мы считаем, что ожидаемая полезность от распространения «корня разногласия» - очень велика. Поэтому давно уже настала пора публично и строго описать, что это такое.

Замечу, что хотя суть стратегии уже более менее устаканилась, её реализация пока несколько варьируется. Джулия Галеф, Кензи Амодей, Эндрю Критч, Эли Тайр, Анна Саломон, я и другие продолжаем экспериментировать. В связи с этим данную статью стоит рассматривать не как «готовое блюдо», а скорее как «народный рецепт». Поскольку мне кажется более важным описать не саму идею, а то, как она строится, я умышленно буду здесь приводить длинные разветвлённые рассуждения. Соответственно, если вам кажется, что вы видите здесь что-то неправильное, или, по-вашему, тут чего-то не хватает, то, вероятно, вы наткнулись на какую-то важную мысль, и мы будем рады, если вы оставите об этом комментарий. [Речь о комментариях к оригинальной статье — Прим.перев.]

Для чего применяется «Корень разногласия»

В первом приближении человека можно рассматривать как «чёрный ящик», который на вход принимает информацию из своего окружения, а на выходе даёт свои убеждения и поведение. Конечно, этот ящик не совсем закрыт для нас, у нас есть доступ ко многому, что внутри него происходит, однако наше понимание собственных мыслительных процессов определённо неполно.

Когда два человека не соглашаются друг с другом — то есть, их «чёрные ящики» дают разные ответы, как показано ниже — часто можно наблюдать множество непродуктивных явлений.

Чёрные ящики

Самое распространённое (и утомляющее) из них выглядит так: люди просто вместе повторяют результаты вывода своего «чёрного ящика» (вспомните большинство разногласий по поводу спорта или политики - люди на картинке выше просто выкрикивают «треугольник!» и «круг!» громче и громче). Никакого прогресса при этом не происходит. На втором уровне люди часто воспринимают различия в выводах как свидетельство, что «чёрный ящик» их собеседника сломан (то есть, собеседник плохой, тупой или сумасшедший) или собеседник неправильно видит вселенную (например, он предвзят, рассеян или ненаблюдателен). На третьем уровне люди часто соглашаются не соглашаться. Этот ход позволяет сохранять социальное взаимодействие, но при этом люди жертвуют поиском правды и прогрессом.

Стратегия «корень разногласия» в идеале решает все упомянутые проблемы. На практике даже неумелые и неуклюжие попытки приблизиться к идеалу, судя по всему, довольно полезны. Собеседники лучше понимают друг друга, и количество конфликтов из-за несогласий уменьшается.

Необходимые условия

Эта статья в общих чертах описывает две версии «корня разногласия»: сильную версию, в которой обе стороны понимают описанную стратегию и в явном виде соглашаются сотрудничать в её рамках, и слабую версию, в которой только одна сторона знакома со стратегией и пытается улучшить качество дискуссии в одностороннем порядке.

В обоих случаях, насколько мы представляем, необходимо следующее:

  • Эпистемическое смирение. Умение подумать: «Возможно, в этом случае неправ именно я». С моей точки зрения это первооснова рациональности. Также это можно считать способностью воспринимать убеждения как объект, а не идти у них на поводу. Это умение отложить собственные убеждения в сторону, а затем взять чужие и представить, каким был бы мир, если бы правдой оказались именно они.

  • Вера в добрую волю собеседника. Принятие того, что люди верят во что-то по естественным причинам. Осознание факта, что воздействие того же набора стимулов на другого человека вызвало бы примерно те же самые убеждения. Умолчальный скептицизм ко всему, что кажется свидетельством в пользу некачественности или злонамеренности собеседника (поскольку нам, как обезьянам, несложно убедить себя в том, что у нас есть такие свидетельства, в то время как на самом деле их нет).[1]

  • Уверенность в существовании объективной истины. У меня было искушение назвать это «объективностью», «эмпиризмом» или «принципом Малдера», но эти названия не совсем подходили. В сущности речь идёт об убеждении, что практически на любой грамотно сформулированный вопрос действительно существует чёткий ответ. Возможно, этот ответ слишком дорого или даже невозможно найти и поэтому нам придётся всё-таки обходиться эвристиками (например: сколько кузнечиков живёт сейчас на Земле, лучше ли оранжевый цвет, чем зелёный, почему не существует аудиокниги «Бойцовский клуб», озвученной Эдвардом Нортоном), но, тем не менее, он существует.

  • Любопытство и/или желание найти истину. Первоначально я писал только о поиске истины, но мои коллеги указали, что кто-нибудь может двигаться в правильном направлении просто из любопытства в отношении другого человека и содержания его карты, не фокусируясь при этом на территории.

На воркшопах CFAR мы добиваемся первого и второго благодаря специальным лекциям, третьего — благодаря общей атмосфере, четвёртого — благодаря атмосфере и множеству совместной работы, которая приводит к тому, что людям комфортно общаться друг с другом и проявлять любопытство. Другие качества (такие как умение регулировать и подавлять эмоции в пылу момента или способность прибегать к мысленным экспериментам и разрешать их) тоже полезны, но не настолько важны, как перечисленные выше.

Как играть

Предположим, у вас есть убеждение, которые мы обозначим A (например, «ученики средней школы должны носить форму»), и вы спорите с кем-то, чьё убеждение сводится к ¬A. Поиск «корня разногласия» с этим человеком означает поиск второго утверждения B, которое обладает следующими свойствами:

  • Вы и ваш собеседник не согласны и по поводу B (вы считаете, что B, ваш собеседник считает, что ¬B).
  • Убеждение B является «корнем убеждения» для A: если выяснится, что B не верно, этого будет достаточно, чтобы вы посчитали, что А тоже ложно.
  • Аналогичным образом убеждение ¬B является «корнем убеждения» для ¬A.

Корень разногласия

В примере про школьную форму утверждением B, например, может быть утверждение «школьная форма может помочь сгладить классовые различия между богатыми и бедными учениками благодаря тому, что им будет сложнее судить друг о друге по одежде». Ваш собеседник может посчитать это «оптимистическим бредом». В идеале утверждение B должно быть ближе к реальности, чем утверждение A — то есть, более конкретным, более обоснованным, более чётко сформулированным, легче проверяемым и так далее. Оно должно быть в меньшей степени о принципах, обобщениях и выводах, и в большей степени позволять заглянуть в структуру, которая ведёт к этим выводам.

(Впрочем, оно не обязано быть проверяемым. Часто после нахождения B продуктивней начать искать C, а затем D, а после этого E и так далее, пока в итоге вы не дойдёте до чего-нибудь, что можно проверить или разрешить с помощью эксперимента).

На первый взгляд может быть неясно, почему нахождение B само по себе расценивается как победа. Ведь если вы не знаете, истинно ли B, вы не можете окончательно выбрать между A и ¬A. Однако, важно понимать, что если вы дошли до B, то вы уже разобрались со значительной частью ваших разногласий, и в этой части убеждения о причинно-следственных связях вселенной у вас и вашего собеседника теперь совпадают.

Если B, то A. Более того, если ¬B, то ¬A. Вы оба согласились, что из состояния B следует состояние A, и таким образом ваше «согласие не соглашаться» не обычное «ладно, оставайся со своей правдой, а я останусь со своей», а скорее «хорошо, посмотрим, что покажут свидетельства». Прогресс! И (что более важно) сотрудничество!

Способы поиска

Способы поиска - это самое слабое место упражнений CFAR на поиск «корня разногласия». Для поиска «корней убеждений» применяется какой-то вид «магии», с которым мы пока не разобрались. В целом метод сводится к «перебирайте корни ваших убеждений в поисках тех, с которыми ваш собеседник, скорее всего, не согласится, а затем сравните списки». Некоторым людям в случае некоторых тем очень легко определить, из чего проистекают их убеждения. В других случаях людям очень быстро начинает казаться, что их позиция объективная и незыблемая.

Советы:

  • Старайтесь замечать оттенки вкусов и мнений. Часто люди не озвучивают множество своих взглядов и мнений из-за социальных условностей или прочих подобных явлений. Обычно, если ослабить внутреннего цензора, становится проще замечать, почему мы считаем, что X, Y или Z.

  • Смотрите вперёд, а не назад. В случае, когда на вопрос «почему?» не удаётся получить осмысленный ответ, часто более продуктивно попробовать сделать предсказание по поводу будущего. Например, я могу не понимать, почему я считаю, что школьная форма — это хорошая идея, но если я включу свою «повествовательную машину» и начну описывать лучший мир, который, по моему мнению, получится в результате, скорее всего, я смогу разобраться какие причинно-следственные механизмы лежат в основе моих убеждений.

  • Сужайте масштаб. С частным примером «Стиву следовало поздороваться с нами вчера, когда он вышел из лифта» разобраться легче, чем с общим «Стиву стоит быть более общительным». Аналогично, зачастую проще ответить на вопросы вроде «Какую часть из наших 10 тысяч долларов нам стоит потратить на исследования, а какую на рекламу?» чем на вопросы вроде «Что более важно для нас сейчас: исследования или реклама?»

  • Применяйте «фокусирование» и другие похожие техники. Часто полезно гипотетически оценить перспективу, а затем обратить внимание на интуицию и заново оценить свою позицию. Например: (предположение сходу) «Я уверен, что если все будут носить школьную форму, то количество случаев травли уменьшится на пятьдесят процентов». (Пауза, слушаем собственные сомнения.) «Хотя нет, теперь, когда я произнёс это вслух, это кажется неверным. Однако, быть может, такие меры уменьшат случаи явной травли?»

  • Ищите корни своих убеждений независимо, чтобы не привязываться к мыслям своего собеседника. Здесь, по-моему, всё просто. Также стоит заметить, что если вам сложно вообще найти разногласия (например, чтобы попрактиковаться в поиске «корня разногласия» с друзьями»), то есть прекрасный способ начать: дайте каждому одинаковый список из 10-15 открытых вопросов, и пусть каждый запишет свои ответы, зафиксировав свою точку зрения до начала дискуссии.

В целом полезно держать перед мысленным взором идеальный «корень разногласия». Но стоит его разделять с реалиями существующего диалога. Мы обнаружили, что направлять разговор к поиску «корня разногласия» всегда полезно, однако, беспокойство по поводу того, как вы далеки от идеала, наоборот вредно. Следует задумываться о том, что полезное и продуктивное вы для диалога вы можете сделать прямо сейчас, и зачастую это означает, что вам стоит идти на здравые компромиссы — если у одного из вас есть хорошо сформулированные «корни убеждений», а другого — нет, то вполне нормально сфокусироваться на том, что есть. Если же никто из вас не может сформулировать единый «корень убеждения», но вместо этого у каждого из вас есть восемь совместных «корней», из которых любых пяти будет достаточно, так и скажите, и затем продвигайтесь туда, куда вам кажется оптимальным.

(Вариант: три одновременных поиска «корня разногласий» между тремя людьми и в каждый отдельный момент наименее активный участник занимается тем, что наблюдает за двумя другими собеседниками, пытается моделировать, что они говорят, и понимать, что именно они пытаются донести до собеседника и где именно у них не получается. Если он может предложить приблизительный «перевод» чьих-то слов, ему стоит так и сделать. В этот миг, вероятно, он займёт более важную роль для беседы, и роль наблюдателя/переводчика перейдёт к кому-то другому.)

В конечном счёте каждый ход должен быть направлен на то, чтобы отойти от свойственных большинству разногласий антагонизма, враждебности и стремления к «победе любой ценой». Обычно мы тратим огромную часть наших мыслительных ресурсов на то, чтобы понять структуру убеждений оппонента, сформировать гипотезу о том, что в этой структуре важно, и бросаться в эти важные части аргументами в надежде повалить всё здание. И в это же время мы стремимся скрывать собственную структуру убеждений, чтобы атаки противника оказались неэффективными.

(Это всё ужасно ещё и потому, что мы зачастую не можем даже понять, на чём базируется аргумент, и тратим время впустую. Если у вас был опыт неловкости, когда вы наблюдали за тем, как кто-то тратил десять минут, конструируя убедительное доказательство какого-то не имеющего прямого отношения к теме подпункта, которое совершенно точно не заставило бы вас изменить свою точку зрения, то вы понимаете цену чьего-то желания сказать: «Нет, для меня этот вопрос не имеет отношения к теме, давайте поговорим вот о чём».)

Если же мы можем перевести дебаты в состояние, где вместо битвы за истину мы сотрудничаем в поисках понимания, то значительная часть ресурсов окажется потраченной не зря. Вы знаете структуру собственных убеждений и в этом ваше громадное преимущество. Если мы можем переключаться в режим, в котором мы вместе можем заглядывать внутрь неё и искренне делиться находками, мы сможем продвигаться вперёд более эффективно, чем если бы мы были заняты догадками относительно убеждений оппонента. Для этого требуется, чтобы мы хотели знать настоящую правду (в частности, чтобы у нас был стимул искать пробелы в рассуждениях и фальсифицировать неверные убеждения не только у других, но и у себя) и чтобы мы чувствовали себя эмоционально и социально в безопасности с нашим собеседником. Однако, обоюдное стремление к маячащему впереди отблеску «корня разногласий» может создать безопасность и стремление к истине, которое может приблизить нас к предмету наших поисков, что в свою очередь даст ещё больше безопасности и стремления к истине, и так далее.

Подводные камни

Самое главное: важно различать, участвуете вы в сильной версии «корня разногласия» (кооперативной, с согласием обоих участников) или слабой версии (вы как агент пытаетесь улучшить качество беседы, возможно, сталкиваясь с прямым противодействием). В частности, если кто-то в данный момент рассержен на вас и рассматривает вас как врага, заявления вроде «Я просто считаю, что мы добьёмся большего, если будем разговаривать о скрытых причинах наших убеждений» не будут восприняты как призыв к кооперации. Они будут восприняты как ловушка.

Поэтому, если вы участвуете в слабой версии, основная стратегия заключается в том, чтобы задавать вопрос: «Что вы видите, а я нет?» Другими словами, демонстрируя собеседнику явно смирение и доброжелательность, разворачивайте структуру его убеждений ради его же блага, чтобы её понять и принять во внимание, а не для того, чтобы её разрушить. По моему опыту, люди «носом чуют», когда вы лишь изображаете доброжелательность, а на самом деле просто хотите, чтобы они раскрылись. Если вам сложно войти в нужный настрой, я советую вспоминать вам случаи из вашего прошлого, когда вы оказывались неправы настолько, что вам было неуютно — как вы себя чувствовали перед тем, как это выяснилось, и как после.

(Если вы не способны или не желаете проглотить свою гордость или отложить достаточно далеко в сторону своё чувство справедливости, в этом нет ничего плохого. Не каждый спор выигрывает от применения в нём стратегии «корень разногласия». Но если ваша настоящая цель — улучшить качество беседы, то вам лучше быть готовым заплатить эту цену. Вам придётся пройти лишнюю милю, потому что: а) то, что вам кажется необходимым расстоянием, практически наверняка — «недолёт», б) необходимое расстояние может оказаться недостаточным, чтобы разрушить укоренившуюся у собеседника модель, в которой вы — Враг. Рекомендуются ритуалы, вызывающие терпение и здравомыслие.)

Также в обеих версиях — но особенно в слабой — очень хорошо вести себя так, как вы бы хотели, чтобы себя вёл ваш собеседник. Раскрывайте собственную структуру убеждений, показывайте, как теоретически можно фальсифицировать ваши собственные убеждения, подчёркивайте пункты, в которых вы не уверены, и так далее. В частности, если вы не хотите, чтобы люди вас бесили неверными моделями того, что происходит в вашей голове, позаботьтесь о том, чтобы не выглядеть как авторитет в области того, что происходит у них в головах.

Старайтесь не заблудиться в тумане. Первый шаг «корня разногласия» всегда должен сводиться к прояснению терминов. Старайтесь привязывать всё к числам, не пользоваться словами вроде «много» или «мало», которые можно понять по-разному. Старайтесь говорить о наблюдаемых в реальном мире последствиях, а не о том, хороши они или плохи. В примере со школьной формой можно сказать в самом начале: «ученики в форме будут чувствовать себя лучше», но останавливаться на этом не стоит. Гораздо лучше попытаться выразить это утверждение в числах (если вы считаете, что однажды вы сможете эти числа получить). Часто после устранения двусмысленности разногласие «рассеивается». И это успех, а не провал!

И последний совет. Используйте бумагу и карандаш, или маркерную доску, или ещё что-нибудь для того, чтобы участники рассматривали конкретные предсказания и выводы как неизменяемые объекты (если кто-то хочет изменить или подправить формулировку, то это только приветствуется, но позаботьтесь о том, чтобы в каждый момент вы работали с ясным недвусмысленным утверждением). Во многих дискуссиях, например, в публичных политических дебатах, поощряется увёртливость, «борьба за очки», стратегия «прячься за двусмысленные формулировки и выгляди умнее». Ценность «корня разногласия» помимо прочего и в том, что здесь всего этого стараются избежать. Цель заключается в том, чтобы в любой момент все как можно лучше понимали, что именно пытается сказать оппонент, а не в том, чтобы сделать «соломенное чучело» из его аргументов и заставить его выглядеть глупо. Отслеживайте, когда у вас появляется искушение скатиться к привычному высмеивающему стилю поведения, и удерживайте себя в «настрое разведчика», а не в «настрое солдата».

Алгоритм

Ниже приводится алгоритм «корня разногласия» в том виде, в каком он даётся в нашем учебнике. Этот текст не слишком связан с тем, что написано выше, предполагалось, что его будут читать в контексте часовой лекции и нескольких практических занятий (поэтому в нём есть некоторые пробелы и странности). Здесь он приводится скорее для полноты и как пища для размышлений, а не как попытка подытожить написанное выше.

  1. Найдите разногласие с другим человеком.

    • Вопрос, относительно которого вы верите во что-то одно, а ваш оппонент — во что-то другое.
    • Вопрос, относительно которого у вас с вашим оппонентом разные степени уверенности (например, вы убеждены, что X истинно с вероятностью 60%, а оппонент — что с вероятностью 90%).
  2. Проясните сущность разногласия.

    • Определите используемые термины, чтобы не запутаться в семантических противоречиях, которые отвлекут вас от реального смысла.
    • Найдите конкретные примеры. Например, оценивайте, стоило ли вам вчера в утром в офисе поздороваться со Стивом, а не стоит ли вам быть более дружелюбным.
    • По возможности старайтесь рассуждать на языке действий, а не на языке убеждений. Легче оценивать аргументы вида «делать X более предпочтительно, чем Y», чем сокращённый вариант «X лучше Y».
  3. Ищите «корни разногласия».

    • Ищите собственные «корни убеждений» независимо. Затем сравнивайте с тем, что нашёл ваш собеседник и ищите пересечения.
    • Ищите «корни убеждений» совместно, делая утверждения «Я считаю, что произойдёт X, потому что Y» и фокусируйтесь на фальсифицируемости («Потребуется A, B и C, чтобы я перестал считать, что X»).
  4. Проверьте, что у вас получилось.

    • Потратьте время, чтобы «вжиться» в позиции обеих сторон и убедиться, что вы действительно нашли сущность разногласия (а не что-то, что в итоге не сможет продвинуть вас дальше).
    • Представьте вывод в виде утверждения «если-то». Воспользуйтесь своим внутренним симулятором и другими способами проверки, чтобы понять, нет ли каких-то невысказанных сомнений по поводу истинности этого утверждения.
  5. Повторите!

Заключение

Мы считаем, что «корень разногласия» — это суперкруто. Если вы видите в этой стратегии какие-то недостатки, мы хотим о них узнать и исправить. На данный момент мы уверены, что исправление и улучшение «корня разногласий» гораздо выгодней, чем попытки внедрить какую-то совершенно другую стратегию. В частности, мы полагаем, что в принятии духа этого мыслительного приёма кроется гигантский потенциал, позволяющий людям более эффективно бороться со сложными и плохо понимаемыми темами (например, с вопросами экзистенциальных рисков), потому что эта стратегия позволяет одновременно удерживать в голове множество частично-неверных моделей и при этом выделять самое ценное из каждой.

Комментарии приветствуются. Критика очень приветствуется. Очень-очень-очень приветствуются рассказы из личного опыта о попытках научиться «корню разногласия», или попытках научить ему других, или попытках использовать его втайне от собеседника.

[1] Одна из важных причин верить в добрую волю собеседника заключается в том, что даже когда люди «неправы», они обычно правы частично. Среди их неверных убеждений есть крупицы золота, которые агент, заинтересованный в том, чтобы получить всю картину, может успешно добыть. Привычный способ разбираться с несогласиями зачастую приводит к тому, что это золото выбрасывается — или позволяя каждому защищать свой исходный набор убеждений, или заменяя взгляды всех на те, что считаются «лучшими». При этом выбрасываются данные, происходит каскадная передача информации, люди не стремятся «замечать замешательство» и так далее.

Основная идея здесь в том, что вселенная похожа на большой и сложный лабиринт, и каждый из нас видит лишь его часть. Расширение собственного языка и коммуникация позволит нам собрать информацию о частях этого лабиринта, не исследуя их самостоятельно. И это здорово! Но когда мы не согласны, что делать, из-за того, что мы видим разные слои реальности, неплохо бы пользоваться методами, которые позволяют нам объединять и синтезировать информацию, а не методами, которые заставляют нас выбирать часть и выкидывать остальное. Вспомните притчу о трёх слепцах и слоне. По возможности воздерживайтесь от подведения итогов, пока вы не получили все доступные данные.

Лабиринт

Агент сверху ошибочно считает, что следует двигаться налево, поскольку ему кажется, что это кратчайший путь к цели. Агент справа понимает, что это ошибка, но сам он бы никак не смог дойти до этой точки.

Перевод: 
Alaric
Оцените качество перевода: 
Средняя оценка: 3.5 (27 votes)

Помни о корнях своих убеждений

Корень разногласия — ценный инструмент. Благодаря ему группа может принять решение, а отдельные люди — помочь друг другу сформировать более точные выводы.

К сожалению, зачастую этот инструмент требует довольно много времени. Чтобы разрешить некоторые разногласия требуются часы. А на некоторые уходят годы. Обычно наши убеждения переплетаются в жутко запутанный клубок, и быстро его распутать получается далеко не всегда.

Однако вы всё равно можете развивать основной навык «корня разногласия» — умение замечать, что могло бы изменить вашу точку зрения. Я по мере развития этого навыка обнаружил, что мне становится легче: а) формулировать, во что я действительно верю и почему, б) строить системы убеждений, которые мне легче понимать, обновлять и которыми мне проще делиться с другими людьми.

В этой цепочке исследуются вопросы, когда «корень разногласия» полезен, какие для него нужны вспомогательные навыки, и почему их стоит осваивать.

Автор: 
Raemon

Что мы создаём?

Raemon

Эпистемический статус: Для меня, кажется, работает. Не предполагается как строгое правило.

Во время разговора я часто задаюсь вопросом: «Мы создаём что-нибудь вместе или нет?»

Многие разговоры (в Сети или при личном общении) относятся к категории «да мы просто болтаем». «Просто болтать» иногда довольно важно — это весело, благодаря этому можно подружиться с другими людьми, и так далее. Однако если кому-то из участников разговора уже перестало быть весело, скорее всего, разговор нужно прекратить или как-то изменить.

У разговора о «создании чего-нибудь» есть цель. Эта цель: «сделать что-нибудь, что хоть кто-нибудь когда-нибудь будет использовать». Например, можно создавать:

  • Продукт в буквальном смысле:
    • Например, программировать веб-сайт или проектировать виджет.
  • Отношения:
    • Вы и ваш друг (или романтический партнёр) пытаетесь установить более доверительные отношения или разобраться во взаимонепониманиях.
  • Вечеринку:
    • Вы и ваши соседи по комнате планируете устроить вашему другу неожиданную вечеринку по случаю его дня рождения.
  • Новые нормы:
    • Вы и ваши друзья (или коллеги) согласны, что в ваших взаимоотношениях что-то идёт не так, и пытаетесь придумать, как это исправить.
  • Забавную идею:
    • Вы генерируете какие-то случайные сумасшедшие идеи, но тем не менее хотите в результате получить как можно лучшую сумасшедшую идею. Позже она может превратиться в продукт в буквальном смысле. Ну или в забавную историю, которую можно будет рассказать друзьям.
  • Ощущение:
    • Возможно, ваш разговор не о каком-то конкретном продукте. Возможно, вы исследуете философскую идею. Однако ваша цель не получить на выходе полезную философскую идею, а, например:
      • выработать ощущение, на что именно похоже ваше замешательство;
      • выработать какую-то общую интуицию, на чём основывается философская идея.

В каких-то из этих случаев можно и «просто болтать». Можно разговаривать о новых нормах, не слишком ориентируясь на цель, а скорее блуждая в поисках возможных предложений. Забавная идея уж точно может быть всего лишь забавной идеей.

Однако я обнаружил, что для меня в большинстве случаев разговаривать о создании чего-нибудь гораздо более интересно. И в такие разговоры мне хочется вкладываться сильнее.

Разговоры о создании чего-нибудь не обязаны быть стремительными или сфокусированными как лазер. Иногда лучший способ спроектировать продукт — это длинное обстоятельное обсуждение, позволяющее уяснить все нюансы требуемых ограничений или поделиться интуицией о том, чего хочется достичь.

Создание продукта налагает на разговор ограничения

Для создания продукта подходит огромное количество разных стилей разговора. Скорее это зависит от среды. Суровые автомеханики матерят друг друга при любой ошибке. В некоторых компаниях приняты странные нормы вежливости, при этом нормы, например, в США и в Японии могут отличаться.

Недавно я уже обсуждал то, что мне представлялось вопросами кооперации при создании продукта. В своих комментариях я описывал нормы, которые предпочитаю я сам. Однако сейчас я собираюсь рассматривать более общие случаи.

У меня есть какие-то представления о том, какие примерно нормы нужны, чтобы успешно создавать что-то вместе. Однако у меня есть гораздо более важное мета-убеждение: если вы создаёте продукт вместе, то полезный для вас разговор будет подчиняться некоторым ограничениям. И одно из важнейших ограничений:

Если вы не создаёте один и тот же продукт, то вы зря тратите время.

Если вам кажется, что разговор заходит в тупик и люди друг друга не слушают, возможно, стоит задать следующие вопросы:

  • Мы что-то создаём вместе или типа просто болтаем?
  • Если мы типа просто болтаем, нам это нравится? От этого есть какая-то иная польза? Если нет, заканчивайте разговор или что-нибудь в нём меняйте.
  • Если мы в самом деле создаём какой-то продукт, мы согласны друг с другом в вопросе о том, что именно мы создаём? Есть ли у нас согласие на мета-уровне: если мы всё же не согласны по вопросу, что именно мы создаём, то мы, как минимум, должны в этом разобраться?

По крайней мере для меня последний вопрос определяет, буду ли я вкладывать в этот разговор серьёзные усилия или нет.

Перевод: 
Alaric
Оцените качество перевода: 
Средняя оценка: 5 (7 votes)

Короткая история: Карантин

Dias

Второе июня, 42 после Падения
Где-то в горах Колорадо

Сначала они увидели человека, идущего в нескольких милях от комплекса. По крайней мере, это выглядело как человек. Выцветшие джинсы, белая футболка, ветровка, походный рюкзак. Белый, светло-коричневые волосы. Нет видимых травм. Без опознавательных знаков.

Они внимательно наблюдали, как он приближался. В других ситуациях они бы застрелили его без предупреждения, но не сейчас. Они с болью осознавали границы устойчивого генетического разнообразия и ехали в потрёпанном фургоне с заряжёнными винтовками в промышленных наушниках. Как только он встал на колени, они приказали Джавиду Неслышавшему связать и заткнуть ему рот кляпом, после чего кинуть в фургон. Не надо рисковать.

Джавид не всегда был глух, но это было честью. Некоторые люди должны жертвовать чем-то на благо других, и он гордился, что защищал Святилище в Роджерс Форд.

Вернувшись в комплекс, они поместили человека в звуконепроницаемую комнату и развязали его. На столе стоял старый компьютер с надписью «Ассоциация Бесов». Люди не знали, кто такие Ассоциация Бесов, но были благодарны. Возможно, это подарок от Олсона. Хвала Олсону.

Не имея другого выбора, человек сел и прочёл указания на мониторе. На экране была выведена цепочка слов, и ему было сказано выбрать левую или правую сторону по разным признакам. Это очень сбивало с толку.

В другой комнате, наблюдатели сжимались вокруг маленького экранчика, глядя на ряды чисел.

REP/DEM 0.0012 0.39 0.003

Хорошо. Это очень хорошее начало.

FEM/MRA -0.0082 0.28 -0.029

SJW/NRX 0.0065 0.54 0.012

В конце концов, они прошли от тех строк, которые в катехизисе помечались «очистить в огне и никогда не говорить об них», до тех, которые просто отмечены как «очень опасные».

KO/PEP 0.1781 0.6 0.297

Не так хорошо, но все же в пределах допустимых отклонений. Они проведут ещё один тест.

T_JCB/T_EWD -0.0008 1.2 -0.001

Тест продолжался ещё некоторые время, пока священник не сказал: «Испытание Рыбы завершено. Он прошёл Снекедорскую Рыбу».

Это было опаснее. Это требовало жертвоприношения.

Она была молода — ей было всего пятнадцать. Розовощёкая девочка с длинными светлыми волосами, на лице у Софии была милая улыбка. Она идеально подходила для своих обязанностей. Её семье сказали, что это выбор их дочери - это большая честь.

Улыбаясь и с трепетом в голове, София вошла в комнату. Она предложила ему выпить: «Извини, что тебе пришлось пройти через все эти испытания. Тебе должно быть жарко! Будешь ко-ку?» Её расслабленный тон не давал понять, что эти слова были запретными и передавались из поколения в поколение, запоминались и почитались как оберег от зла.

Человек взял у неё бутылку с тёмной жидкостью и выпил, после чего бросил бутылку в мусорку для перерабатываемых отходов.

В другой комнате на экране высветилось «ЭКО».

«Ой, прости! Я ошиблась, это же пеп-си. Мне ужасно жаль!» — затараторила извинения София. Человек заверил её, что всё в порядке.

В другой комнате священник убедился, что индикатор преданности бренду горит на нуле.

Она перешла к следующему запрещённому вопросу, повышая уровень беспечности: «Знаю, это глупый вопрос, но у тебя когда-нибудь в голове застревала песня?»

«Эм, что?»

«Знаешь, как будто ты просто не можешь перестать крутить её у себя в голове?» Конечно, она не знала, каково это было. Она была жива.

«Прости, нет».

Она повернулась и вышла, глаза наполнялись облегчением.

Прошло ещё три дня испытаний, и мужчину впустили в комплекс. Невзирая на неистовство эволюции с поколенческой частотой в сто раз больше, чем у остального человечества, он как-то сохранил себя. Он был чист от вирусной памяти. Он был живым.

Перевод: 
gihh
Оцените качество перевода: 
Средняя оценка: 3.3 (12 votes)

Разум как меметическое иммунное расстройство

Фил Гоэц

Есть пророки в своём отечестве

Я читаю книгу «Год, прожитый по Библии» А. Дж. Эйкобса. Он пытался следовать всем заповедям в Библии (Старый и Новый завет) буквально в течение одного года. Он быстро обнаружил, что:

  • многие из правил в Библии невозможны, нелегальны или следовать им сегодня просто стыдно; например, ношение бородки, привязывание денег к телу, забивание камнями изменщиков, запрет есть плод с дерева моложе 5 лет, запрет прикасаться ко всему чего касалась женщина во время менструации;
  • это не беспокоит почти никого из числа тех американцев1, что считают Библию словом Божьим.

Вы могли заметить что люди, принявшие религию в возрасте после 20 лет в целом более ревностно относятся к соблюдению её правил, чем люди, выросшие в той же самой религии. Те, кто вырос в религиозной семье, уже умеют справляться с неудобными частями веры, отделяя их, рационализируя отказ от них или просто о них забывая. Религиозные сообщества на самом деле в каком-то смысле защищают своих членов от религии — они создают набор неписанных правил о том, какие части религии участники сообщества могут легитимно игнорировать. Новообращённые же иногда пытаются всерьёз делать всё то что говорит им религия.

Я слышал, как миссионеры описывали разные безумства, которые проделывали их неофиты из каких-нибудь глухих мест, прочитав Библию в первый раз: они отказывались учиться у миссионеров-женщин; они настаивали на дословном соблюдении ветхозаветных заповедей; они вдруг решали что все в их деревне обязаны прилюдно признаться во всех своих грехах; они молились Богу и ожидали, что он сделает всё то о чём они его просят; они считали, что христианский Бог вылечит их болезни. Мы всегда немного смеялись над наивностью таких новообращённых; я с трудом слышал тихий голос в моей голове, повторяющий: «Но они просто верят в то что Библию надо воспринимать буквально…»

Как можно объяснить слепоту людей по отношению к религии, в которой они выросли?

Культурный иммунитет

Европа жила в христианстве почти 2000 лет. Европейская культура эволюционировала бок о бок с христианством. Культурно, меметически, она выработала устойчивость к христианству. Неофиты, обращённые в эту религию в Уганде, Новой Гвинее и других отдалённых местах, впервые столкнулись с христианскими мемами, не имея к ним иммунитета.

История религий часто напоминает историю вирусов. Иудаизм и ислам были очень вирулентны, когда только появились, заставляя первые поколения своих людей завоёвывать (ислам) или просто убивать (иудаизм) соседей за грех непохожести на них. Обе этих религии со временем стали более спокойными (Христианство было мирным с самого начала, так как возникло среди завоёванных людей. Когда его приняли римляне, оно не сделало их более воинственными, чем они были до этого).

Этот механизм не полностью повторяет аналогичный механизм болезней, слишком вирулентные из числа которых рискуют убить всех своих носителей. Обычно, религии не убивают своих носителей. Я подозреваю что с течением времени естественный отбор благоволит менее ярым фанатикам. Иными словами, культура со временем вырабатывает антитела против тех религий, с которыми она сосуществует — набор отношений и практик, делающий их менее вирулентными.

У меня есть теория о том, что «радикальный ислам» — это ислам, развившийся на Западе (а «местный» ислам не бывает радикальным). Больше половины из 75 исламских террористов, исследованных Бергеном и Пэнди в 2005 году(English), посещали западный колледж (только 9% учились в медресе). В целом, традиционное западное образование в колледже получил очень маленький процент мусульман. Человек, проживший всю свою жизнь в мусульманской стране, вряд ли испытает жгучее желание поехать заграницу и взорвать там чего-нибудь. Но когда кто-то из мусульманской нации едет в европейский колледж, возвращается с идеями эпохи Просвещения, — о разуме и о том, что оглядываться нужно не только на свои убеждения, но и на всё, что из них выводится — и применяет эти идеи к Корану… Вот тогда начинаются неприятности. Он потерял свой культурный иммунитет.

Я также вспоминаю о выступлении, которое проводил один из ассистентов Далай-Ламы. Это был не приглаженный западный буддизм; это был оригинальный буддизм, буддизм в шафранных робах прямиком с самолёта из Тибета. Этот человек говорил о своих убеждениях, и отвечал на вопросы присутствующих. Люди начали спрашивать его о некоторых последствиях его убеждений о том, что жизнь, любовь, чувства (и даже Вселенная в целом) в самой своей основе плохи и нежелательны. Он с большим трудом понял вопрос — не из за плохого знания языка, я полагаю; просто идея о том, что можно взять убеждение в одном контексте и применить его к другому контексту, была для него совершенной диковинкой. Его знание состояло из отдельных единиц. Каждая единица имела свою историю с собственным выводом и ограниченной областью применения (неудивительно, что многие считают, что для понимания буддизма требуется несколько десятилетий). Ему была незнакома мысль о том, что эти единицы могут как-то взаимодействовать; мысль о том, что можно взять идею из одного контекста и изучать её следствия в совершенно другом контексте. Возможно, это была одна из крайних форм культурного иммунитета.

Мы считаем буддизм мирной, заботливой религией. Религия, которая учит, что борьба и статус бесполезны, определённо должна быть более мирной, чем та, что учит, что весь мир должен склониться перед её влиянием; и религии, за которыми не стоят государства, (например, таким было раннее христианство) обычно спокойнее тех, у которых есть власть казнить и миловать. Но многое из традиционных представлений о буддизме появилось благодаря культурным нормам, мешающим буддистам соединить все точки в своём мировоззрении. Сегодня мы беспокоимся об исламских террористах. Через сто лет мы, возможно, будем беспокоиться о физиках-буддистах.

Разум как подавитель иммунитета

Я говорю обо всём этом потому, что интеллектуально развитые люди иногда совершают поступки, затмевающие своей глупостью всё, на что способны глупые люди. У этого много причин, но одна из них в том, что во всех культурах циркулируют как опасные мемы, так и культурные антитела к этим мемам. Проблема в том, что эти антитела не логичны. Напротив, они часто могут вообще отрицать логику. Это слепые пятна, которые позволяют нам жить с опасным мемом, не испытывая потребности действовать в соответствии с ним. Опасные эффекты этих мемов наиболее очевидны на примере религий, но я думаю, что какая-то часть этого есть во всех социальных нормах. В Америке есть сильная культурная норма, говорящая о том, что все люди равны (что бы это ни значило); изначально, это сильное и неоднозначное убеждение было сбалансировано набором настолько больших слепых пятен, что оно не побудило нас сразу освободить рабов или дать право голоса женщинам и людям, не владеющим землёй. Можно вспомнить и другую норму, говорящую о том, что только тяжёлый труд гарантированно приводит к успеху, и связанный с ней набор слепых пятен, который не даёт этому убеждению сделать из нас всех объективистов.

Даже небольшое количество разума может быть опасным грузом. Ландшафт рациональности не гладок; нет никакой гарантии, что удаление одного ошибочного убеждения улучшит ваши рассуждения вместо того, чтобы ухудшить их. Иногда разум позволяет нам видеть опасные аспекты наших мемов, но не те слепые пятна, которые нас от них защищают. Иногда он позволяет нам замечать слепые пятна, но не опасные мемы. В обоих случаях разум может привести человека к дисбалансу, подорвать его адаптацию к меметическому окружению и уничтожить цепи, мешающие дремлющим мемам довести себя до логического завершения (перефразируя Стива Вейнберга, можно сказать: «Для того, чтобы умный человек сделал что-то по-настоящему глупое, ему нужна теория». Вообще говоря, можно было бы цитировать и без изменений, ведь «глупое» — это просто слабый оттенок «злого». Коммунизм и фашизм начали с установки полного контроля над меметическим окружением, что позволило им создать свободного от культурного иммунитета человека, который будет делать то что ему скажут).

Вакцины: обновление убеждений и эмоции

Как можно понять, что ты удалил набор белых пятен из своего разума, не удалив одновременно их противовесы? Один из способов предотвратить такую потерю иммунитета — внимательно следить за тем, не отклоняешься ли ты от всех, кто находится рядом с тобой. Я постоянно отклоняюсь от мнения окружающих, так что для меня такая эвристика оказалась не очень полезной.

Другая эвристика — слушать свои чувства. Если ваши заключения совершенно вам не нравятся, то, возможно, вы потеряли когнитивный иммунитет к чему-то опасному.

  • 1. Их доля составляет от трети до половины всего населения Америки.
Перевод: 
BT
Оцените качество перевода: 
Средняя оценка: 4.3 (9 votes)

COVID-19

Пандемия COVID-19 очень активно обсуждается на lesswrong.com. Этот раздел посвящён переводам на эту тему.

COVID-19: моя текущая модель

Зви Моушовиц

Примечание редактора сайта: Оригинал этого эссе был опубликован 31 мая 2020 года, поэтому с тех пор могли появиться новые научные данные. При чтении следует учитывать, что автор не является специалистом в области медицины. Свидетельства, на которых основывается позиция автора, можно увидеть в других его записях о COVID-19.

Этот пост будет кратким изложением моих текущих ключевых взглядов на разные аспекты того, что происходит, особенно в тех местах, где я вижу, как многие или большинство ответственно выглядящие люди понимают происходящее неверно в важных местах.

Этот пост не предоставляет сильные, основанные на свидетельствах аргументы в пользу этих взглядов. Это не такой пост. Этот пост - мое отражение всего, в записи, в месте, на которое можно сослаться.

Риски подчиняются степенным законам

Невозможно на самом деле понять Ковид-19, если вы думаете о некоторых вещах как о «рискованных», а о других вещах как «безопасных», и группируете все вещи в каждую из категорий. И тем не менее, именно так направлена большая часть нашего мышления.

Вместо этого, думайте о рисках как о подчиняющихся степенным законам.

Самые рискованные активности происходят в помещении, включают физическую близость с другими, в то время как в течение продолжительного времени эти другие кашляют, поют, выпускают воздух или сильно выдыхают другим образом, или мы находимся в фактическом физическом контакте, который затем достигает глаз, носа или рта.

Активности, в которых отсутствуют эти компоненты намного, намного безопаснее, чем активности, в которых присутствуют все эти компоненты.

Далее, другие действия, такие как маски, и мытьё рук, и отсутствие прикосновений к лицу, могут уменьшить риск на ещё больший процент.

Небольшие уменьшения в частоте и серьезности ваших очень рискованных действий намного важнее, чем уменьшение частоты условно рискованных действий.

Те несколько раз, что вы будете разговаривать с кем-то в ходе дел, одно общественное собрание, на котором вы будете присутствовать, переполненный магазин, через который вам придется пройти, будут доминировать в вашем профиле риска. Будьте параноидным насчёт этого, и думайте, как сделать это менее рискованным, или, в идеальном случае, избежать этого. Не беспокойтесь из-за маленьких вещей.

И думайте о физическом мире и о том, что на самом деле происходит вокруг вас!

Жертвоприношения богам требуются везде

Жертвоприношение богам (пост на эту тему должен быть прикреплен, когда он наконец будет написан) - это действие с физической ценой, но без заинтересованности в какой-либо имеющей значение физической выгоде, сделанное в надежде, что оно сделает совершителя менее заслуживающим осуждения. Все плохо, потому что мы грешили. Боги требуют жертвы. Если мы не будем вести себя с подобающим раскаянием и огорчением, все наверняка станет ещё хуже.

Когда мы ведём себя подобающе, мы добродетельны и, без сомнения, будем спасены. Мы можем остановиться. Нет нужды продолжать таким способом, который действительно сработает, когда боги были умилостивлены. Все обойдется.

Если вы не делаете подобающих жертв, тогда, если что-то пойдет не так, это ваша вина. Или, по меньшей мере, вы всегда будете беспокоиться, что это ваша вина. Как и другие. Если вы делаете подобающие жертвы, ничто не ваша вина. Намного лучше.

Если действие эффективно и действительно решило бы проблему осмысленным способом, это аннулирует всю операцию. Вы можете либо показать, что вы праведны и доверяете богам, либо действовать, чтобы на самом деле решить проблему. По очевидным причинам, вы не можете делать и то, и другое.

Стальной человек (улучшенный аргумент - прим. перев.) всего этого - то, что Сложность - это Плохо (на английском) и нюансы невозможны. Если мы начнем делать вещи, основываясь на том, есть ли в них смысл, это задаст ужасный пример, и большая часть людей будет безнадежно потеряна.

Поэтому мы дезинфицируем посылки. Мы расходимся точно на шесть футов (примерно 1,8 метра - прим. перев.). Мы ждём ровно две недели. Мы закрываем все «не существенные» бизнесы, но не «существенные». Мы выпускаем приказы оставаться дома и выписываем огромные чеки безработным. Потом мы поворачиваемся и «открываемся», к этому моменту незанятость становится добровольной, государство не должно платить, и люди вынуждены возвращаться на работу. Мы лжём, чтобы запретить маски, потом мы пытаемся обязать носить их, и удивляемся, почему люди не доверяют властям. Мы провозглашаем работников здравоохранения героями, но не разрешаем им проводить эксперименты или собирать много информации. И конечно, мы обеспечиваем выполнение норм, обеспечиваем выполнение норм, обеспечиваем выполнение норм, в то время как мы кричим, как мы великолепны и гибки, раз мы отказались от маленького количества этих норм.

Мы должны выбрать одно отдельное вмешательство, которое решит наши проблемы, а не совмещать их эффективность, потому что математика не важна. И коллективный иммунитет - это 75% заразившихся, потому что математика важна именно настолько, но не более важна.

Мы также совершаем ритуальное самоубийство в форме отказа разрешить рыночные силы, или подобающим образом вознаградить тех, кто будет производить вещи, за вещи, которые нам нужно произвести. Но это больше об общих безумных священных ценностях (на английском), чем об истинном пожертвовании богам.

Да, я не в восторге от нашей полностью дисфункциональной цивилизации. Спасибо, что заметили.

Многое из написанного ниже - это разъяснение, чем именно являются эти требования, и почему они попадают в эту категорию.

Государства в большинстве случаев - лгущие лгуны без способности планировать или физически рассуждать. Они даже не могут перестать мешать и убивать людей

Полиция, напрямую лгущая, атакующая, задерживающая и убивающая невинных людей справедливо сделала людей очень, очень злыми.

Но ответ на пандемию был не сильно другим, кроме отсутствия протестов.

ВОЗ неоднократно лгала, нам в лицо, о фактах, жизненно важных для охраны нашего здоровья и здоровья окружающих. Они продолжают делать это. Это не отличается от их нормальных процедур. ВОЗ должна быть разрушена.

Управление по санитарному надзору за качеством пищевых продуктов и медикаментов постоянно мешало нашей возможности иметь медицинское оборудование, тестировать на вирус и создать вакцину. Все это продолжается. Это не отличается от их нормальных процедур. Управление по санитарному надзору за качеством пищевых продуктов и медикаментов должно быть разрушено.

Почти все правительственные чиновники в Америке, и большинстве других стран (я не буду вдаваться в то, какие страны являются исключением) делали то же самое. Они участвовали во лжи обо всем. Они в основном действуют, чтобы требовать пожертвований богам, отменяя действия до тех пор, пока какие-нибудь из этих ограничений каким-либо образом умилостивят богов, и они будут выглядеть ответственно и благочестиво, и, может быть, все будет хорошо.

Дискуссии даже не рассматривают возможность рассказать гражданам правду о том, что происходит, или дать им выбор, как реагировать. Считается, что, конечно же, мы должны говорить им то, что вызовет действия, которые нам кажутся правильными.

Всё, что делают такие люди, это попытки найти заклинания, которые оградят их от осуждения в следующую неделю или две. Вот и все. Серьёзно. Вот и все.

Это все, что они ещё могут делать. Практически никто со способностью моделировать физический мир, или тот, кто заботился бы о последствиях своей модели, если бы у них такая была, не имеет власти или авторитета в данный момент. Смотрите цепочку моральные лабиринты (на английском). Ирония в том, что некоторые корпорации (я не буду рассуждать, какие именно, но я стараюсь владеть их акциями) являются самыми значительными исключениями.

Презирайте их всех, как они этого застуживают. Может быть, даже сделайте что-нибудь на этот счёт.

Молчание - золото

Все данные, которые я видел, и мое физическое понимание вируса, привело меня к выводу, что люди, которые не говорят (а также не чихают, не кашляют, не поют и все такое), не выделяют много вируса. Они на порядок или больше менее опасны, чем тот, кто разговаривает.

Направление тоже имеет значение. Не говорите, находясь лицом к кому-то, не стойте к ним лицом, когда они говорят с вами. Наши уши могут с этим справиться. То же самое с громкостью, которая должна быть минимальной для данных обстоятельств. Пение или крик особенно ужасны.

Это первая причина, по которой, когда мы наконец взглянем на данные, общественный транспорт не был близко так опасен, как он выглядит, и многие города с обширным общественным транспортом по всему миру имели разумные вспышки.

Поверхности в основном безопасны

В начале, имело смысл быть параноидным насчёт поверхностей. Было установлено, что вирус может «выживать» различные периоды времени. Поэтому, если вы хотите быть «в безопасности», вам нужно очищать их в какой-либо форме, или ждать тот период времени. Это уменьшает риск практически до нуля, если делается правильно.

В отсутствии этого, мы посылаемая в постоянное безумие «глубокой очистки» и рассматривания поверхностей как смертельного оружия, которые заражают любого, кто к ним прикоснется. Профессии ментально оцениваются по количеству поверхностей, к которым людям требуется прикасаться, и экономическая активность предупреждается, если она может включать слишком много поверхностей.

Этот уровень паранойи мог бы продолжать иметь смысл, если бы ситуация была «если один зомби проскользнёт за линию, все умрут». Предупредительный принцип важен. Это не то, с чем мы столкнулись.

Прошли месяцы. У нас нет конкретных примеров заражения через поверхности. Вообще.

( Примечание переводчика. В комментариях Роб Бенсинджер ответил:

«… Элоиза Розен ответила:

Знаем ли мы о каких-либо ясных примерах этого, для Ковид-19?
Да!
«Женщина в возрасте 55 лет (пациент А1) и мужчина в возрасте 56 лет (пациент А2) были туристами из Уханя, Китай, которые прибыли в Сингапур 19 января. Они посетили местную церковь в один день и имели проявление симптомов 22 января (пациент А1) и 24 января (пациент А2). Три других человека, мужчина в возрасте 53 лет (пациент А3), женщина в возрасте 39 лет (пациент А4), и женщина в возрасте 52 лет (пациент А5) были в той же церкви в тот день и последовательно проявили симптомы 23 января, 30 января и 3 февраля, соответственно. Пациент А5 занимала то же сиденье в церкви, что пациенты А1 и А2 занимали раньше в этот день (заснято камерой видеонаблюдения) (5). Исследования других присутствующих не обнаружили других людей с симптомами, которые были в церкви в тот день.»

https://www.cdc.gov/mmwr/volumes/69/wr/mm6914e1.html

Тем не менее, я не видел других примеров, поэтому я остаюсь скептическим, что передача через поверхности - большая проблема. Эрин Бромаж ранее заявлял, что всплеск в Южнокорейском колл-центре произошел «примерно на 6% из-за передачи через поверхности», но затем отказался от заявления; не уверен, что здесь произошло.»)

Все больше и больше кажется, что, хоть такой путь передачи и возможен, и должен время от времени происходить, получить достаточно вируса, чтобы вызвать инфекцию, в живом виде, таким путем, очень сложно. Если вы моете руки и не трогаете лицо, это ещё сложнее.

Тем временем, те, кто отказываются прикасаться к поверхностям, вроде коробки от доставленной пиццы, оказываются в более многолюдных местах вроде магазинов, результатом чего является возрастание общего риска на порядки.

И тем не менее, несмотря на такую уверенность, чертовски сложно перестать дезинфицировать посылки. И ещё сложнее убеждать делать это письменно. Потому что что произойдет, если я не буду совершать жертвы?

К черту. До тех пор, пока я не получу очень неожиданные свидетельства, поверхности в основном не важны. Если много людей прикасаются к чему-то и затем вы прикасаетесь к этому, конечно, вымойте руки после и будьте очень осторожны, чтобы не прикасаться к лицу перед этим. В остальных случаях, перестаньте беспокоиться о поверхностях. Сохраняйте беспокойство для тех случаев, где оно нужно.

Еда в основном безопасна

Вам нужно беспокоиться о еде, потому что это то, что мы делаем социально. Это простой способ оказаться проводящим час в помещении, на близком расстоянии от других, разговаривая и иначе взаимодействуя. Это опасно.

Сама еда в большинстве своем минимально рискованна, даже если она не нагревается достаточно для того, чтобы наверняка и полностью убить вирус. Вам не обязательно портить всю вашу еду. Люди часто избегают еду, которая кажется опасной. Ещё раз, есть смысл в том, что она может быть опасной, но на практике прошли месяцы и, кажется, это так не работает. Предосторожности, которые люди предпринимают, в данном случае будут более чем достаточными, чтобы защититься от заражения еды на нужном уровне, чтобы стоить беспокойства. Я хочу сказать, конечно, не ешьте в буфете, хоть и не похоже, что они будут открыты, и даже тогда (также в основном безопасные) поверхности скорее всего страшнее, чем еда.

Как было написано в секции наверху, поверхности тоже не очень опасны. Посудомойки, обращающиеся с ресторанными тарелками как с токсичными отходами основаны не на рассчете риска, они основаны на моральных принципах в отношении чистоты.

Ваш риск исходит от официанта, или от других едящих, находящихся в этой комнате с вами какое-то время. Поэтому, еда на вынос, доставка и/или еда снаружи.

Активность снаружи относительно безопасна

Заметьте понижение с в основном до относительно. Нельзя просто делать все, что захочется, пока это происходит на свежем воздухе.

Активность снаружи выглядит как большая потеря риска по сравнению с деланием того же самого в помещении. Моя лучшая догадка, что существует примерно в 5-10 раз больше риска в помещении по сравнению с такой же активностью снаружи. Это с большой неопределенностью, но выглядит ясным на нескольких уровнях, что существует большая разница. Когда возможно, если есть вещи, которые произойдут вне вашего карантинного кармана, перенесите эти вещи наружу.

Комбинация быстрого, снаружи и не в лицо эффективно складывается в безопасное, особенно, если вы добавите маски. Во время пика эпидемии в Нью-Йорке вещи были настолько напряжёнными, что имело смысл беспокоиться насчёт миазмов (субстанция, находящаяся в воздухе - прим. перев.). Теперь, я буду прилагать лучшие усилия, чтобы сохранять дистанцию и избегать разговоров друг с другом, но в основном не буду беспокоиться насчёт случайных взаимодействий.

Я действительно ожидаю, что будет острый прирост случаев, как результат протестов и гражданских беспорядков… Не увидеть такового было бы удивительно, и это обновило бы мои данные в пользу активностей снаружи как почти полностью безопасных.

Также, мы должны тестировать офицеров полиции каждые несколько дней, когда есть протесты, и положение позволяет, и отслеживать, какие офицеры имели сколько близкого контакта во время этих протестов, и какие офицеры делали такие вещи, как ношение масок. Не важно, какие у него есть другие качества, это естественный эксперимент, который нельзя терять. И также будет важно, чтобы полиция не распространяла Ковид-19 среди протестующих или между собой, если эти события продолжатся. Если мы будем следить внимательно, мы узнаем много вещей, например, насколько важно для распространения, какие протесты были тихими в сравнении с шумными.

Организация благотворительной вечеринки, или другие активные социальные взаимодействия, для развлечения, бизнеса или справедливости, опять же, намного безопаснее, чем то же самое в помещении, но все равно этого стоит остерегаться. Формальное дистанцирование во время события поможет, но только частично. Если много людей и вы не можете дистанцироваться, или люди много говорят друг с другом без большой дистанции, или много кричат или поют, я бы стал беспокоиться.

Маски эффективны, и даже сделанных из ткани почти достаточно

Хирургические лучше, и N95 ещё лучше, но даже сделанные из обыкновенной ткани маски на обоих концах взаимодействия почти наверняка достаточны для уменьшения риска на 25% и, наверное, 50-75%. Нам нужно уменьшить риск в среднем на 75%, чтобы победить, так что маски сами по себе близки к тому, чтобы быть достаточно хорошими.

Это одна из причин, по которой я оптимистичен насчет того, что мы справимся. Политика насчёт масок в беспорядке, из-за того, как это было провалено, но я ожидаю, что со временем все постепенно уладится. Требования масок также хороший способ понять, какие места принимают разумные предосторожности другими способами.

Шесть футов - это случайное число, люди не относятся к нему так, и это ужасно

Правило шести футов намного, намного лучше, чем ничего. Его легко запомнить и выполнять. Если вам нужно выбрать булевское «ровно на таком расстоянии» правило, на расстоянии шести футов звучит примерно правильно. Оно уравновешивает «риск уменьшается в соответствии с правилом, которое, похоже, закон обратных квадратов» и «в какой-то момент люди не будут подчиняться правилу». И да, может быть, люди не готовы справиться с чем-либо кроме булевского переключателя риска.

Но тогда люди полностью сходят с ума и думают, что правило шести футов реально.

Под людьми здесь я подразумеваю практически всех. Даже когда это важно.

Байден и Сандерс дискутировали с платформами на расстоянии ровно шесть футов. Очереди находятся на расстоянии шести футов. Лас Вегас пометил места для сна на парковках на расстоянии шести футов. Рестораны должны держать людей на расстоянии шести футов. Постоянно, люди прилагают лучшие усилия, чтобы быть на расстоянии шести футов, как будто они играют в игру Правильная Дистанция и пытаются получить настолько близкий результат, насколько возможно, но не ближе. Иногда с мерной лентой.

Если вы думаете, что это подмена тезиса, и Все Знают (на английском), что это правило просто эмпирическая закономерность, я уверяю вас, вы неправы. Создаётся парадигма магического безопасно-vs-небезопасно бинарного мышления. Калечится наша возможность думать о физическом мире.

Коллективный иммунитет появляется сильно до 75% заразившихся, и частичный коллективный иммунитет очень важен

Смотрите О R0 (на английском) для деталей. Здесь - краткий пересказ.

Уровень контакта с другими очень высоко коррелирует с уровнем опасности заражения других.

Разные люди получают и создают на порядки разные риски инфицирования.

Те, которые получают больше риска, с пропорционально большей вероятностью заразятся.

Поэтому, было бы шокирующе, если бы 50% уровень иммунитета через случайные инфекции не сократил будущий риск на 75% или более, чего достаточно для коллективного иммунитета в большинстве случаев. Если на то пошло, скорее всего, он ближе к 25% в большинстве случаев.

Даже если вы не вполне до туда доберётесь, такие эффекты складываются с нашими усилиями в других местах. Поэтому если мы в целом близки к критической точке, что, кажется, так, даже немного иммунитета будет иметь большое значение - первые 5% инфицированных сократят будущий риск сильно больше чем на 10%.

Это - самая важная причина, по которой Нью-Йорк и Северо-Восток так хорошо справляются. Нашим линиям поведения нужно это дополнительное усиление, чтобы перейти за финишную черту.

Это не значит, что мы должны использовать «стратегию коллективного иммунитета», но это значит, что все, кто пытаются нас испугать тем, что «нам нужно 75% заразившихся» либо неправы, либо нагнетающие страх лжецы.

Да, мы знаем, что у переболевших людей есть иммунитет

Все, кто говорят, что мы этого не знаем, делают это, чтобы напугать людей, или не знают, как на самом деле работает знание. Обычно и то, и другое.

Правда, что мы не знаем, сколько иммунитет длится, и он может закончиться относительно быстро (например, через год). Но любой, например, ВОЗ, кто заявляет, что он эксперт, и говорит, что мы этого не знаем? Должен быть разрушен.

Наше отсутствие экспериментов все ещё полностью безумно

Я даже не вижу необходимости объяснять, на данный момент, почему проведение экспериментов на добровольцах является моральным императивом, и все, стоящие на его пути, заслуживают медленной и мучительной смерти. Это все.

Мы должны тратить намного больше на вакцины, тестирование и другие медицинские решения

В дополнение к тому, что это правильно делать, чтобы спасти жизни, если вы посмотрите на фондовый рынок, это будет очевидно правильно сделать, только чтобы собрать налог на прирост капитала и использовать, чтобы оплатить дополнительные расходы. Снова, мы полностью дисфункциональны, и повторяем ритуалы вроде «отдать несколько триллионов долларов, чтобы помочь экономике», не делая того, что на самом деле физически поможет, и беспокоимся насчёт «пустой траты денег», или «переплаты» и других концепций, которые сейчас совсем не имеют значения.

Мы не можем даже, в юридическом смысле, не мешать тем, кто действительно что-то делает.

Если бы нам было не все равно, у нас была бы вакцина за несколько месяцев. Нам все равно, поэтому ее у нас не будет.

R0 (базовый индекс репродукции) в условиях карантина в американском стиле по умолчанию ниже одного, чего Нью-Йорк избежал через частичный коллективный иммунитет

Это не совпадение, потому что ничто никогда не совпадение (на английском).

Когда что-либо оказывается почти точно на единственной точке перегиба, в данном случае R0 равном единице, при котором количество случаев не увеличивается и не уменьшается, правильная реакция - это подозрение.

В данном случае, объяснение заключается в том, что действует система контроля. Люди обращают внимание на то, когда все «становится лучше» или «становится хуже» и регулируют поведение, и требуемые официально действия, и добровольные действия.

Когда все «становится хуже», мы предпринимаем «действия» путем запрещения и принудительной остановки действий, и приватно предпринимаем смесь случайных и более осмысленных предосторожностей, до тех пор, пока мы не имеем все правдоподобно под контролем и число случаев сокращается. Что-либо большее люди не поддержат.

Когда все «становится лучше», существует растущее давление расслабиться, «открыться», несмотря на текущие уровни, до тех пор, пока вновь не будет достигнуто равновесие.

Нью-Йорк вырвался из этого равновесия, по крайней мере до Дня Памяти (25 мая в 2020 году - прим. перев.), в результате комбинации коллективного иммунитета и воспоминаний о том, как было плохо. Некоторое время R0 там был около 0.73. Посмотрим, может ли это сохраняться.

Уровень смертности от инфекции по умолчанию (IFR) - 0.5%-1%, в зависимости от условий

Многие вещи имеют значение.

Возраст и сопутствующие заболевания (на английском) оказывают огромный эффект.

Начальная вирусная нагрузка (на английском), наверное, имеет значение. Маленькие риски ещё менее рискованы, чем кажется, особенно если вы не подвергнете опасности других, тех, кто в зоне риска.

Витамин Д имеет значение. Потенциально большое. Но, скорее всего, его нужно принимать до того, как вы заразитесь, нельзя подождать и затем принять макро- дозу, он не сработает тем же способом. Принятие добавок - хорошая идея для практически каждого до тех пор, пока это не закончится, особенно если у вас может быть недостаток витамина. Вы все время находитесь в помещении, это проблема, исправьте ее таблеткой.

Цинк, скорее всего, имеет значение, когда вы уже заразились.

Медицинская помощь имеет значение. Полный упадок медицинской помощи на практике ведёт к умножению уровня смертности в несколько раз, при обычных обстоятельствах. Высококачественное лечение при текущем уровне знаний, наверное, может ещё снизить смертность, так что соотношение между полным успехом и полным упадком может быть довольно большим - нечто вроде разницы на порядок между 0.2% и 2%.

В данный момент у меня нет сильного мнения насчёт конкретной медицинской помощи, кроме описанного.

Я использовал смертность в 1% в моих проекциях и расчетах, чтобы быть консервативным, особенно в случае с Нью-Йорком. Больницы в Нью-Йорке были по меньшей мере немного переполнены в период пика. Скорее всего, в других случаях существует тенденция уровня смертности быть ниже 1%, но это не ясно. Америка в целом могла бы иметь уровень смертности 1.2%, не лишая данных смысла. Кроме того, многое сбивает с толку, и другие данные должны быть во все большей степени неверны. Данные из Нью-Йорка перестают иметь смысл ниже примерно 0.6% уровня смертности, а в других местах он может быть гораздо ниже.

Обычно в Америке 33% смертей и 90% инфекций не замечаются

Эти два числа идут нога в ногу, конечно, если выбрать уровень смертности, которому вы верите, и смоделировать, как задерживаются смерти и как задерживаются инфекции.

Те, кто заявляют, что статистика преувеличена, преуменьшают текущее положение дел. Большинство тех, кто просто не верит в существенное преуменьшение статистики, просто доверяет официальным числам, не думая о том, чтобы скорректировать их, или думают, что, не зная, как правильно корректировать, этого делать не нужно, даже если известно направление и можно догадаться о порядке.

Люди не сильно изменяют поведение в ответ на открытия, если есть выбор. Поэтому, школы будут большой проблемой

Потому что последняя часть первого утверждения важна. Если есть выбор.

Школа - это тюрьма (на английском). Тюрьмы не отпускают заключённых просто потому, что они не хотят там быть.

Хорошие новости в том, что, в то время как у нас не было достаточно сострадания или здравого смысла, чтобы отпустить наших (в большинстве своем совершенно ненужных) заключенных, мы, по меньшей мере, закрыли школы. Но люди недовольны этим и пытались с этим бороться.

Даже в условиях карантина, многие ученики, которых я знаю, погребены под горами «домашних заданий» и вынуждены «присутствовать» на «уроках», которые занимают у них целый день и приводят к чрезмерному напряжению глаз, чтобы воссоздать тюремную атмосферу, пока мы ждём, пока откроются настоящие тюрьмы. Даже сейчас, школы угрожают ученикам разрушением жизни, если они не будут проводить большую часть времени, сигналя свое согласие со случайной властью.

Когда школы снова откроются, они не будут опциональными. Дети будут вынуждены, под стволом пистолета, вернуться в свои клетки. Поэтому решения об этом имеют большое значение.

Также, идея, что «шесть футов равно безопасности» сочетается с открытием школ и создаёт будущую катастрофу, потому что если вы находитесь в ограниченном пространстве весь день, шесть футов вас точно не спасут. Разделить класс на два означает, что утренний класс заражает учителя, который заражает дневной класс, и так далее. Магическое мышление заменило мышление о мире, и мы за это дорого заплатим.

Бедные люди, которые вынуждены вернуться на работу по финансовым причинам уже являются проблемой во многих местах, и с концом продлённой безработицы и с открытием, все будет намного хуже. Но бизнесы в основном будут вести себя в основном ответственно по другим причинам, даже тогда, поэтому я думаю, что в основном будет не так плохо.

Но просто сказать «открытие» много не сделает

Где находится всплеск в местах вроде Джорджии и Техаса?

Там не было всплеска, потому что действия, которые люди продолжили делать в результате «открытия», не были важны. Места, которые открылись, казались безумными для открытия, вроде тату-салонов и спортивных залов, но они не получают много активности, не переполнены и предпринимают предосторожности.

Что опасно? Снова, социальные взаимодействия, и события-суперраспространители. События-суперраспространители все ещё не разрешены. Социальные взаимодействия в основном - частные решения, которые не могут быть остановлены с нашим текущим уровнем желания принуждать к выполнению закона, даже до потери социального порядка. Наша способность принуждать к выполнению закона не увеличится в ближайшее время.

Люди решают, в какой мере будет существовать карантин. Сообщение «вы не в безопасности» - ключевая часть карантинного сообщения. Люди услышали его, и то, что они услышат дальше, не сильно изменит их восприятие безопасности. Они скажут «плевать» и будут делать вещи все равно, в основном по тому же графику, несмотря на решения правительства. Эта война будет идти в другом месте, если только и до тех пор, пока не придет серьезная вторая волна, и, похоже, даже тогда.

Прямо сейчас, люди говорят «не так сильно, как раньше», даже до того, как проявились эффекты демонстраций и потери общественного порядка. Посмотрим, что произойдет, но системы контроля определенно на месте. Я уже скорректировал своей способ проведения, основываясь на ожидании, что в июне все будет хуже, чем я раньше ожидал. Это не будет иметь большого значения, потому что я буду мало рисковать в любом случае, но это показательно для остальных.

Опять же, проблема в том, что когда люди должны открыться, по причинам государственного мандата, или экономической нужды, или других обязательств, появляется опасность. Другие обязательства реальны. Из игнорирование не заставит их исчезнуть, или перестать иметь эффекты.

Вне наших сил

Было окно, когда люди у власти могли действовать, и эти действия имели бы большое значение. То есть, они могли бы действовать, если бы обладали возможностью действовать. Которой они не обладали. Поэтому они не действовали, вместо этого пытаясь избежать обвинений неделю за неделей в надежде, что все какие-нибудь обойдется. И все практически обошлось, в некоторых важных отношениях, и все ещё могло бы практически обойтись в целом.

Но тот небольшой политический капитал и воля, которые были или могли быть, теперь давно потеряны. Даже до протестов, перед лицом экономической боли, было мало возможности стоять на пути открытия. Либо мы сделаем это по-умному, чего мы не можем сделать, либо мы сделаем это по-глупому и будем надеяться, что отдельные личности и частные корпорации найдут способы сделать это умным, и/или что глупое окажется достаточно хорошими. А они могут сделать все умнее! И все может оказаться достаточно хорошим!

Может быть. Мы надеемся. Но ясно, что мы не сделаем тех вещей, которые сработали в других местах. Также мы не можем продолжать наше глупое закрытие. Все закончилось.

Что нам делать дальше? Я думаю, это ещё неопределено. В большой мере это сводится к физической ситуации. Если окажется, что глупая стратегия работает, то она работает. Мы все равно можем медленно увеличивать тестирование и другие усилия, иммунитет может медленно увеличиваться, и мы надеемся, что мы сможем поддерживать достаточно модификаций, чтобы победить вирус. Или, может быть, будет намного больше заболевших и смертей, до тех пор, пока коллективный иммунитет не победит вирус самостоятельно.

Есть вещи и хуже. Оставаться в карантине на ещё один год, например, потому что мы не примем плохой вариант, было бы намного хуже. Робин Хансон широко говорит о том, как мы должны подготовить план Б, чтобы сделать чистое смягчение. И, конечно, он прав, если нужно сделать это или то, что мы делаем. Тем не менее, это странный выбор. Потому что если бы мы могли сделать вещи, которые он предлагает, мы могли бы также сделать первые лучшие решения, и мы не были бы вынуждены следовать его предложениям.

Обновления предсказаний (на английском)

Паттерн в том, что проценты в утверждениях являются изначальным предсказаниями Скотта Александера. Когда я говорю, что я покупал, продавал или удерживал без изменений, я делал это в посте по ссылке. (При предсказании об Х торгуются фишки, выплата по которым происходит, если Х наступит - соответственно, если оценка Зви была ниже оценки рынка, фишки имело смысл продавать, иначе - покупать - прим. перев.)

  1. Карантин в области залива Сан-Франциско (например, рестораны закрыты) будет продлена дольше 15 июня: 60%

Я продал с вероятностью 40%. Я почти наверняка проиграю, за исключением случая, если я чего-то не знаю. Я не знаю, что они думают локально, но, учитывая последние события, я думаю, не будет каких-либо отмен ограничений в ближайшее время. Учитывая, как много мест отменяли похожие ограничения, и как мало было инфекции в области залива Сан-Франциско, я бы и сейчас сказал, что могло быть и так, и так, учитывая, что мы знали в то время. Но, учитывая, как медленно всё движется, я был слишком агрессивен.

  1. …до Дня Выборов: 10%

Я удержал без изменений. Я все ещё думаю, что это правильно.

  1. Меньше, чем 100,000 смертей от коронавируса в США: 10%

Я продал много, и все закончилось. Сейчас это 0%.

  1. Меньше, чем 300,000 смертей от коронавируса в США: 50%

Я продал с вероятностью в 30%. Большую часть мая я терял в рыночной цене, поскольку новости в целом были очень хорошими. Будет период, когда скользящая средняя не даст нам 300,000. Но последние новости изменяются, мы видим всплески, и никакого желания с этим что-то делать, и не большой запас до 300,000, даже если системы контроля вызовут регуляции. Я бы сказал, что все так же, как и раньше. Я думаю, что наш основной сценарий теперь около 500,000, конечно, с огромным панелями погрешностей.

  1. Меньше, чем 3 миллиона смертей от коронавируса в США: 90%

Я удержал без изменений. Опять же, мы видели очень хорошие новости вначале, так что, чтобы получить 3 миллиона теперь, нужно, чтобы быстро произошёл коллапс всей системы. Это определенно все ещё возможно, но, я думаю, теперь существует скорее 95% вероятность избежать этого, чем 90%.

  1. У США будет самый большой официальный список погибших: 80%

Я купил с вероятностью 90%. Кажется, логика сохраняется, у остальных потенциальных кандидатов все хорошо, так что теперь я бы купил немного выше.

  1. У США будет самый большой список погибших, составленный экспертами с учётом реальных чисел: 70%

Я купил с вероятностью 80%. Учитывая, что Китай продолжает держать все под контролем, и 10% разница приходила из Китая, оценка должна быть ближе к ответу на #6, чем месяц назад. Наверное, теперь купил бы с вероятностью около 85%.

  1. Нью-Йорк будет широко считаться самым пострадавшим городом в США: 90%

Я купил с вероятностью 95%. Существует ли мир, в котором это станет Миннеаполисом? Я думаю, нет, хотя попытки оформить это так могут быть возможны. В Нью-Йорке все действительно плохо, а общества, которые могли бы разрушиться в Миннеаполисе, не такая уж большая часть города по популяции. Может быть, Лос Анжелес? Я не вижу этого. Мне всё ещё нравится уровень 95%, несмотря на улучшение в Нью-Йорке, потому что прошло время.

  1. В Китае количество (официальных) случаев изменится с текущих 82,000 до 100,000 к концу года: 70%

Я продал с вероятностью 40%. Я бы продал немного ниже сейчас, опять же, потому что время прошло, а движения нет, а время идёт.

  1. Вакцина от коронавируса была одобрена для широкого использования и дана как минимум 10,000 людям где-нибудь в Первом мире: 50%

Я продал с вероятностью 40%. Из того, что я видел, новости были хорошими, и я больше не хотел бы продавать ниже 50%. Несмотря на то, что мы полностью не способны сделать то, что сделала бы нормальная цивилизация, мы добились прогресса.

  1. Лучший научный консенсус будет в том, что гидроксихлорохин был значительно эффективен: 20%

Я продал с вероятностью 15%, учитывая, что исследования останавливают, собьём до 10%.

  1. Я (Скотт Александер) лично заражусь коронавирусом (оценивается моей лучшей догадкой, был ли он; позитивный тест не нужен): 30%

Я продал с вероятностью 20% «по меньшей мере», и это «по меньшей мере» имело большой смысл. Как и сейчас. Не продавать это с вероятностью 10% или ниже теперь кажется неправильным.

  1. Кто-то из моих близких (сосед или близкий член семьи) заразится коронавирусом: 60%

Я продал с вероятностью 40%, время идёт и я бы продавал дальше.

  1. Общий консенсус будет в том, что мы (США в апреле 2020) слишком сильно реагировали: 50%

  2. Общий консенсус будет в том, что мы (США в апреле 2020) недостаточно сильно реагировали: 20%

Я продал 50% с вероятностью 30% и удержал 20%. Если на то пошло, кажется, что консенсус сейчас ещё менее вероятен, чем 50%, которые оставались для него раньше. Консенсуса не будет. Будет «консенсус», который любят провозглашать СМИ, но он не будет настоящим.

  1. Общий консенсус будет в том, что лето сделало коронавирус значительно менее опасным: 70%

Я удержал, потому что это предсказание так неопределённо, оно не настолько утверждение числа, насколько желание держаться в стороне от двусмысленного рынка. В любом случае, мы определенно узнаем!

  1. …и будет катастрофическая (50,000+ смертей в США, или больше крупных карантинов, после как минимум месяца без этих вещей) вторая волна осенью: 30%

Я продал с вероятностью 20%, основываясь на том, что это ставка многих вещей. Будет ли июнь считаться, если текущие тренды продолжатся? Есть шансы, что мы уложимся в меньше 50,000 смертей, у нас было 40,000 в мае, и они все ещё снижаются. Ко времени, когда скачок из-за открытия будет достаточно значителен для смертей, будет поздний июнь или июль, так что скорее всего мы побьём 50,000 в июне в официальных числах. А если восстановление начнется в июле или августе, считается ли это? В любом случае, шансы явно поднялись по любому разумному определению. Теперь я бы не стал продавать.

  1. Я (Скотт) лично вернусь к работе не из дома: 90%

Я продал с вероятностью 80%. Все ещё кажется разумным - опять же, события вроде бы уравновесили друг друга.

  1. По крайней мере половина штатов отправит каждому голосующему бюллетень по почте на выборы президента 2020: 20%

Я продал с вероятностью около 15%. Я не слежу за деталями, но, я думаю, шансы немного повысились, но не сильно.

  1. PredictIt будет не уверен (меньше, чем на 95% уверен), кто победил на выборах президента больше, чем 24 часа после Дня Выборов. 20%

Это больше относится к политике, чем к Ковиду-19, и я не думаю, что ответ сильно изменился.

Поддерживайте исследования долголетия

Я закончу на замечании, к которому все планирую подойти. А именно, если мы так, черт возьми, сильно заботимся о Ковиде-19, существует слон в комнате.

Планетарный уровень смертности стабильно остаётся на 100%. Есть сила, которая убивает всех. Она убивает в основном пожилых, и риск неуклонно увеличивается с возрастом. Даже до того, как она убьет вас, она окажет различные, только частично известные и разрушительные эффекты на ваше тело, разум и качество жизни.

Эта сила, конечно, старение.

Если мы думаем, что смерти от Ковида-19 плохи, что ж, они похожи на смерти от «естественных причин». И все же, они считаются хорошими, и правильными, и надлежащими, а не ужасом, которым они являются. Мы все умрём. Когда кто-нибудь предлагает идею, что это могло бы быть остановлено, или что это плохо, мы получаем статьи об экологических ужасах перенаселения или психологических пытках слишком длинной жизни.

И это полная бессмыслица.

Можем ли мы существенно отложить или даже предотвратить старение путем научных исследований? Мы не знаем. Мы не прилагаем усилий. Моя догадка - да, мы абсолютно можем улучшить нашу продолжительность жизни и замедлить негативные эффекты старения. Возможно, мы можем остановить их по большей части или полностью, если уделим этому достаточно времени. Здесь много низко висящих плодов, которые не срывают, потому что мы не думаем, что было бы хорошо их сорвать. Можно исправлять ситуацию хуже, чем базовый уровень «все умирают», но не исправить этот базовый уровень.

Мы не отличаемся от команды Энтерпрайз D, которая оплакивает отдельные смерти и прикладывает огромные усилия, чтобы найти лекарства и охранять невинных, и при этом постоянно находит способы радикально отложить или предотвратить человеческое старение, и никто не утверждается на них указать. Например, о, посмотрите, это примитивное общество нашло лекарство от старения, которое они используют, чтобы жить дольше, чтобы добиваться мести, и, может быть, намек в том, что они излечили старение, и нам стоит этим заняться?

Нет. Это не мораль истории на этой неделе.

Неудивительно, что все хорошее должно кончаться.

Оцените качество перевода: 
Средняя оценка: 2.3 (12 votes)

Нужно серьёзно относиться к начальной вирусной нагрузке

Зви Моушовиц
Перевод: 
Анастасия Бесман
Оцените качество перевода: 
Средняя оценка: 5 (2 votes)

Пост Роба Бенсинджера о Ковиде-19

Роб Бенсинджер

Дисклеймер: я составил этот документ в свое свободное время, чтобы собрать советы и базовую информацию, которую я видел в различных источниках. Я не врач и не эпидемиолог. Записывая это, я ставил в приоритет широту, ясность/удобство использования, и быстрое записывание информации. Я не тратил много времени на проверку каждого заявления (несмотря на это, я планирую продолжать исправлять ошибки, на которые мне указывают), и я ожидаю, что часть информации ниже впоследствии окажется неверной.

Я опубликовал оригинальную версию этого документа на Фейсбуке (на английском) 15 марта. Секции 2 и 3 были обновлены 28 марта (и перепощены на LessWrong (на английском)), и вновь 26-27 апреля и 2 июня.

Добавлено 4 июня: я резюмировал все изменения к частям 2-3 здесь (на английском).

Если вы живёте в США, я рекомендую вам уйти на карантин немедленно (в той мере, в которой это для вас возможно), чтобы избежать риска Ковида-19, нового коронавируса. Я объясню, почему, ниже, затем дам советы, как уменьшить риск и что делать, если вы заболели.

Карантин - это не все или ничего, и каждая маленькая часть помогает. Даже если вы ожидаете, что заболеете Ковидом-19, вы, вероятно, заболеете сильнее, если сначала получите большую вирусную нагрузку.

(Пол Бом говорит (на английском), что «практически каждое исследование дозы вируса/бактерии показывает этот результат». Дивиа Эден: «Насколько я понимаю, репликация вируса - экспоненциальный процесс, и производство антител - тоже экспоненциальный процесс. Поэтому ранняя разница в нагрузке должна помочь последнему опередить первую.»)

Поэтому даже если прямо сейчас вы не можете (например) работать из дома, я бы все равно рекомендовал принимать серьезные меры, чтобы уменьшить экспозицию.

1. Почему я считаю, что вам нужно уйти на карантин:

1A. Ковид-19 часто требует больничного ухода.

(Обновил эту секцию 30 марта).

Сара Константин говорит (на английском): «Корейские власти говорят, что только около 10% пациентов с коронавирусом были имели достаточно тяжелые случаи, чтобы нуждаться в госпитализации. В Китае 19% подтвержденных случаев были «тяжёлыми» или «критическими», но это число, вероятно, выше, чем настоящее, в результате ограниченного доступа к диагностическим наборам и случаям с лёгкой формой Ковида-19, которые остались неизвестными.»

Как ни удивительно, отчёты показывают, что ~55% госпитализаций с Ковидом-19 в Китае - это люди до 50 https://twitter.com/ScottGottliebMD/status/1233940433081896960 (на английском) и более 50% французских случаев были людьми до 60 https://news.yahoo.com/france-close-shops-restaurants-fight-192035693.html (на английском). 38% госпитализированных случаев в США были в возрасте 20-54 https://www.nytimes.com/2020/03/18/health/coronavirus-young-people.html (на английском). Основываясь на быстром поиске в Гугле, 70% китайцев в возрасте до 50, 74% французов в возрасте до 60, и 47% американцев в возрасте 19-54.

Команда Имперского Колледжа по Ответу на Ковид-19 пытается предсказать тяжесть случая (на английском) в США и Великобритании по возрасту:

Статья предполагает, «что две трети случаев имеют достаточные симптомы, чтобы изолироваться (если это требуется политикой) в течение суток после появления симптомов», что может означать, что они относятся к «случаям с симптомами» как к двум третям всех случаев - я не был уверен, поскольку «недостаточно симптомов» не то же самое, что «без симптомов». В Великобритании, предсказывают, что «4.4% инфекций [с симптомами?] [будут требовать] госпитализации». (Больше обсуждения частоты бессимптомных случаев. (на английском))

(Добавлено 10 мая: Несмотря на то, что в США количество смертей на количество случаев кажется похожим на количество смертей в других странах, таких как Китай и Италия (что приводит к переполненности больниц в случае Италии - 1, 2, 3, 4 (все на английском)), количество госпитализаций на случай в США кажется намного меньшим, чем в тех странах. Я удалил секцию «Случаи Ковида-19, вероятно, совершат острый скачок в следующую неделю или две, перегружая медицинскую систему США.»)

1B. Многие вылечившиеся от Ковида-19 могут подвергнуться долгосрочным нарушениям.

Обсуждение здесь. (на английском) Джим Бабкок замечает: «Острый респираторный дистресс-синдром (ОРДС) появляется у примерно 20% пациентов, болеющих достаточно тяжело, чтобы быть госпитализированными,» и отмечает высокую смертность и повреждения в пятилетнем исследовании не болеющих Ковидом-19 пациентов с ОРДС.

Из Business Insider (на английском) (смотрите также Утренний Пост из Южного Китая (на английском)):

[…П]осле изучения первой волны пациентов, которых выписали из больницы и которые полностью выздоровели от Ковида-19[, Гонконгская Больничная Власть выяснила, что и]з 12 человек в группе, двое или трое увидели изменения в объеме лёгких.

«Они задыхаются, если пойдут немного быстрее,» - сказал пресс-конференции медицинский директор Центра Инфекционных Заболеваний власти Овен Тсанг Так-ин в четверг, согласно Утреннему Посту из Южного Китая.

«Некоторые пациенты могут иметь уменьшение от 20 до 30% в функциональности легких» после полного выздоровления, сказал он.

Тсанг добавил, однако, что пациенты могут делать упражнения для сердечно-сосудистой системы, например, плавание, чтобы со временем улучшить объем лёгких.

Несмотря на то, что ещё прошло слишком мало времени, чтобы установить долгосрочные эффекты заболевания, сканы лёгких девяти пациентов также «нашли паттерны, похожие на матовое стекло у них всех, что значит, что у них были повреждения органов,» сказал Тсанг, согласно посту.

Вскрытие умерших пациентов с Ковидом-19 обнаружило фиброз лёгких (на английском). Умершие пациенты, очевидно, не могут представлять всю популяцию, но это особенно беспокоит, потому что фиброз лёгких не излечивается.

Оценить риск здесь очень сложно, потому что мы, очевидно, не можем наблюдать долгосрочные эффекты Ковида-19 сегодня. Дополнительно тревожно, что пережившие ТОРС (тяжёлый острый респираторный синдром - прим. перев.) (который был вызван близко родственным штаммом коронавируса) имеют множество хронических заболеваний: Джим Бабок замечает,

Из 208 канадцев, переживших ТОРС, 22 (10%) появляются в этом исследовании (на английском) тех, «кто остался неспособным вернуться к предыдущиму роду занятий» с «клиническими сходствами с синдромом фибромиалгии». Это подразумевает высокую нижнюю границу на степени нетрудоспособности среди переживших ТОРС.

Рейтер (на английском) отмечает, что через год после выздоровления, «сорок процентов [переживших ТОРС] сообщали о какой-то степени хронической усталости, и 27 процентов попали под критерии диагностики синдрома хронической усталости».

Добавлено 28 марта: дополнительная дискуссия на сайте Сары Константин (на английском).

1C. У Ковида-19 высокий уровень смертности, особенно для пожилых или людей с другими заболеваниями.

Уровень смертности сложно оценивать, по нескольким причинам:

  • Если чей-то случай тяжёлый, у них большая вероятность взаимодействовать с медицинской системой и получить тестирование. Поэтому болезнь может казаться более тяжёлой, чем на самом деле.

  • Ковид-19 часто убивает медленно, поэтому, когда появляется большое увеличение числа случаев, счётчик смертей начнет отставать от счётчика заболевших, и заставит болезнь выглядеть менее смертельной, чем на самом деле. Из Всемирной Организации Здравоохранения (на английском): «Среди пациентов, которые умерли, время от появления симптомов до конца бывает 2-8 недель.»

Riou и другие (на английском) пытается скомпенсировать эти факторы, и оценивает общую фатальность в 1.6% в Хубэй в январе и раннем феврале. Как указано выше, компенсация группы Имперского Колледжа (на английском) считает уровень смертности 0.9% для Великобритании и США.

1D. Если вы можете уйти на карантин на несколько месяцев, пока не закончился пик, у вас будет меньше вероятность подхватить заболевание.

… а если вы всё-таки подхватите его, у вас будет гораздо большая вероятность получить медицинский уход (или вообще какой-либо уход).

(Добавлено 26 апреля: Теперь, когда большая часть США укрывается, я записал некоторые быстрые мысли насчёт конца игры Ковида-19 (на английском).)

2. Способы уменьшить риск сейчас:

2A. Избегайте людей, особенно в помещениях.

Центры по контролю и профилактике заболеваний считают (на английском), что Ковид-19 в основном передается от человека к человеку, «через респираторные капли, появляющиеся, когда заражённый человек кашляет или чихает. Эти капли могут попасть на рты или носы находящихся рядом людей, или, возможно, их вдохнут в лёгкие.»

Ковид-19 имеет длинный период инкубации и высокую скорость передачи, включая серьезную бессимптомную передачу (на английском). Это означает, что разговоры (на английском) тоже, наверное, частый способ - вы удивитесь, сколько слюны вылетает, когда люди разговаривают.

(Добавлено 26 апреля: Свидетельства того, что разговоры - важный способ, продолжают накапливаться (на английском). События-суперраспростронители Ковида-19 в основном включали большие группы людей, которые разговаривали, пели или кричали в помещении.

Из Скотта Готтлиба (на английском): » Исследование 318 вспышек в Китае нашли передачу, произошедшую снаружи только в одной, включающую только 2 случая. Большая часть происходила дома или в общественном транспорте. Поднимает ключевую возможность для штатов перенести больше сервисов наружу (религиозные, занятия в спортзале, рестораны и так далее).
https://www.medrxiv.org/content/10.1101/2020.04.04.20053058v1”)

Поэтому моей главной рекомендацией будет избегать находиться рядом с другими людьми (если только вы не вместе ушли на карантин), особенно в толпах или помещениях.

Добавлено 8 мая: Я рекомендую прочесть «Риски - знайте их - избегайте их» (на английском) иммунолога Эрина Бромажа полностью. Некоторые ключевые заявления:

  • Чтобы заразиться, вам правдоподобно нужно подвергнуться воздействию ~1000+ вирусных частиц SARS-CoV2 (источник (на английском)) - либо всем сразу, либо в течении минут или часов. Чем больше присутствует вирусных частиц, и чем больше времени вы проводите под их воздействием, тем больше ваш риск инфекции.

  • [К]апли в одном кашле или чихании могут содержать 200,000,000 вирусных частиц.» Один кашель выпускает ~3000 (в основном больших) капель, путешествующих со скоростью 50 миль в час (~80 км/ч - прим. перев.) (источник (на английском)). Одно чихание выпускает ~30,000 (в основном маленьких) капель, путешествующих со скоростью 200 миль в час (~322 км/ч - прим. перев.) (источник (на английском)). Более маленькие частицы зависают в воздухе дольше. Если кто-то чихнет или кашлянет, «даже если этот кашель или чихание не было направлено на вас, некоторые заражённые капли - мельчайшие из мелких - могут находиться в воздухе несколько минут, наполняя каждый угол комнаты скромных размеров заразными вирусными частицами. Все, что вам нужно сделать, это войти в эту комнату в течение нескольких минут после кашля/чихания и сделать несколько вдохов, и вы потенциально получили достаточно вируса, чтобы заразиться.

  • По контрасту, «один выдох выпускает 50 - 5000 капель», большая часть которых быстро падают на землю; дыхание через нос выпускает ещё меньше капель (источник (на английском)). «У нас пока нет числа для SARS-CoV2, но мы […] знаем, что человек, заражённый гриппом, выпускает примерно 3-20 вирусных РНК в минуту дыхания» (источник (на английском)). Это предполагает, что если ваш единственный контакт с заболевшим человеком, когда они, не говоря, дышат на другом конце комнаты, вероятно, у них займет час или больше, чтобы заразить вас.

  • Разговоры выпускают «~200 копий вируса в минуту. Снова, [пессимистически] предполагая, что каждый вирус вдыхается, потребуется ~5 минут разговора лицом к лицу, чтобы получить необходимую дозу» (источник (на английском)).

  • Смывание туалета аэрозолизирует капли (которые могут содержать жизнеспособный вирус), поэтому используйте общественные туалеты с особенной осторожностью (поверхности и воздух)» (источник (на английском)).

  • »[П]ожалуйста, не забывайте о поверхностях. Эти заразные респираторные капли где-то приземляются. Мойте руки часто и перестаньте трогать лицо!»

  • «Мы знаем, что по меньшей мере 44% всех инфекций - и большинство внебольничных передач - происходят от людей без каких-либо симптомов (бессимптомных или пресимптомных людей) (источник). Вы можете распространять вирус вплоть до 5 дней до того, как начнутся симптомы. […] Вирусная нагрузка в общем возрастает до того момента, когда у человека появляются симптомы. Поэтому как раз до появления симптомов, вы выпускаете больше всего вируса.»

  • «Самые распространенные источники инфекции - дом, место работы, общественный транспорт, социальные собрания, и рестораны. Они отвечают за 90% всех случаев передач. По контрасту, распространение вспышек в результате совершения покупок кажутся ответственными за маленький процент отслеженных инфекций.» (источник (на английском)). «Самые большие вспышки происходят в [домах престарелых,] тюрьмах, религиозных церемониях, и рабочих местах, таких, как предприятия мясной промышленности и колл-центры.» Кажется, вспышки происходят диспропорционально часто в более холодных помещениях, и на более крупных и более социальных собраниях вроде свадеб, похорон, дней рождения и мероприятий по налаживанию контактов.

  • Пространства внутри помещений, с ограниченной циркуляцией воздуха или рециркулированным воздухом и множеством людей опасны с точки зрения передачи вируса. Мы знаем, что 60 людей в комнате размером с волейбольную площадку (18x9 м - прим. перев.) (хор) приводит к множеству заболеваний. Та же ситуация с рестораном и колл-центром. Социальное дистанцирование не работает внутри помещений, где вы проводите много времени, так как люди на противоположных концах комнаты были заражены.

«Принцип заключается в вирусной экспозиции на протяженных периодах времени. Во всех этих случаях, люди подверглись воздействию вируса в воздухе в течение длительного периода (часов). Даже если они были на расстоянии 50 футов (примерно 15 метров - прим. перев.) (хор или колл-центр), даже низкая доля вируса в воздухе, которая достигала их, была достаточна, чтобы вызвать инфекцию, и, в некоторых случаях, смерть.

«Правила социального дистанцирования на самом деле существуют для того, чтобы защитить вас от коротких экспозиций или экспозиций снаружи. В таких ситуациях не хватает времени, чтобы достичь заразной вирусной нагрузки, когда вы стоите на шесть футов (примерно 1,8 метра - прим. перев.) друг от друга, или где ветер и бесконечное пространство снаружи для разбавления вируса уменьшает вирусную нагрузку. Эффекты солнечного света, тепла, и влажности на выживание вируса, все служат минимизации риска для всех, когда вы снаружи.»

Вам особенно не стоит беспокоиться насчёт «[коротких визитов в] продуктовые магазины, поездки на велосипедах, неосмотрительных бегунах, которые не носят маски». «[Д]ля тех, кто покупает товары: в низко-плотном, с высоким объемом воздуха магазине, вместе с ограниченным временем, которое вы проводите в магазине, возможность получить заразную дозу низка.» Если вы вынуждены работать в продуктовом магазине, или проводить много времени в офисе или классе - особенно в таком, где больше людей разделяют пространство и/или воздух, или таком, что требует «разговоров лицом к лицу или, ещё хуже, крика» - вам стоит намного больше опасаться.

Бромаж говорит, что продуктовые магазины не являются «местами беспокойства», но я предполагаю, что он имеет в виду, что они относительно безопасны, если вы находитесь на хорошей дистанции ото всех, идете туда, когда магазин довольно пустой, и т. д. Если один кашель от кого-нибудь на нескольких футах от вас, кто не смотрит в моем направлении, может заразить меня Ковидом-19 за несколько секунд, это все ещё кажется мне «стоящим беспокойства»!

Дополнительно, Джим Бабкок даёт комментарий на изначальное заявление Бромажа, что «заражения во время шоппинга, кажется, ответственны за 3-5% заражений»:

Источник этого покрывает Нингбо от 21 января до 6 марта. Мое основное беспокойство, когда я смотрю на это число, в том, что смягчения в Нингбо могли быть более эффективными для магазинов, чем для других мест, способами, которые не применимы к США. Например, я довольно уверен, что они сканировали бы людей на высокую температуру на входе, и требовали использования масок. Я не слышал о сканировании на температуру в Беркли (хотя я, на самом деле, не выходил из дома), и, хоть у нас и есть постановление носить маски, это, в основном, маски из ткани (которые менее эффективны), и подчинение не кажется очень хорошим.

И:

Конкретный номер ~1000 вирусных частиц ссылается на довольно поверхностный источник (на английском); это ведёт к паре эпидемиологов, рассуждающих без данных, и, на самом деле, они говорят:

«Реальное минимальное число варьируется для разных вирусов, и мы ещё не знаем, какова «минимальная инфекционная доза» для Ковида-19, но мы можем предположить, что это около ста вирусных частиц.»

и

«Для многих бактериальных и вирусных патогенов, у нас есть общая идея о минимальной инфекционной дозе, но, поскольку SARS-CoV-2 является новым патогеном, у нас не хватает данных. Для ТОРС (по-английски SARS - прим. перев.) инфекционная доза для моделей-мышей была только лишь несколько сотен вирусных частиц. Поэтому кажется вероятным, что нужно вдохнуть около нескольких сот или тысяч частиц SARS-CoV-2, чтобы развить симптомы. Это могла бы быть относительно низкая инфекционная доза, и это могло бы объяснить, почему вирус распространяется относительно эффективно.»

Так что, здесь существует неуверенность примерно на порядок. С другой стороны, более широкое заявление - что размер воздействия имеет значение - почти наверняка истин, и то, что подразумевает конкретное число 1000 в основном загорожены более точными наблюдениями того, в каких местах люди получают вирус.

Бромаж смягчил заявление о продуктовых магазинах на «По контрасту, распространение вспышек из-за шоппинга, кажется, ответственно за малый процент отслеженных инфекций.», и теперь цитирует два дополнительных исследования для заявления о 1000 частиц: 1, 2 (все на английском).

2B. Если вам нужно быть среди людей, отворачивайтесь от них, минимизируйте разговоры, и так далее.

Добавлено 2 июня: Джонатан Кей пишет (на английском) 23 апреля,

В соответствии с бинарной моделью, установленной в 1930-х годах, капли типично классифицируются как либо (1) большие глобулы Флюггианской разновидности - выгибающиеся в воздухе, как теннисный мяч, пока гравитация не принесет его на землю; или (2) меньшие частицы, меньше чем от пяти до 10 микрометров в диаметре (примерно одна десятая широты человеческого волоса), которые лениво дрейфуют по воздуху, в виде маленьких аэрозолей.

[…] Несмотря на то, что прошло четыре месяца с первых известных случаев Ковида-19, наши должностные лица, связанные с общественным здоровьем, остаются преданными линиями поведения, которые показывают отсутствие ясного понимания, приносят ли одноразовая баллистическая полезная нагрузка капель или облака маленьких аэрозолей больше риска - или даже как эти две модели сравниваются с возможностью непрямой инфекции через заражённые поверхности (известные как «фомиты»).

Получить такое понимание абсолютно критично для задачи приспособления появляющихся мер для общественного здоровья и линий поведения на рабочих местах, потому что процесс оптимизации линий поведения полностью зависит от того, какой механизм (если какой-либо) доминирует:

  1. Если большие капли окажутся доминирующим способом передачи, тогда расширенное использование масок и социальное дистанцирование критично, потому что угроза исходит от полёта баллистических капель, связанного с чиханием, кашлем и затрудненным дыханием. Нас также убеждали бы говорить тихо, избегать «кашля, чихания и сморкания,» или проявления любого вида усиленного дыхания на публике, и направлять рты вниз, когда говорят.

  2. Если долго находящиеся в воздухе облака мельчайших аэрозольных капель окажутся доминантным способом передачи, с другой стороны, фокус на баллистике чихания и на точном геометрическом разграничении протоколов социального дистанцирования становятся несколько менее важными - раз частицы, которые остаются висеть в воздухе на неопределенное время, могут путешествовать на большие расстояния благодаря нормальным процессам естественной конвекции и распределению газов. В этом случае, нужно поставить в приоритет использование пространств снаружи (где аэрозоли быстрее улетают) и улучшить вентиляцию помещений внутри.

  3. Если заражённые поверхности окажутся доминантным способом передачи, нужно будет продолжить, и даже расширить, нашу текущую практику скрупулёзного мытья рук после контакта с купленными в магазине предметами и другими поверхностями снаружи; так же как и протирать доставленные предметы раствором отбеливателя и другими дезинфицирующими средствами.

Зви Моушовиц комментирует (на английском):

Обнаруженные события-суперраспространители в основном были с путем передачи крупными каплями

Статья сильно аргументирует что в обнаруженных событиях-суперраспространителях основным способом передачи были большие капли. И эти большие капли распространяются на маленьких расстояниях, разговаривающими людьми (в основном все), или поющими (несколько хоровых/поющих практик) часто или громко, или смеющимися (много вечеринок), или иначе быстро выдыхающими (например, матч по кёрлингу) и так далее.

Существует высоко заметное отсутствие событий-суперраспространителей, которые дали бы основания предполагать другие механизмы передачи. Метро и другой общественный транспорт отсутствуют, самолёты в основном отсутствуют. Представления и шоу всех видов также отсутствуют. Тихие рабочие места отсутствуют, громкие (где нужно кричать людям в лицо) показываются. События-суперраспростронители в университетах не связаны с занятиями (где в основном говорит только профессор), но скорее с социализацией. […]

Зви утверждает, что поверхности и маленькие аэрозольные капли с маленькой вероятностью являются основными направлениями инфекции для Ковида-19. Он обсуждает методы избегания передачи больших капель:

Большие капли: правило шести футов понятно, но также очевидная ерунда

Для больших капель, существует по существу ноль сообщений насчёт того, чтобы наклоняться вниз или избегать физических действий, которые вызовут выброс ещё большего количества капель, или избегать нахождения на прямом пути потенциальных капель других людей.

Вместо этого, нам говорят держаться на расстоянии шести футов от других людей. Нам говорят, что шесть футов - это безопасно, а меньше - это опасно. Потому что вирус может путешествовать только на шесть футов.

Это очевидная ерунда. Совершенно ясно, что капли могут распространяться дальше, чем на шесть футов. Даже больше, концепт булевской функции риска [то есть, такой, что резко делит все на либо «рискованное», либо «безопасное», без оттенков серого] безумен. Люди выделяют вирус с разными скоростями, с разных высот, под разным ветром и так далее. Физика каждой ситуации будет отличаться. Чем ближе вы находитесь, тем больше риска.

Интуитивно имеет смысл думать о чем-либо вроде закона обратных квадратов, до тех пор, пока не доказано обратное, так что на расстоянии шести футов риск равен примерно 3% риска на расстоянии одного фута (примерно треть метра - прим. перев.). Это определенно не правильные числа, но это догадка, которой мне удобно оперировать.

Увы, сообщение не таково. Сообщение, что 72 дюйма безопасно, 71 дюйм небезопасно.

В отличие от предыдущего случая очевидной ерунды (на английском), для этого существует разумное объяснение. Я сочувствую ему. У вас есть примерно пять слов. «Всегда расходитесь на шесть футов» достаточно хорошие пять слов. Возможно, нет лучших. Шесть футов - это дистанция, которую можно правдоподобно потребовать, и, тем не менее, иметь разговоры и очереди, в меру разумные, так что это осмысленный компромисс.

Это ложь. Она не настоящая. Как прагматичный выбор, она неплоха.

Проблема в том, что к ней относятся как к буквально реальной.

Джо Байден и Берни Сандерс встретились на сцене дебатов. Диаграммы планов разместили их ровно на расстоянии шести футов.

В статье, кто-то приглашает автора, репортёра, в свой дом, чтобы пообщаться. Говорит, что он приготовил два стула, на расстоянии шести футов. «Я померял сам», говорит он. […]

И так далее. Люди действительно стараются сделать дистанцию ровно шесть футов так часто, как возможно.

[…] Это общество, которуе жертвует пропускной способностью, чтобы четко изложить сообщение. Снова, я понимаю. Проблема в том, что мы также жертвуем способность передавать нюансы. Мы неспособны, после этой жертвы, сказать людям, что существует физический мир, и они могут подумать, как его оптимизировать. Есть только одно правило свыше, Правило Шести Футов.

Поэтому, возможно, нам никогда не удастся заставить людей говорить тихо в землю, а не прямо смотря друг на друга, и громко и с силой, чтобы «компенсировать» дистанцию ровно в шесть футов, которая является самой худшей возможной ориентацией, которая не ближе шести футов.

В теории, мы можем пойти дальше. Вы заболеваете, потому что капли от заражённого человека путешествуют от их лица и касаются вашего лица.

Поэтому, очередь удивительно безопасна, если все смотрят в одну сторону, по модулю любых сильных ветров. У человека за вами нет направления, чтобы попасть вам в лицо. И мы можем это расширить. Мы можем сделать одну сторону дороги, где люди идут на север, и другую сторону дороги, где люди идут на юг. Если вы видите, как кто-то приближается с другим направлением, повернитесь и идите назад, пока они позаботятся, чтобы вы не столкнулись. Если нужно, стойте на месте по этой причине. В любом случае, это должно помочь - если это механизм, о котором мы беспокоимся.

[…] Да, раздражает, когда не видишь других людей, но вы абсолютно можете поговорить, стоя спинами друг к другу. Это маленькая цена.

Подобным образом, кажется маленькой ценой не говорить, черт возьми, всегда, когда это возможно, когда вы на публике. Вообще говорить, когда вы не среди семьи, может считаться вредным, и нужно делать это минимально (и также, говоря, не стойте ни к кому лицом).

Зви подчеркивает, что существует гораздо больше пользы в небольшом уменьшении риска от самых больших источников инфекции (включая большие капли как категорию), чем от огромного уменьшения рисков от маловероятных источников инфекции:

Фокусируйтесь только на том, что имеет значение

Для этих больших рисков, маленькие изменения имеют значение. Они важнее, чем полное избегание маленьких рисков.

Одно социальное событие, такое как похороны, день рождения или свадьба, могут по умолчанию дать любому человеку 30%+ вероятность заразить любого другого человека на этом событии, если событие маленькое, и достаточно большую, если событие большое. Вам нужно только одно. Немного больше дистанцирование, немного более тихие разговоры, и так далее, на одном таком событии, большое уменьшение риска.

Тогда как «близкий контакт», который не включает разговоры или близкое взаимодействие, наверное, даёт больше (просто предположение, но основное на разных вещах) 0.03% вероятность заражения, если другой человек заразный, и, скорее всего, с более низкой вирусной нагрузкой. Конечно, эти контакты складываются, но не так быстро. Так, вагон метро, полный «близкого контакта», может дать вам 10 их в день, большая часть которых, в любое данное время, не заразна. Если эта модель верна.

В другом посте, Зви пишет (на английском):

Риски подчиняются степенным законам

[…] Небольшие уменьшения в частоте и серьезности ваших очень рискованных действий намного важнее, чем уменьшение частоты условно рискованных действий.

Те несколько раз, что вы будете разговаривать с кем-то в ходе дел, одно общественное собрание, на котором вы будете присутствовать, переполненный магазин, через который вам придется пройти, будут доминировать в вашем профиле риска. Будьте параноидным насчёт этого, и думайте, как сделать это менее рискованным, или, в идеальном случае, избежать этого. Не беспокойтесь из-за маленьких вещей.

И думайте о физическом мире и о том, что на самом деле происходит вокруг вас!

И:

Моя лучшая догадка, что существует примерно в 5-10 раз больше риска в помещении по сравнению с такой же активностью снаружи.

Комбинация быстрого, снаружи и не в лицо эффективно складывается в безопасное, особенно, если вы добавите маски. Во время пика эпидемии в Нью-Йорке вещи были настолько напряжёнными, что имело смысл беспокоиться насчёт миазмов (субстанция, находящаяся в воздухе - прим. перев.). Теперь, я буду прилагать лучшие усилия, чтобы сохранять дистанцию и избегать разговоров друг с другом, но в основном не буду беспокоиться насчёт случайных взаимодействий.

Я действительно ожидаю, что будет острый прирост случаев, как результат протестов и гражданских беспорядков… Не увидеть такового было бы удивительно, и это обновило бы мои данные в пользу активностей снаружи как почти полностью безопасных.

2C. Если вам нужно быть среди людей, носите что-нибудь поверх рта и носа.

Позаботьтесь о том, чтобы не трогать/поправлять маску/покрытие (или свое лицо), пока носите её, за исключением снятия (и выбрасывания, и дезинфекции), когда вы закончили ее носить.

Я слышал, как некоторые люди заявляют, что маски бесполезны, но это неверно, если вы будете носить их правильно.

Добавлено 28 марта: Скотт Александер (на английском) просматривает литературу и делает вывод: «Если недостаток закончится, и ношение маски будет бесплатно, я согласен с указаниями из Китая, Гонконга и Японии - подумайте о ношении маски в ситуациях с высоким риском, таких, как метро или переполненные здания. Ношение маски не сделает вас неуязвимым, и если вы компенсируете риски хотя бы немного, оно может принести больше вреда, чем пользы. Реалистично вы должны избегать ситуаций с высоким риском, таких, как метро или переполненные здания, насколько возможно. Но если вы должны пройти туда, да, скорее всего, маска поможет.»

Добавлено 26 апреля: для сделанных самостоятельно масок, Хротгар говорит (на английском):

[…] Я бы выбрал самые плотные, самые тонко сотканные материалы, которые доступны, и наслоил бы так много, сколько возможно, не делая сложным дыхание. Я бы носил их снаружи, предпринимая все другие предосторожности (дистанция, очки, и т. д.), и дышал бы МЕДЛЕННО через нос. Медленно, потому что более низкая скорость воздуха уменьшает проникновение, нос, потому что он также действует как фильтр. Я бы вымыл все немедленно и тщательно, когда пришел домой.

Источник: соедините эти исследования об эффективности масок, сделанных из ткани/самостоятельно

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2440799/ (на английском)

https://academic.oup.com/annweh/article/54/7/789/202744 (на английском)

с этим твитом (сделанным вирусологом) о важности первоначальной вирусной нагрузки

https://twitter.com/PeterKolchinsky/status/1239560638239838215 (на английском)

и тогда отсутвующая часть насчёт размера капель + зернистого фильтра, который будет отличаться в зависимости от того, что вы наденете на лицо.

Более плотные материалы лучше, как вы можете ожидать. Толстовки Тауэлс & Хэйнс были лучшими в этом исследовании:
https://academic.oup.com/annweh/article/54/7/789/202744 (на английском)

Добавлено 2 июня: Зви Моушовиц пишет (на английском): «[Д]аже сделанные из ткани маски на обоих концах взаимодействия почти наверняка достаточны для уменьшения риска на 25% и, наверное, 50-75%.»

2D. Не приносите коронавирус на лицо.

Из Патрика ЛаВиктуара (на английском):

Как и большая часть респираторных заболеваний, коронавирус переносится в каплях воды, когда больные люди кашляют или чихают. Если капли полностью высыхают, вирус уничтожен.

Они высыхают в воздухе довольно быстро - если вы находитесь на расстоянии больше десяти футов (примерно 3 метра - прим. перев.), маловероятно, что вы их вдохнете. Но на поверхностях, включая металл, стекло и пластик, они могут оставаться на часы и даже дни. (Тогда пригодятся протирания с отбеливателем; очищайте ручки на раковине, особенно, если кто-то приходит с вирусом и смывает его.)

Самая большая опасность, тогда [если вы избегаете социального контакта с другими], в том, что вы прикоснетесь к поверхности с коронавирусом на ней, а затем (перед тем, как тщательно помыть руки) прикоснетесь ко рту, носу или глазам. Когда вирус на них, вы, вероятно, заболеете.

Также что совет номер один - это научиться, сейчас, не трогать лицо руками.

PBS говорит (на английском) (добавлено 30 марта):

Какая лучшая поверхность для уничтожения вирусов? Наша кожа. В обоих случаях, гриппа и вирусов, вызывающих простуду, заразные частицы на наших руках обычно исчезают после двадцати минут.

Учитывая ее pH и пористую натуру, натуральный барьер нашего тела прекрасно справляется с уничтожением вирусов, объяснила Грейторекс. «Наши руки довольно антимикробны сами по себе», - сказала она. «У них есть свои бактерии, которые живут на них - не важно, насколько вы чисты - и они, на самом деле, не дают приюта вирусам.»

Так что я могу предоставить, что было бы довольно полезно трогать слизистые не раз в несколько минут, а раз в несколько часов.

Я слышал, что передача через поверхности была не главным способом, которым распространялся SARS, так что я не уверен, насколько стоит беспокоиться о поверхностях. Многие люди заметили, что коронавирус может выживать на поверхностях, при определенных условиях, до 9 дней (или даже дольше, если холодно), но Уилл Эден говорит: «Это исследование (на английском) - источник предмета 9 дней. Однако, это максимальная длина, на любой поверхности, в идеальных условиях. В некоторых местах, вирус остаётся только на часы. И это не определяет, является ли какая-либо его часть заразной!»

Несмотря на это, мои три другие рекомендации таковы: проводите меньше времени, прикасаясь к поверхностям, к которым прикасается много других людей (добавлено: или разговаривают рядом с ними); старайтесь минимизировать количество прикосновений к глазам, носу или рту; и мойте руки чаще, используя полный медицинский протокол мытья рук (картинка; мнемоника; анимированная версия (все на английском)). Заметьте, что для Ковида-19, санитайзер для рук не является хорошей заменой мытья рук.

Добавлено 2 июня: Зви Моушовиц замечает (на английском):

Прошли месяцы. У нас нет конкретных примеров заражения через поверхности. Вообще. Все больше и больше кажется, что, хоть такой путь передачи и возможен, и должен время от времени происходить, получить достаточно вируса, чтобы вызвать инфекцию, в живом виде, таким путем, очень сложно. Если вы моете руки и не трогаете лицо, это ещё сложнее.

Тем временем, те, кто отказываются прикасаться к поверхностям, вроде коробки от доставленной пиццы, оказываются в более многолюдных местах вроде магазинов, результатом чего является возрастание общего риска на порядки.

[…] До тех пор, пока я не получу очень неожиданные свидетельства, поверхности в основном не важны. Если много людей прикасаются к чему-то и затем вы прикасаетесь к этому, конечно, вымойте руки после и будьте очень осторожны, чтобы не прикасаться к лицу перед этим. В остальных случаях, перестаньте беспокоиться о поверхностях.

Сама еда в большинстве своем минимально рискованна, даже если она не нагревается достаточно для того, чтобы наверняка и полностью убить вирус. Вам не обязательно портить всю вашу еду. Люди часто избегают еду, которая кажется опасной. Ещё раз, есть смысл в том, что она может быть опасной, но на практике прошли месяцы и, кажется, это так не работает. Предосторожности, которые люди предпринимают, в данном случае будут более чем достаточными, чтобы защититься от заражения еды на нужном уровне, чтобы стоить беспокойства. Я хочу сказать, конечно, не ешьте в буфете, хоть и не похоже, что они будут открыты, и даже тогда (также в основном безопасные) поверхности скорее всего страшнее, чем еда.

Ваш риск исходит от официанта, или от других едящих, находящихся в этой комнате с вами какое-то время. Поэтому, еда на вынос, доставка и/или еда снаружи.

Я согласен с Зви, что кажется все более вероятным, что передача через поверхности редка, хотя он ошибается насчёт того, что нет примеров (смотрите комментарии (на английском)), и я не видел ясного аргумента насчёт того, находится ли количество случаев Ковида-19, вызванных передачей через поверхности, ближе к 1/10 всех случаев, или же, скажем, 1/10,000. Учитывая мои обстоятельства, я, вероятно, буду делать вещи вроде «заказывать пиццу» чаще в будущие недели, но я тоже, скорее всего, буду использовать советы Яо Лю (на английском), пока инфекции свойственны моей части США:

Я химиотерапевт, и вот что я обычно говорю своим пациентам, находящимся в группе риска:

Лично я не доверяю еде на вынос, потому что я думаю, что многие работники в ресторанах не уходят на больничный, так что более вероятно, что ваша еда была приготовлена кем-то с симптомами. Но вы можете сократить риск до близкого к нулю таким образом:

  1. Хорошо помойте руки

  2. Поставьте свою тарелку на кухонный стол

  3. Возьмите ресторанный контейнер, и вылейте еду в вашу тарелку

  4. Выбросьте ресторанный контейнер

  5. Хорошо помойте руки

  6. Тщательно нагрейте еду. (минимум 70C на минуту, или то, что говорит лучшее текущее руководство)

Если вы сделаете это, в таком порядке, вы в особенной безопасности, даже если кто-то кашлял вирусами на вашу еду и контейнер. Тепло убьет вирус, а мытьё рук предотвратит непрямую передачу от пакета/контейнера.

2E. Имейте предметы первой необходимости.

Я бы рекомендовал запастись как минимум месяцем непортящейся еды. 2-3 месяца ещё лучше. Ошибайтесь в сторону еды, которая вам нравится; персонально любимая еда с меньшей вероятностью сейчас закончится на Амазоне. Кроме того, важно сделать свой карантин приятным, чтобы уменьшить вероятность того, что вы его нарушите потом.

От жителей дома Горизонт Событий (дом группы рационалистов в Беркли - прим. перев.) https://www.google.com/url?q=https://www.google.com/url?q%3Dhttps://docs… (на английском): «Большая часть еды, предназначенная для подготовки к катастрофе, уже продана, но вы все ещё можете раздобыть консервы (например, бобы, рыбу, овощи, фрукты) и сухую еду (например, рис, пасту, сухофрукты, арахисовую пасту), которые вам нравятся, и вы можете их есть.»

Я бы таким же образом запасся другими необходимыми предметами, особенно лекарствами, которые вам нужны.

Добавлено 26 апреля: центры по контролю и профилактике заболеваний рекомендуют (на английском) иметь запас чистой питьевой воды на две недели. Я бы рекомендовал запастись водой на 1+ месяца (то есть, 30+ галлонов на человека), если у вас есть место. The Guardian сообщает 20 апреля (на английском), что возникает нехватка CO2, и The Prepared отмечает (на английском), что «CO2 является необходимым элементом для муниципального процесса обработки воды. (Он также жизненно важен для многих критичных индустриальных процессов - от агрикультуры до переработки мяса и консервирования еды).» The Prepared также отмечает другие химикаты (на английском), используемые для обработки воды, поставка которых также может нарушиться в различных сценариях.

2F. Распечатайте копии ваших медицинских записей.

От Горизонта Событий: «Если больничная инфраструктура переполнена, у вас может не быть доступа к этой информации. Самая важная информация, которую нужно иметь под рукой, это история ваших основных проблем со здоровьем и операций, записи иммунизации, и лекарства, которые вы принимаете в данный момент. Вот шаблон таких медицинских записей: https://www.google.com/url?q=https://www.google.com/url?q%3Dhttps://docs…»

2G. Дезинфицируйте поверхности.

(Особенно те, к которым часто прикасаются, например, ручки дверей и выключатели.)

ВОЗ отмечает (на английском): «В Китае, передача Ковида-19 от человека к человеку в основном происходит в семьях […] большая часть кластеров (78%-85%) была в семьях.» Дивиа Эден комментирует: «Одним из моих выводов было, что доставка посылок маловероятно была большим вектором, по крайней мере, в Китае.

Тем не менее, упаковки могут быть для вас основным источником риска, если вы полагаетесь на упаковки для еды; и риск может возрастать в контактах, где меры сдерживания провалились и вирус в целом более распределен. Так что если это вас не слишком беспокоит, или если вы в группе риска, наверное, имеет смысл дезинфецировать упаковки тоже.

Простая версия этого - оставить упаковки на прямом солнечном свете на какое-то время перед тем, как их открывать. Тепло и УФ-излучение хорошо убивают коронавирус. (Добавлено 28 марта: https://www.nejm.org/doi/full/10.1056/NEJMc2004973 (на английском) сообщает, что «SARS-CoV-2 был более стабилен на пластике и нержавеющей стали, чем на меди и картоне, и жизнеспособный вирус был обнаружен втечение до 72 часов после нанесения на эти поверхности (рис. 1А), хотя титр вируса был сильно уменьшен […] На меди, никакого жизнеспособного SARS-CoV-2 не было обнаружено после 4 часов […] На картоне, никакого жизнеспособного SARS-CoV-2 не было обнаружено после 24 часов[.]»)

К счастью, сложная версия только немного сложнее, раз коронавирусы легко убить широким спектром очищающих средств. Из
https://ru.m.wikipedia.org/wiki/%D0%92%D0%B8%D1%80%D1%83%D1%81%D0%BD%D0%…, обсуждаются вирусы с оболочками в целом: «Жировая двухслойная оболочка таких вирусов относительно чувствительна к высушиванию, температуре, и моющим средствам, поэтому такие вирусы проще стерилизовать, чем вирусы без оболочек. Они ограниченно выживают вне носителя, и обычно передаются напрямую от носителя к носителю.»

Хорошие варианты чистящих средств включают 70% изопропанол (заметка: более высокие или более низкие проценты могут быть менее эффективными (на английском); смотрите также обзор Сары Константин (на английском)) или предметы в этом списке (упомянутом центрами по контролю и профилактике заболеваний): https://www.americanchemistry.com/Novel-Coronavirus-Fighting-Products-Li… (на английском).

Важное обновление информации от Дункана Сабина (добавлено 29 апреля): «Социальная реклама: если (например) вам доставляют мороженое, или вы дезинфицируете его так, что приходится протирать или замачивать его, так что оно тает, прежде чем вы положите его в холодильник… Хааген Даз примерно в 3 раза лучше в заморозке обратно до структуры и консистенции мороженого, чем Бен и Джерри. Не знаю почему, но это так.»

Добавлено 2 июня: смотрите также рекомендации Зви Моушовица беспокоиться насчёт поверхностей меньше (на английском), которые цитируются выше.

2H. Используйте медную ленту или UVC свет на поверхностях, к которым часто прикасаются.

(Обновлено 1 апреля)

Из Сары Константин (на английском):

Предметы, к которым часто прикасаются, особенно в общественных местах, вероятно, должны быть облучены UVC светом и/или покрыты медью, в качестве стандартной предосторожности.

Обычное УФ-излучение является эффективным дезинфицирующим средством, но также может ослеплять людей и оставлять ожоги на коже; UVC - это более короткая длина волны, так же эффективная против микробов, но не опасная для глаз или кожи.)

UVC используется в бактерицидных лампах (на английском) и в бактерицидном облучении (на английском). Дальний UVC свет (207-222 нм) кажется самым безопасным для человеческой кожи.

Твердая медь не убивает вирусы при контакте, но на ней вирусам сложно выживать в течение минут или часов (https://www.lesswrong.com/posts/LwcKYR8bykM6vDHyo/coronavirus-justified-… (на английском)). Таким образом, наклеивание медной ленты (ссылка на Амазон (на английском)) на такие предметы, как телефоны, дверные ручки и выключатели может уменьшить риск.

Постарайтесь минимизировать количество морщин на наклеенной медной ленте, чтобы поверхности с лентой было легко дезинфицировать, как требуется. Роберт Майлс предлагает: «Лента должна быть обрезана до нужного размера, и вам потребуется инструмент в форме пальца, твёрже, чем палец, но мягче, чем медь - дерево или пластик подойдут. Я использую закруглённый конец швейцарского ножа. Если провести им вдоль морщин и маленьких складок, они в основном исчезнут». Будьте осторожны, чтобы не порезаться.

2I. Потребляйте 2,000 - 6,000 МЕ витамина Д ежедневно, утром. (0,05 - 0,15 мг - прим. перев.)

1
2
3
4
5
«Поскольку Ковид обычно убивает через пневмонию, и недостаточность витамина Д выглядит удивительно большим фактором риска в респираторном заболевании, вероятно, довольно важно поддерживать уровень витамина Д достаточным (что для большинства людей означает принятие добавок, особенно если существует карантин, который влияет на еду).» (https://www.lesswrong.com/posts/LwcKYR8bykM6vDHyo/coronavirus-justified-… (на английском))

Добавлено 8 мая, от Джима Бабкока:

Википедия резюмирует https://pubmed.ncbi.nlm.nih.gov/21419266/ (на английском) как «витамин Д активизирует врождённую и приглушает адаптивную иммунную систему». Предполагая, что это так (я этого не проверял, а витамин Д известен тем, что привлекает сомнительные заявления), недостаточность понизила бы минимальную дозу, необходимую для инфекции. На уровне популяции, это было бы лучшим объяснением для корреляции широты и инфекций, чем температура. Это означало бы, что массовое распространение витамина Д было бы хорошей стратегией понижения R.

2J. Используйте воздушный фильтр.

Сара Константин (на английском): «В ретроспективном исследовании в больницах Юты, высокие концентрации частиц в воздухе ассоциировались с немного, но значительно более высокой (отношение шансов = 1.004) степенью приема в отделение неотложной помощи с пневмонией, и с немного (отношение шансов = 1.02), но значительно более высокой степенью смертности от пневмонии.[12] Воздушные фильтры дома могут немного помочь.»

2K. Будьте здоровыми: хорошо ешьте, хорошо спите, делайте упражнения.

(Добавлено 27 апреля: И подумайте о том, чтобы избегать вещей, из-за которых можно попасть в больницу, например, гонок на мотоцикле или беременности; больницы в период пандемии опасны.)

3. Что делать, если вы заболели:

(Обновление информации 28 марта: Сегодня я многое переписал в этой секции. Эта секция остаётся относительно спекулятивной и подверженной изменениям. Ковид-19 - это новая болезнь, и мы все ещё находимся на ранних стадиях ее понимания, и, как замечает (на английском) Сара Константин, нет большого количества хороших исследований о том, как лучше всего дома лечить болезни, похожие на грипп или пневмонию. И все же, мокрота и грипп никого не ждут, и мы вынуждены делать свои лучшие догадки без доступных свидетельств.)

3A. Подготовьтесь заранее6.

То, что нужно купить сейчас, для случая, если вы заболеете: Pedialyte или gatorage powder, ингалятор без рецепта, увлажнитель, ацетаминофен, mucinex/гвайфенезин, псевдоэфедрин, пастилки с цинком, оральные термометры, напалечный пульсоксиметр. Может быть, гидроксихлорохин или хлорохин https://www.google.com/url?q=https://www.google.com/url?q%3Dhttps://docs… (на английском) и/или домашний кислородный концентратор https://srconstantin.github.io/2020/03/19/oxygen-supplementation-101.html (на английском), если вы можете найти его онлайн или получить рецепт от врача. Детали смотрите ниже.

Пока вы ещё здоровы, меряйте температуру (орально) и используйте напалечный пульсоксиметр. Делайте это несколько раз в день в течение нескольких дней, чтобы убедиться, что девайсы работают и чтобы получить представление о своих базовых 7 числах.

(Добавлено 26 апреля: учитывая обновление о «тихой гипоксии» внизу в 3D, и обновление о тромбах внизу в 3G, вам, наверное, стоит использовать пульсоксиметр регулярно, даже если у вас нет симптомов. Ещё вам стоит остерегаться признаков инсульта, инфаркта или лёгочной эмболии, даже если у вас нет других симптомов.)

Выясните, кто может помогать заботиться о вас, если вы заболеете.

Добавлено 2 июня: Спланируйте заранее, в какую больницу вы попадете, если понадобится, и будьте готовы позвонить врачу, если у вас появятся тревожащие симптомы. Зви Моушовиц пишет (на английском):

Медицинская помощь имеет значение [для уровня смертности]. Полный упадок медицинской помощи на практике ведёт к умножению уровня смертности в несколько раз, при обычных обстоятельствах. Высококачественное лечение при текущем уровне знаний, наверное, может ещё снизить смертность, так что соотношение между полным успехом и полным упадком может быть довольно большим - нечто вроде разницы на порядок между 0.2% и 2%.

В данный момент у меня нет сильного мнения насчёт конкретной медицинской помощи, кроме описанного.

3B. Поймите, как Ковид-19 обычно появляется и прогрессирует, чтобы вы могли сделать информированную догадку, с какой вероятностью вы больны.

Прямое тестирование, очевидно, может помочь, но, в зависимости от того, где вы и какие у вас симптомы, может быть очень сложно получить тест в США, и результаты теста могут прийти слишком поздно, чтобы быть полезными. Все равно имеет смысл делать тестирование, если обстоятельства позволяют, например, чтобы прояснить приоритеты в лечении, помочь в сдерживании, или провериться на другие инфекции. Согласно Саре Константин (на английском):

Важно быть протестированным доктором, если у вас респираторное заболевание, которое, вы думаете, Ковид-19. Даже если вы не можете получить тест на Ковид-19, у вас может также быть другая бактериальная или вирусная инфекция (либо вместо, либо в дополнение к Ковиду-19), которую можно вылечить противовирусным средством или антибиотиками. Очень часто вирусная пневмония отягощена случайной бактериальной инфекцией, и уничтожение бактерии может помочь исправить результаты.

24 февраля, ВОЗ (на английском) перечислила симптомы Ковида-19 со следующей частотой:

температура (87.9%), сухой кашель (67.7%), усталость (38.1%), производство мокроты (33.4%), проблемы с дыханием (18.6%), боль в горле (13.9%), головная боль (13.6%), миалгия [боль в мышцах] или артралгия [боль в суставах] (14.8%), озноб (11.4%), тошнота или рвота (5.0%), заложенность носа (4.8%), диарея (3.7%), и кровохарканье [выкашливание крови] (0.9%), и конъюктивальная гиперемия [воспаление белка глаза] (0.8%).

Отчёт ВОЗ продолжается:

Люди с Ковидом-19 в основном развивают признаки и симптомы, включая мягкие респираторные симптомы и температуру, в среднем на 5-6 день после инфицирования. […] Используя доступные предварительные данные, среднее время с начала симптомов до клинического выздоровления в мягких случаях примерно 2 недели, и 3-6 недель для пациентов с тяжёлым или критическим заболеванием. Предварительные данные предполагают, что период от начала симптомов до развития тяжёлой болезни, включая гипоксию [серьезный недостаток кислорода], составляет 1 неделю.

(Для взрослых, считается, что у вас высокая температура, если вы померяли температуру орально и она 100.4°F / 38°C.)

(Добавлено 5 апреля: Анна Саламон говорит: «Средний инкубационный период, вероятно, 7 дней, а не 5; ранние исследования, которые дали оценку в 5 дней, были проведены только на людях, которые в результате попали в больницу, а у тех, кто не попадают (и у кого болезнь мягче), оказывается, инкубационные периоды дольше. Источник: https://www.medrxiv.org/content/10.1101/2020.03.15.20036533v1”) (на английском)

Из Vox (на английском):

«Заболевание Ковидом-19 обычно начинается с небольшой высокой температуры, сухого кашля, боли в горле и недомогания,» пишет Меган Мюррей, профессор эпидемиологии в Гарвардской Медицинской Школе, в часто задаваемых вопросах для Фонда Изобилия. «В отличие от коронавирусных инфекций, которые вызывают обыкновенную простуду, оно обычно не ассоциируется с насморком.» Эти симптомы появляются в среднем через пять или шесть дней после инфицирования, но могут появиться через день или через две недели после контакта.

Из Business Insider (на английском), прогресс типичных случаев по дням:

День 1: У пациентов жар. Они могут также испытывать усталость, боль в мышцах и сухой кашель. У маленькой части может быть диарея или тошнота за день или за два.

День 5: Пациентам может быть сложно дышать - особенно пожилым, или если у них есть сопутствующие заболевания.

День 7: Столько времени проходит, в среднем, прежде чем пациенты попадают в больницу, согласно исследованию Юханьского Университета.

День 8: К этому моменту, у пациентов с тяжёлым случаями (15%, согласно китайским центрам по контролю и профилактике заболеваний) развивается острый респираторный дистресс-синдром, заболевание, которое возникает, когда жидкость накапливается в лёгких. ОРДС часто фатален.

День 10: Если у пациентов ухудшаются симптомы, это время, в которое они с наибольшей вероятностью попадут в отделение интенсивной терапии. У этих пациентов, вероятно, больше боли в животе и потери аппетита, чем у пациентов с более лёгкими случаями. Только маленькая часть умирает: текущий уровень смертности колеблется около 2%.

День 17: В среднем, люди, которые выздоравливают, выписываются из больницы после 2 1/2 недель.

Элизабет ван Ностранд изучала, какими обычно бывают ранние симптомы Ковида-19. Она пишет (на английском):

Большая часть академических/медицинских работ начинаются с первого контакта человека с медицинской системой, а это слишком поздно. Поэтому я посмотрела на социальные медиа и новостные репорты. Они, очевидно, будут искажены в сторону людей с достаточно серьезными симптомами, чтобы быть интересными, но недостаточно серьезными, чтобы умереть. Я также ограничила себя случаями, подтвержденными тестами, которые, поскольку я смотрела в основном на американские источники, искажают все в сторону тяжёлых случаев. И я рассчитываю на то, что люди рассказывали о себе честно. Поэтому существует много возражений против этой выборки.

Всего я нашла 11 случаев, плюс две записи от врачей, работающих на переднем крае. […] Из этой очень маленькой и искажённой выборки:

  • 36% людей начали с кашля на первый день (55%, если считать двух людей, у которых были очень лёгкие симптомы на первый день, и появился кашель на второй)
  • 64% начали с высокой температуры.
  • 18% людей начали с того и другого в один день.
  • 18% начали без этих симптомов (но кашель развился на второй день)

  • У 78% рано или поздно развился кашель

  • У 91% равно или поздно развилась высокая температура. Единственный человек, у кого не развилась высокая температура, я думаю, мог быть с ложно-положительным диагнозом, потому что его симптомы были очень странными.
  • У 27% были пищеварительные симптомы (в основном тошнота)
  • 1/3 выздоровевших людей была госпитализирована. […]
    Возможно, вы слышали, что 80% случаев лёгкие. Помните, что работа (на английском) определила «лёгкие» как включающие лёгкую пневмонию, что я бы классифицировала как по меньшей мере среде тяжёлые.

Из Sky News (на английском):

Британская Ассоциация Отоларингологов (ENT UK) говорит, что пациенты без симптомов - те, у кого нет температуры или кашля - могли проявлять потерю обоняния или вкуса как симптомы после заражения коронавирусом. […] «У [многих] молодых пациентов нет значительных симптомов, таких, как кашель или температура, но у них может быть только потеря обоняния или вкуса, что предполагает, что вирус находится в носу.» […] Доктор Натали МакДермотт, клинический лектор в Лондонском Королевском Колледже, сказала, что инфекции, которые в норме появляются через «нос или заднюю часть горла» часто ведут к потере обоняния и вкуса, но предупредила, что исследования новых симптомов Ковида-19 ещё не распространились широко в медицинском сообществе.»

Стат (на английском) сообщает, что от 30% до 67% пациентов с Ковидом-19 временно теряли чувство обоняния.

Одно исследование (на английском) нашло более высокую степень пищеварительных проблем (103 из 204 случаев),толкуя широко. 40% пациентов испытывали потерю аппетита, 17% диарею, 2% рвоту, 1% боли в животе. «Более того, пищеварительные симптомы среди большей группы становились более тяжёлыми с увеличением тяжести Ковиде-19[.]»

Ковид-19 также может вызывать сыпь на конечностях (на английском). И вирус, похоже, может проникать в спинномозговую жидкость и может вызывать неврологические симптомы (на английском).

Так что… похоже, симптомы Ковида-19 включают «примерно все».

Представление Ковида-19 сильно различается. Типично, если вы увидите какие-либо симптомы вообще, вы увидите респираторные симптомы, такие как кашель, стеснение в груди, или одышка; и за этими симптомами нужно внимательнее следить, потому что смерти от Ковида-19 обычно из-за респираторных повреждений. Но я также слышал отчёты о звучащей изнурительно усталости или сильной/долго длящейся температуре. Например (неподтвержденный случай (на английском)):

[…] ЭТО МОЖЕТ ДЛИТЬСЯ ВЕЧНОСТЬ: Чего я не ожидал (или не был подготовлен) в отношении симптомов. Главным была чистая длина - хотя, снова, в моем случае все прошло очень быстро. Изабель не повезло. Температура неприятна, но эта температура длилась дни, без перерывов и скачков. Длительность Ковида-19 - одна из необычных вещей касательно него. В случае Изабель обострение было около 8 дня (день худшей температуры), затем снова на 10 день (худшие проблемы с дыханием, которые, к счастью, были лёгкими). Похоже, для переживших болезнь людей, которые были госпитализированы, средний день выпуска был 24 день. Будьте готовы к тому, что длиться это будет долго.

ЕСТЬ ПРИЛИВЫ И ОТЛИВЫ: Я действительно хотел бы ожидать этого - для Изабель, Ковид-19 не следовал предсказуемому паттерну ухудшения, пика и выздоровления. Был период первоначального управляемого нездоровья, затем быстрое ухудшение до полной прикованности к постели, затем два отдельных пика болезни с улучшением между ними, и только теперь устойчивое выздоровление. Только на 11 день она сказала «Я чувствую себя намного лучше», и, как наблюдатель, были ясные улучшения и ухудшения, которые сделали все особенно действующим на нервы: вы никогда не может быть уверенным, что все улучшилось, а ухудшения особенно страшны.

САМЫЕ ИЗВЕСТНЫЕ СИМПТОМЫ МОГУТ БЫТЬ НЕ ХУДШИМИ: Если вы подобны мне, когда вы думаете о коронавирусе, вы думаете о температуре, сухом кашле и изменениях в дыхании, которые являются характерными симптомами. У Изабель были они все, но худшими эффектами были изнеможение, тошнота, боль и обезвоживание. Она была ослаблена ими до степени, которую я никогда не видел, кроме очень старых и больных родственников, гораздо хуже любого гриппа, который у кого-либо из нас был. Ей постоянно требовались болеутоляющие и вода (которую она часто не могла от слабости поднять к губам), и у нее не было аппетита. Если бы не пандемия - или если бы она была одна - она определенно была бы в больнице. К счастью, ее дыхание не было достаточно плохим для этого.

Аспект «приливов и отливов» выглядит очень частым в анекдотических рассказах. Например, из другого неподтвержденного случая (на английском):

07.03 - я был на вечеринке, где как минимум один человек получил позитивный тест, и >5 других сообщили о похожих симптомах в практически идентичное время

09.03 - день 1 - лёгкая температура (99.5) в течение нескольких часов. Озноб. Головная боль. Закончилось вечером

10-11.03 - дни 2-3 - боль в мышцах, усталость - то и другое довольно лёгкие

12-14.03 - дни 4-6 - я чувствовал себя лучше, никаких симптомов. Поэтому я подумал, что это был просто насморк

15-16.03 - дни 7-8 - у меня было стеснение в груди и затрудненное дыхание. Тогда я начал подозревать, что это не простуда.

17.03 - день 9 - начался кашель. Лёгкий, но сухой. Раздражённое горло.

18.03 - день 10 - больше не было кашля, не было стеснения в груди, ни стесненного дыхания. Горло немного раздражено, но чувствовал, что становится лучше

19-20.03 - дни 11-12 - о-о. Температура появляется и исчезает втечение дня, гораздо сложнее дышать, кашель вернулся и стал хуже. Внезапная и очень неприятная одышка.

21.03 - день 13 - сегодня. Сейчас я чувствую себя лучше, чем всю неделю. Нет температуры, нет затрудненного дыхания, и нет кашля. Но я был обмануть раньше, так что я пока терпелив, и подожду ещё несколько дней, чтобы быть уверенным. Не думаю, что все закончилось.

Что ж, все определенно не закончилось, когда я писал пост на 13 день. Той ночью у меня была ещё одна волна боли в груди и одышка. Дни 14 и 15 ощущались, как непрекращающийся приступ астмы слабой степени.

Дни 16 и 17 - сухой кашель превратился в продуктивный кашель, и комбинация mucinex и горячего чая дали мне облегчение.

Сегодня, день 18, я наконец чувствую себя в основном нормально. Я не кашляю, и я могу дышать!

К несчастью, лаборатория, в которой я проходил тест, была закрыта управлением по санитарному надзору за качеством пищевых продуктов и медикаментов, так что я не получу результат теста: https://www.nytimes.com/2020/03/23/technology/coronavirus-home-testing-s… (на английском) […]

Заметки:

  1. Не доверяйте «затишью». Такая прогрессия выглядит довольно общей - один день с небольшой температурой, затем снова все нормально, а затем вторая волна. Или третья [и четвертая], в моем случае. Я хотел бы знать это - я подверг опасности некоторых людей в дни 4-6. Пока что никто из них не проявляет симптомов, но я вел бы себя иначе, если бы знал, что это типичный паттерн для Ковида.

  2. Действительно полезно иметь пульсоксиметр. Купите его на Амазоне за <20$. Он позволил мне проверять жизненные показатели даже в середине худшей части, когда я не мог дышать, и убедиться, что мой уровень кислорода в норме (97-99). Я бы лег в больницу, если бы он опустился <90[.]

За симптомами вроде насморка полезно следить, потому что их наличие в некоторой мере свидетельствует, что у вас нет Ковида-19. Простуда вызывает чихание, а Ковид-19 и грипп не вызывают чихания (на английском). При простуде также бывает насморк и заложенный нос, которые редки для Ковида-19 (и в некоторой степени несвойственны гриппу). И у гриппа внезапное начало симптомов, тогда как у Ковида-19 и простуды обычно постепенное начало симптомов.

Несмотря на это, поскольку Ковид-19 особенно опасен и может проявляться различными способами (и всегда возможно, что у вас и Ковид-19, и другая болезнь), вам нужно быть осторожными и не отвергать преждевременно вероятность, что у вас Ковид-19.

3C. Принимайте цинк немедленно, если вы начнёте испытывать симптомы, похожие на простуду, грипп или Ковид-19.

Из вирусолога Джеймса Робба (на английском): пастилки с цинком (zinc lozenges) «доказанно блокируют размножение коронавируса (и большинство других вирусов) у вас в горле и носоглотке. Используйте как указано несколько раз в день, каждый день, когда вы начинаете чувствовать начало любых похожих на простуду симптомов. Лучше всего лечь и позволить пастилке раствориться в задней части горла и носоглотке. Cold-Eeze lozenges - один доступный бренд, но существуют другие.» (Источники: https://onlinelibrary.wiley.com/doi/full/10.1002/jmv.25707 + https://journals.plos.org/plospathogens/article?id=10.1371%2Fjournal.ppa… (все на английском))

Дискуссия на https://www.lesswrong.com/posts/un2fgBad4uqqwm9sH/is-this-info-on-zinc-l… (на английском) предполагает, что обыкновенные пастилки с цинком могут быть неэффективными по различным причинам, и что одним из единственный продуктов, которые, вероятно, эффективны является „Life Extension Enhanced Zinc Lozenges“ (которые сейчас распроданы на Амазоне).

Одна опция, которая, возможно, имеет смысл интуитивно, это смешивать [жидкий ионный цинк] (https://www.amazon.com/Good-State-Ionic-Liquid-Concentrate/dp/B00D0VI0A8) (на английском) с водой и использовать его как жидкость для полоскания рта, когда вы начинаете плохо себя чувствовать? Я не уверен. Будьте предупреждены, однако, что цинковые назальные спреи, как установлено, перманентно лишают людей возможности ощущать запахи, а регулярное использование цинка в других формах может (на английском) повредить вашему ощущению вкуса или запаха со временем.

Из Элизабет ван Ностранд (на английском):

Принимайте цинк с первыми симптомами. […] Он действует так, что ионы цинка прикрепляются к вашему горлу. Так что таблетки бесполезны. Это должна быть пастилка. […] Крис Мастерджон заявляет, что работают только глюконат цинка и ацетат цинка. Я не знаю, правда ли это, но единственные исследования, которые я нашла, использовали глюконат и ацетат, так что имеет смысл предпочитать их. […] Ужасный вкус и потеря обоняния означают, что они работают, если только вы не лишились обоняния из-за Ковида.

3D. Начните следить за кислородом чаще при малейших опасных признаках.

(Добавлено 26 апреля: … включая случай, если у вас нет симптомов, но вы подверглись возможной инфекции в последние две недели. Если у вас разовьётся температура, или вы почувствуете стеснение в груди или затрудненное дыхание, определенно начните следить за кислородом; но не ждите так долго, если можете.)

От резидентов дома Горизонт Событий (https://www.google.com/url?q=https://www.google.com/url?q%3Dhttps://docs…):

Поскольку Ковид-19 является болезнью со значительным респираторным участием, и обычно он убивает именно так, вам нужно в больницу, если у вас затрудненное дыхание, и уровень кислорода в крови постоянно ниже ~90-94% (для людей на уровне моря), в то время как вы используете пульсоксиметр, согласно указаниям. (Короткие падения в общем не должны вас беспокоить, в силу нормальных колебаний и несовершенства измерения.)

Эли Морнингстар добавляет:

Совет, как избежать напрасных страхов с домашним пульсоксиметром (избегайте ошибки пользователя):

  • Держите руку ниже сердца во время измерения
  • Не используйте лак для ногтей на пальце, который вы используете
  • Сначала подержите что-нибудь теплое, то есть, у вас не должны быть холодными руки
    Добавлено 12 мая: Теперь я думаю, что «респираторное участие… является способом, каким он убивает» неверно, или, по меньшей мере, очень неполно. Я продвигаюсь к мнению, что Ковид-19 сосудистое или тромбозное заболевание в той же мере, что и респираторное. Астма (на английском) не является крупным фактором риска для смертей от Ковида-19; возраст, ожирение, диабет, сердечные болезни и гипертония (на английском) являются.

Из Washington Post (на английском) 10 мая:

В первые дни вспышки, большая часть усилий сосредоточена на лёгких. SARS-CoV-2 заражает и верхние, и нижние респираторные пути, постепенно проходя глубже в лёгкие, наполняя маленькие воздушные мешочки клетками и жидкостью, которые перекрывают поток кислорода.

Но многие учёные пришли к убеждению, что большая часть урона, наносимого болезнью, происходит по двум связанным причинам. Первая - это вред, который вирус приносит кровеносным сосудам, что приводит к тромбам, которые ранжируются от микроскопических до значительных. […] Вторая - увеличенный ответ собственной иммунной системы, шторм убийственных «цитокинов», которые атакуют собственные клетки тела вместе с вирусом, так как стараются защитить тело от захватчика.

[…] «Этот вирус начинается, как вирусная инфекция, и становится более общим нарушением для иммунной системы и кровеносных сосудов - и именно это убивает,» - говорит Мехра. «Наша гипотеза - Ковид-19 начинается, как респираторный вирус, а убивает, как сердечно-сосудистый вирус.»

[…] АПФ2 рецепторы, которые помогают регулировать кровяное давление, содержатся в большом количестве в лёгких, почках и кишечнике - органах, на которые сильно воздействует патоген во многих пациентах. По этой же причине, возможно, высокое кровяное давление появилось как одно из наиболее часто встречающихся ранее существовавших условий в людях, которые тяжело болеют Ковидом-19.

Онколог Татьяна Правелл описывает (5 мая) швейцарскую серию вскрытий (на английском) в Твиттере:

[…] патологи, которые делали вскрытия 21 человеку, которые умерли от Ковида-19, думают, что повреждения лёгких & тромбы в самых маленьких кровеносных сосудах (капиллярах) лёгких были основной причиной смерти. Тромбы были найдены даже у [пациентов] на кроверазжижающих средствах, которые должны были предотвратить их.

И, цитируя CellBioGuy(на английском) (13 апреля, 22 апреля):

АПФ2 выражается в том, что эндотелиальные клетки выстилают кровеносные сосуды. Если у вас плохая виремия (наличие вируса в крови - прим. перев.), внутренняя оболочка кровеносных сосудов, особенно в тяжело инфицированных органах, вероятно, просто портится.

[…] Вирус может вызывать ненормальное воспаление, и распространяющееся на все тело, но особенно концентрированное в лёгких, состояние гиперкоагуляции, которое вызывает микроскопические тромбы в лёгких, которые являются одним из главных факторов заболеваемости, смертности и неэффективности вентиляции.

[…] Это состояние гиперкоагуляции может объяснить отчёты о аномально низких показателях кислорода в людях, которые обычно указывали бы на смерть или [бессознательное состояние]. У них могут быть маленькие тромбы в пальце, на котором находится сенсор, вызывая временный единичный низкий кровоток. Оно также могло бы объяснить больше того факта, что дыхательные аппараты менее полезны, чем предполагалось - часть людей на них, вероятно, в них не нуждалась.

[…] Вдобавок, есть две части иммунологии, которые частично объясняют поведение этого вируса и предполагают способы навредить ему. Во-первых, вирус развился в летучих мышах, у которых интефероновый ответ легко вызывается, и, соответственно, в человеческих клетках он практически полностью избегает интерферонового ответа. Это позволяет ему размножаться до абсурдной вирусной нагрузки до того, как иммунная система заметит его, что объясняет крайнюю заразность незадолго до начала симптомов. Затем, когда иммунная система заметит его, она начинает работать с огромной вирусной инфекцией, вызывая нарушенный воспалительный ответ, который может сильно навредить. Это значит, что он чувствителен к предварительной обработке ингаляционным интерфероном (https://www.biorxiv.org/content/10.1101/2020.03.07.982264v1) (на английском). Помимо этого, возможно, все, что уменьшает размножение вируса в этот период, прежде чем адаптивная иммунная система создаст сильный ответ, может уменьшить вероятность прогресса до тяжёлой болезни. Если противовирусные средства работают, или если хлорохин эффективен (учитывая биохимию, я очень на это надеюсь!), они, вероятно, будут наиболее эффективны на ранних сроках, поскольку уменьшают количество пациентов, у которых развивается серьезная болезнь.

Во-вторых, есть свидетельства, что вирус может входить и уничтожать (но не размножаться внутри) Т-клетки, используя тот же рецептор, какой и везде, вызывая подавление иммунитета и оповещая воспалительный профиль (https://www.nature.com/articles/s41423-020-0424-9) (на английском). У него нет грязных трюков ВИЧа, и он не размножается внутри, так что это временно, до выздоровления.

Я хочу подчеркнуть, что вам может понадобиться лечь в больницу в короткие сроки. Серьезные случаи Ковида-19 нередко прогрессируют от «не требуется ухода, или требуется небольшой уход» до «немедленно требуется серьезный уход» очень быстро. Например, из ProPublica (на английском):

У меня есть пациенты чуть за 40 и, да, я был шокирован. Я вижу людей, которые выглядят относительно здоровыми, с минимальной медицинской историей, и они полностью уничтожены, как если бы они попали под грузовик. Коронавирус сваливает с ног тех, кто должен быть совершенно здоровыми людьми. Бывает, пациенты на минимальной поддержке, на небольшом кислороде, а потом, внезапно, происходит полная остановка дыхания, и они вообще не могут дышать.

Вторая неделя симптомов выглядит особенно опасной. Пожалуйста, внимательно следите за симптомами, даже если ваши симптомы были относительно лёгкими на первой неделе. От центров по контролю и профилактике заболеваний (на английском):

Некоторые отчёты предполагают потенциал для клинического ухудшения втечение второй недели болезни. В одном отчёте, среди пациентов с подтвержденным Ковидом-19 и пневмонией, только у больше половины пациентов развилось затрудненное дыхание в среднем через 8 дней после начала болезни (диапазон: 5-13 дней). В другом отчёте, среднее время от начала болезни до попадания в больницу с пневмонией было 9 дней. Острый респираторный дистресс-синдром (ОРДС) развился у 17-29% госпитализированных пациентов, а вторичная инфекция развилась у 10%. В одном отчёте, среднее время от начала симптомов до ОРДС было 8 дней.

В зависимости от того, насколько серьезны у вас симптомы, или насколько заполнены ближайшие больницы, возможно, вам понадобится лечь в больницу, даже если у вас все в порядке с дыханием. Если возможно, поговорите с доктором по телефону/видео, чтобы получить их рекомендации. Написанное выше - совет насчёт случая, когда вам определенно нужно получить уход на уровне больницы; но ждать до последнего момента не обязательно умно.

Несмотря на все это, по нескольким причинам, во время пандемии ложиться в больницу часто плохая идея, если только это не абсолютно требуется:

  • У вас может не быть Ковида-19. Ложась в больницу, вы подвергаетесь риску заразиться Ковидом-19, в дополнение к остальным вашим заболеваниям. (Ковид-19 намного более опасен, если у вас есть другие заболевания.)

  • У вас может быть Ковид-19, и вы окажетесь подвержены сильно большей вирусной нагрузке рано в прогрессе заболевания, что, вероятно, сильно ухудшит ваши симптомы. Обсуждение важности вирусной нагрузки здесь. Но Ник Тарлетон говорит: [Я] наивно предполагаю, что, когда вы основательно {инфицированы + вырабатываете иммунный ответ}, больше внешней вирусной нагрузки было бы довольно маленьким фактором.»

Такой же совет от Элизабет ван Ностранд здесь (на английском).

Добавлено 26 апреля: streawkceur пишет (на английском): «Согласно этой статье, кажется ясным, что низкий кислород на самом деле опасен, даже когда вы хорошо себя чувствуете, поэтому купить пульсоксиметр было бы полезно. https://www.nytimes.com/2020/04/20/opinion/sunday/coronavirus-testing-pn… (на английском)” Цитируя статью:

[…] Эти пациенты не сообщали о каком-либо ощущении проблем с дыханием, даже несмотря на то, что рентгены их груди показали диффузную пневмонию, и их кислород был ниже нормы. Как это могло быть?

Мы только начинаем осознавать, что пневмония от Ковида сначала вызывает форму кислородного ню голодания, которую мы называем «тихой гипоксией» - «тихой» из-за ее коварной, сложной для распознания природы.

Пневмония - это инфекция лёгких, в которых воздушные мешочки наполняются жидкостью или гноем. Обычно, пациенты развивают дискомфорт в груди, боль при дыхании и другие проблемы с дыханием. Но когда ковидная пневмония впервые ударяет, пациенты не чувствуют затрудненного дыхания, даже когда падают их уровни кислорода. А к тому времени, как они чувствуют это, у них тревожно низкий уровень кислорода и от средней до тяжёлой пневмонии (как показывают рентгены груди). Нормальное насыщение кислородом для большей части людей на уровне моря - это от 94 до 100 процентов; пациенты с ковидной пневмонией, которых я видел, имели насыщение кислородом в 50 процентов.

К моему удивлению, большая часть пациентов, которых я видел, сказали, что они были больны около недели с высокой температурой, кашлем, расстройством желудка и усталостью, но у них появились проблемы с дыханием только в тот день, когда они попали в больницу. Их пневмония очевидно продолжалась днями, но к тому времени, как они чувствовали, что им нужно в больницу, они часто были уже в критическом состоянии. […]

Мы только начинаем понимать, почему это так. Коронавирус атакует клетки лёгких, которые создают поверхностно-активное вещество. Эта субстанция помогает воздушным мешочкам в лёгких оставаться открытыми между вдохами. Она критична для нормального функционирования лёгких. Когда начинается воспаление от ковидной пневмонии, оно вызывает крах воздушных мешочков, и уровни кислорода падают. Тем не менее, лёгкие первоначально остаются «уступчивыми,» ещё не жесткими или тяжёлыми из-за жидкости. Это означает, что пациент все ещё может выдыхать углекислый газ - а без сосредоточения углекислого газа, пациенты не чувствуют проблем с дыханием.

Пациенты компенсируют низкий кислород в крови тем, что дышать быстрее и глубже - и это происходит неосознанно. Эта тихая гипоксия, и психологический ответ на нее пациента, вызывает ещё больше воспаления, и ещё больше воздушных мешочков приходят в негодность, и пневмония ухудшается, пока уровень кислорода не падает резко. В результате, пациенты вредят своим собственным лёгким, дыша тяжелее и тяжелее. Двадцать процентов (на английском) пациентов с ковидной пневмонией далее проходят на вторую, более смертельную фазу повреждения лёгких. Жидкость накапливается, лёгкие становятся жёсткими, углекислый газ возрастает, и пациенты развивают острую дыхательную недостаточность.

К тому времени, как у пациентов будут заметные проблемы с дыханием, и они попадут в больницу с опасно низким уровнем кислорода, многим будет требоваться дыхательный аппарат.

Тихая гипоксия, быстро прогрессирующая до дыхательной недостаточности, объясняет случаи пациентов с Ковидом-19, которые внезапно умирали после того, как не испытывали проблем с дыханием. […]

Есть способ, которым мы могли бы идентифицировать больше пациентов с ковидной пневмонией быстрее и лечить их более эффективно - и это не требовало бы ожидания теста на коронавирус в больнице или офисе врача. Он требует раннего отслеживания тихой гипоксии, при помощи обыкновенного медицинского девайса, который может купить без рецепта в большей части аптек: пульсоксиметра.

На схожую тему, Пол Бом замечает (на английском): «54% бессимптомных случаев и 79% случаев Ковида-19 с симптомами на Бриллиантовой Принцессе имели матово-стекольные нарушения на компьютерной томографии.»

Это предполагает, что даже если у вас совсем нет симптомов (или очень лёгкие симптомы), вам следует периодически использовать домашний пульсоксиметр, если существует нетривиальный риск, что вы недавно подхватили вирус. Дополнительно, следите за необычно быстрым и глубоком дыханием, даже если нет других симптомов или они легки.

Добавлено 12 мая: Стат сообщает (на английском) 21 апреля:

[…] Новый анализ [… предполагает, что] необычные качества болезни могут сделать механическую вентиляцию вредной для лёгких.

[…] «В нашем личном опыте, гипоксемия … часто необычно хорошо выносится пациентами с Ковидом-19,» - написали исследователи, в частности, людьми до 60. «Триггер для интубации должен, вероятно, в некоторых пределах, быть основанным не на гипоксемии, а скорее на дыхательной недостаточности и усталости.»

Без ясного дистресса, они говорят, уровень кислорода в крови не нужно поднимать выше 88%, гораздо более низкая цель, чем в других случаях пневмонии.

[…] Ковид-19 влияет на лёгкие иначе, чем другие случаи тяжёлой пневмонии или острого респираторного дистресс-синдрома, указывают исследователи, подтверждая то, что врачи по всему миру начинают понимать.

Во-первых, толстое, похоже на слизь покрытие на лёгких, которые развилось у многих пациентов с Ковидом-19, мешает лёгким принимать доставляемый кислород.

Во-вторых, в отличие от других пневмоний, повреждённая поверхность лёгких может находиться совсем близко к здоровой ткани, которая эластична. Направление обогащенного кислородом воздуха (в некоторых случаях, 100% кислород) в эластичную ткань при высоком давлении и в больших объемах может вызывать утечки, отек лёгких (разбухание), и воспаление, среди других повреждений, делая вклад в «вызванные ИВЛ повреждения и повышенную смертность» в Ковиде-19, написали исследователи.

[…] Существует растущее признание, что некоторые пациенты с Ковидом-19, даже те, у которых тяжёлая болезнь, как показывает степень инфекции лёгких, могут лечиться безопасно простыми носовыми канюлями или масками, которые доставляют кислород. Последние включают СИПАП (режим искусственной вентиляции лёгких постоянным положительным давлением) маски, которые используют для апноэ во сне, или ДПДДП (двухфазное положительное давление в дыхательных путях) маски, которые используют для хронической сердечной недостаточности и других серьезных состояний. СИПАП также может быть доставлен капюшонами или шлемами, уменьшая риск того, что пациент выдохнет большое количество вируса в воздух, и подвергнет опасности врачей.

[…] «Мы используем СИПАП часто, и он хорошо работает, особенно в комбинации с тем, что пациенты лежат ничком,» говорит Шульц.

3E. Позаботьтесь о себе.

Из Дункана Сабина:

Смягчение симптомов, крайне вероятно, крайне важно, особенно тех, которые относятся к респираторному тракту. Ранние профилактические меры (пастилки с цинком, вещи, чтобы успокоить горло и предотвратить кашель), Тайленол (НЕ нестероидные противовоспалительные препараты). Множество жидкостей с множеством электролитов (Pedialyte, если сможете раздобыть, Gatorade, если не сможете). Регуляция температуры.

Самое большое, за что я беспокоюсь - это перманентные респираторные проблемы после выздоровления, и мне кажется, что большая их часть вызвана симптоматическими повреждениями, а не прямыми действиями самого вируса.

Я думаю, что большинство (хотя не все!) источники в наши дни считают, что высокая температура по умолчанию полезна, и вы не должны пытаться понизить ее, если она только не становится опасно высокой. В отношении того, что считается «опасно высоким», Элизабет ван Ностранд говорит: «Меня учили, что 103°F, некоторые говорят 104°F, вероятно, в таком диапазоне.»

От Горизонта Событий:

[Если] ваша температура опасно высока (103°F / 39.4°C или выше), [то вам может понадобиться] понизить температуру тела собственноручно. Способы это сделать безопасно: ацетаминофен/парацетамол (не превышайте рекомендуемую дозу; НЕ используйте нестероидные противовоспалительные препараты); пить больше жидкостей; принять ванну (но НЕ ледяную ванну или холодную ванну); расположить холодные полотенца (НЕ пакеты со льдом) подмышками или в паховой области.

[…] Запаситесь чем-нибудь, чтобы помочь вам регидратировать, если вы больны и теряете жидкости. Gatorade Powder (https://smile.amazon.com/Gatorade-Thirst-Quencher-Powder-Variety/dp/B01M… (на английском)) - хорошая опция, потому что её можно купить в большом объеме, в отличии от Pedialyte. Также, если вам нравится то, что вы пьете, вы скорее будете это делать. Здесь (https://med.virginia.edu/ginutrition/wp-content/uploads/sites/199/2018/0… (на английском)) руководство по созданию раствора для пероральной регидратации (используется, чтобы лечить фатальную диарею, также полезно для рвоты и общего обезвоживания) из различных баз и домашних ингредиентов.»

(Как отмечено здесь (на английском), предупреждения против нестероидных противовоспалительных препаратов, вероятно, преувеличены.)

Из Дивиа Эден: «Я бы раздобыла mucinex и увлажнитель, если возможно.» Смотрите рекомендации медсестры на https://www.boston25news.com/news/trending/coronavirus-nurses-hospital-l… (на английском). Элизабет ван Ностранд говорит: «Принимайте псевдоэфедрин, если у вас неприятное давление пазухи.» (Заметьте: не фенилэфрин / Sudafed PE, которые, похоже, бесполезны (на английском).)

Оставайтесь в тепле, расслабляясь, и много отдыхайте.

3F. Лежите на животе.

(Добавлено 31 марта.)

Леора Хорвиц, Нью-Йоркский врач, работающий в не реанимационном ковидном отделении, говорит (на английском):

Лежание на животе теперь является стандартом в нашем реанимационном отделении, и я сильно старалась, чтобы мои более больные пациенты делали так, чтобы препятствовать интубации. […]

https://twitter.com/SepsisUK/status/1243236007346163712 (на английском)

В ответ на вопрос «Лежать на животе - это то, что мы можем делать дома, чтобы помочь, если у нас более лёгкие симптомы? У моего брата проблемы с дыханием, но не на уровне реанимации, стоит ему попробовать это?», Хорвиц говорит:

Да, не может навредить, вероятно, поможет

Koulouras и другие ( на английском) и Pan и другие (на английском) также предполагают, что пациенты с ОРДС могут улучшить свои результаты, лёжа на груди.

Если у вас симптомы Ковида-19, вам нужно начать лежать на груди, а не на спине или боку (используя подушки для нужной поддержки), по меньшей мере, если вы можете спать и хорошо отдыхать в этой позиции.

На схожую тему, постуральный дренаж (на английском), мне кажется, мог бы помочь улучшать симптомы у людей с относительно серьезными симптомами, и может быть сделан дома.

3G. Следите за проблемами со свертываемостью.

(Добавлено 27 апреля)

Эван Хьюбингер говорит:

В последнее время было много отчётов о молодых людях (30 с чем-то и 40 с чем-то), у которых проблемы со свертываемостью крови из-за Ковида-19, что приводит к инсульту, сердечному приступу, и легочной эмболии. Похоже, это может случиться даже с людьми, у которых нет других симптомов. Что делать:

  1. Следите за симптомами инсульта, сердечного приступа и так далее, и попадайте в больницу так быстро, как только возможно, если у вас они будут - одной из главных причин, почему эти случаи так тяжелы прямо сейчас, это то, что молодые, не имеющие других симптомов люди не привыкли следить за симптомами инсульта и не торопятся в больницу.

  2. Если вы думаете, что существует высокий риск, что у вас Ковид-19, подумайте о том, чтобы принять кровооразжижающее, такое, как аспирин.

Из Live Science (на английском) 23 апреля:

[…] Связь между Ковидом-19 и тромбами привела к тому, что некоторые больницы дают всем пациентам с Ковидом-19 кровооразжижающее, чтобы предотвратить тромбы, согласно CNN.

[…] Недавнее исследование из Нидерландов, опубликованное в журнале Thrombosis Research (на английском), нашло, что из 184 пациентов с Ковидом-19 в реанимации, более 30% испытывали какие-нибудь проблемы со свертываемостью.

Из CNN (на английском), 23 апреля:

[…] Новый коронавирус, похоже, вызывает внезапные инсульты у взрослых в возрасте 30 с чем-то и 40 с чем-то, которые иначе сильно не болеют, сказали врачи в среду.

[…] Доктор Томас Оксли, нейрохирург в Mount Sinai Health System в Нью-Йорке, и коллеги дали детали пяти людей, которых они лечили. Все были в возрасте до 50, и у всех были либо лёгкие симптомы Ковида-19, либо никаких симптомов.

«Вирус, похоже, вызывает повышенную свертываемость в больших артериях, что приводит к серьёзным инсультам,» сказал Оксли CNN.

Наш отчёт показывает увеличение в семь раз во внезапных инсультах у молодых пациентов в последние две недели. У большинства этих пациентов нет прошлой медицинской истории, и они были дома с либо лёгкими симптомами (либо, в двух случаях, без симптомов) Ковида,» добавил он.

[…] «Для сравнения, наш сервис, в предыдущие 12 месяцев, лечил в среднем 0.73 пациента каждые 2 недели, моложе 50 лет, с инсультом больших сосудов,» написала команда в письме, которые должно было быть опубликовано в New England Journal of Medicine. […]

Из Washington Post (на английском) 25 апреля:

[… В Mount Sinai было] несколько недавних пациентов с инсультом [больших сосудов] в возрасте 30 с чем-то или 40 с чем-то, все были заражены коронавирусом. Средний возраст для такого серьезного инсульта 74.

[…] Многие исследователи подозревают, что инсульты у пациентов с Ковидом-19 могут быть прямым последствием проблем с кровью, которые создают тромбы по всему телу некоторых людей.

[…] В Mount Sinai, самой большой медицинской системе в Нью-Йорке, врач- исследователь Джей Мокко сказал, что количество пациентов, попадающих туда с большой закупоркой крови в мозгу удвоилось за три недели всплеска Ковида-19 до более чем 32, даже не смотря на то, что количество других несчастных случаев упало. Более половины [из них] имели Ковид-19.

Пациенты с Ковидом-19, которых лечили от инсульта в Mount Sinai, были моложе ив основном без факторов риска.

В среднем, ковидные пациенты с инсультом были на 15 лет моложе, чем пациенты с инсультом и без вируса.

Симптомы, за которыми следить:

  • Для инсульта, мнемоника FAST (на английском) резюмирует основные симптомы: если одна сторона вашего лица (Face) опускается или немеет, одна рука (Arm) внезапно слабеет или немеет, или ваша речь (Speech) становится невнятной или искажённой, пришло время (Time) звонить 911. Другие симптомы могут включать: внезапная слабость или онемение ног, особенно на одной стороне тела; внезапная спутанность сознания, проблемы в понимании речи; проблемы со зрением в одном или обоих глазах; внезапная сложность в ходьбе, головокружение, потеря балланса или координации; внезапная сильная головная боль без известной причины.

  • Для сердечного приступа у цисгендерных женщин, the Heart Foundation перечисляет эти признаки (на английском): «(1) Как и у мужчин, самый частый женский симптом - это боль в груди или некомфортное давление, сжатие полнота или боль в центре груди. Она длится больше нескольких минут, или проходит и возвращается. (2) Боль или дискомфорт в одной или обеих руках, спине, шее, челюсти или животе. (3) Трудности дыхания с или без дискомфорта в груди. (4) Другие частые симптомы в женщинах включают покрытие холодным потом, тошноту/рвоту, или головокружение, сердцебиение; нарушение сна и необъяснимую усталость.»

  • Для сердечного приступа у цисгендерных мужчин: «(1) Дискомфорт в груди. Большая часть сердечных приступов включает дискомфорт в центре груди, который длится дольше нескольких минут, или проходит и возвращается. Это может ощущаться как некомфортное давление, сжатие полнота или боль. (2) Считалось, что только боль в груди была признаком сердечного приступа, но возможно иметь не болезненный дискомфорт. Симптомы могут включать боль или дискомфорт в одной или обеих руках, спине, шее, челюсти или животе. (3) Трудность в дыхании с или без дискомфорта в груди. (4) Другие признаки могут включать покрытие холодным потом, тошноту или головокружение.

Я не знаю об исследованиях признаков сердечного приступа в людях, проходящих трансгендерную гормонную терапию; данные могут быть недостаточными, поскольку это относительно молодая популяция.

The Heart Foundation добавляет: «Не откладывайте получение помощи, если вы испытываете любые признаки сердечного приступа. Хотя некоторые сердечные приступы внезапные и сильные, большая их часть начинается медленно, с лёгкой боли или дискомфорта.»

  • Для легочной эмболии, Седарс Синаи говорит (на английском): «Самые частые симптомы включают: внезапные проблемы с дыханием (наиболее частое); боль в груди (обычно становится хуже при дыхании); чувство беспокойства; головокружение, или обморок; нерегулярное сердцебиение или сердцебиение; кашель или кашель кровью; потение; низкое кровяное давление. У вас также могут быть симптомы тромбоза глубоких вен, такие как: боль в затронутой ноге (может случиться только когда вы стоите или ходите); припухание ноги; болезненность, краснота, или тепло в ноге (ногах); краснота и/или обесцвеченная кожа.»

Добавлено 3 мая: Я раньше вторил рекомендации Эвана принимать аспирин профилактически. Основываясь на комментарии (на английском) Джона Максвелла, я больше этого не рекомендую:

Я только что закончил видео встречу с кардиологом, где мы обсуждали тромбы. Несмотря на то, что он считал, что у меня Ковид, и у меня недавно была ненормальная ЭКГ и лёгкое стеснение в груди, он думал, что будет лучше избегать разжижителей крови. Похоже, он получал отчёты от Кокрана о Ковиде, до того, как они становились публично доступными. Он сказал, что увеличенное тромбообразование бывает обычно у пациентов с каким-либо видом предрасположенности и ухудшается с более серьезными симптомами. Даже для низких доз аспирина, он думает, что риски кровоточения больше, чем потенциальные преимущества. «Я видел все эти сложности от разжижителей крови.» (Для информации, мне 28.)

Заметьте, что несмотря на предыдущее обсуждение (на английском) на LW касательно профилактического использования низких доз аспирина для продолжительности жизни, большое клиническое исследование (на английском) выяснило, что он не был полезен для пожилых (возраст 65+). Отметьте этот кусок:

«Значительное кровотечение - известный риск регулярного использования аспирина - также было замеряно. Исследователи заметили, что аспирин ассоциировался со значительно увеличенным риском кровотечения, прежде всего, в желудочно-кишечном тракте и мозге. Клинически значимое кровотечение - геморрагический инсульт, кровотечение в мозгу, желудочно-кишечные кровотечения или кровотечения в других местах, которые требовали переливания или госпитализации - произошли у 361 человека (3.8 процента) на аспирине и у 265 (2.7 процента) принимающих плацебо.»

По самой меньшей мере, я предлагаю вам изменить рекомендацию с «аспирина» на «низкие дозы аспирина». В целом, я больше склоняюсь доверять полученным из вторых рук рассказам о предпечатных изданиях Кокрана, чем коллекции историй в медиа.

Добавлено 2 июня: Джим Бабкок сказал 28 апреля:

Моё первое исследование литературы нашло некоторые заявленные механизмы, которыми тромбоциты и тромбы могут служить как иммунная цель. Я не знаю, это ли происходит здесь, но есть возможность, что это работает как уменьшение температуры: полезно в экстремальных случаях, плохо в меньших случаях и рано в прогрессии.

Низкие дозы гепарина теперь кажутся общим протоколом больниц, так что данные должны быть ожидаемыми для этого сценария. Я не знаю, однако, какую рекомендацию дать меньшим случаям, самостоятельно лечащимся дома.

3H. Подумайте о том, чтобы предпринять более экстремальные меры, если у вас серьезные симптомы Ковида-19, или если у вас есть ресурсы, чтобы предпринимать дополнительные предосторожности.

Случаи от средних до тяжёлых могли бы получить пользу от кислородных концентраторов. Сара Константин обсуждает темы добавки кислорода: Добавка кислорода 101 + Исходы неинвазивной вентиляции + Как эффективна неинвазивная вентиляция для Ковида-19? (19-22 марта), Режим искусственной вентиляции лёгких постоянным положительным давлением для Ковида-19 (5 апреля); и Избегание интубации в ковидной тихой гипоксемии (все на английском) (4 мая). Коннор Флексман добавляет некоторые мысли (на английском) (17 марта).

Спекулятивно и рискованно, но: Если можете, вам может понадобиться приобрести хлорохин или гидроксихлорохин. Обязательно прочтите весь отчёт на https://www.google.com/url?q=https://www.google.com/url?q%3Dhttps://docs… (на английском).

Особенно для людей в группе риска, Анжали Гопал предлагает: «не могли бы вы подписаться […] на клинические испытания для антивирусных лекарств в ближайших исследовательских больницах? Некоторые появляющиеся исследования начали показывать эффективность ремдесивира, хлорохина и гидроксихлорохина в отношении Ковида, хотя, конечно, все это ещё очень спекулятивно и должно быть подтверждено рандомизированными контролируемыми исследованиями. (Многие из этих исследований открыты только для людей в группе риска [.)]» Элизабет ван Ностранд: «Одно место, которое я нашла, с рандомизированными контролируемыми исследованиями, это https://clinicaltrials.gov/ (на английском). Обычно я бы выяснила детали того, как присоединиться, но, предполагаю, сейчас они заняты.»

Добавлено 27 апреля: если вы беспокоитесь насчёт риска тромбов (обсуждается в 3G), вам могут понадобиться домашние тесты на коагуляцию.

  • 1. Для информации, вы одновременно предлагаете очень высокие дозы витамина Д, и сохранять низкие дозы витамина К (секция 2L). Я в основном читал рекомендации принимать оба вместе.

    Случайный не авторитетный источник: https://www.healthline.com/nutrition/vitamin-d-and-vitamin-k#section3 (на английском)

    Если просто, интоксикация витамином Д может вызвать отвердение кровеносных сосудов, в то время как витамин К может это предотвратить.

    РЕЗЮМЕ: Учёные не знают, является ли прием высоких доз витамина Д вредным, если недостаточно витамина К. Свидетельства предполагают, что это может быть поводом для беспокойства, но определенный вывод пока не может быть достигнут.

    Конечно, Ковид может не заботиться об этом, и я не знаю, как оценить относительные риски, но они, вероятно, должны быть указаны.

  • 2. Я удалил эту секцию, спасибо, Тобиас!
  • 3. И спасибо от меня в мою очередь, Роб! Я сейчас принимаю витамины Д и К2, и не знал, что К2 может влиять на тромбы в этом отношении. Совершенно точно, неприятный риск, но я рад знать о нём. Теперь нужно снова обдумать принятие этих добавок…
  • 4. Помечено как решенное
  • 5. Открыто повторно

    Я бы все равно склонялся к принятию витамина Д. Вся ситуация с тромбами запутана и недостаточно хорошо понята, насколько я знаю. Мы даже не можем быть уверенными, что уменьшение коагуляции в случайном человеке в целом полезно. Джим Бабкок комментирует:

    «Моё первое исследование литературы нашло некоторые заявленные механизмы, которыми тромбоциты и тромбы могут служить как иммунная цель. Я не знаю, это ли происходит здесь, но есть возможность, что это работает как уменьшение температуры: полезно в экстремальных случаях, плохо в меньших случаях и рано в прогрессии.

    Низкие дозы гепарина теперь кажутся общим протоколом больниц, так что данные должны быть ожидаемыми для этого сценария. Я не знаю, однако, какую рекомендацию дать меньшим случаям, самостоятельно лечащимся дома.»

  • 6. Ненужный плеоназм. ;-)
  • 7. Женщинам стоит заметить, что базовая температура изменяется до 1°F до/после овуляции.
Оцените качество перевода: 
Средняя оценка: 4 (8 votes)

Так ли очевидно «очевидное»?

Джордж Колэсрик

Эта статья посвящена теме, которую я уже несколько раз затрагивал в обсуждениях (English) и которая заслуживает большего внимания. Как правило, то, что само собой разумеется для одного человека, вовсе не обязательно будет таковым для другого. Очевидно ли это для вас? Возможно, да, и утверждение было для вас очевидным и до того, как был задан вопрос. Возможно, что вы ответили так только потому, что сработало суждение задним числом.

Представьте себе комментарий на Less Wrong — проницательный, вежливый, понятный — в общем, прекрасный во всех отношениях. А теперь представьте себе тот же комментарий, но только предваряемый словами «Общеизвестно, что». Казалось бы, это не меняет сути дела, но на деле единственное слово меняет комментарий к худшему в той степени, которую я не берусь определить.

Будь я настроен недоброжелательно, я мог бы свести описанный эффект к частному случаю ошибки, связанной с проекцией собственных представлений (English). Подразумеваемое умозаключение выглядит примерно так: «Я нахожу такое-то суждение очевидным. Следовательно, это суждение будет очевидным для всех». Трудность состоит в том, что оценка суждения как очевидного или вероятного — только порождение ума (English).

Клеймо «очевидности» идей связано с другой проблемой: «очевидное», скорее всего, не будет сказано вслух. Я не знаю, насколько универсально это утверждение, но точно могу сказать, что когда я проговариваю то, что мне кажется очевидным, я боюсь. Я боюсь, хотя пренебрежение этими опасениями не обязательно вызовет шквал презрительных комментариев. (Именно поэтому, на самом деле, я и пишу эту статью).

Даже те идеи, которые ретроспективно кажутся очевидными, бывает трудно предсказать. Сколько людей смогли бы со всей ясностью понять слабый антропный принцип1 без помощи Ника Бострома?

А как быть с теми предпосылками или убеждениями, которых вы уже придерживаетесь? Они должны быть очевидными, и иногда таковыми и являются, но не секрет, что наш мозг плохо складывает два и два. История Люка2 (English) показывает пример осознания того, что «Большой взрыв» идей, посетивших Люка, не был неизбежным. По крайней мере до тех пор, пока Люк не наткнулся на абзац из статьи И. Дж. Гуда. Я рад, что Люк снабдил меня примером, и я избавлен от необходимости придумывать собственный.

Перефразируя Элизиера, это вовсе не была «молния инсайта».

Я поднимаю вопрос об «очевидном», поскольку предлагаю сообществу ввести ряд норм:

  • Не бойтесь говорить что-то только потому, что оно «очевидно». Что-то вроде этого всегда говорили учителя: глупых вопросов не существует.
  • Не снабжайте классные идеи оговоркой «это общеизвестно, но все же стоит сказать, что…».
  • Не «минусуйте» без раздумий комментарий потому, что он сообщает нечто «очевидное». Не избегайте «очевидных» идей.
  • Не называйте идею очевидной, так, будто очевидность — ее неотъемлемое свойство. Может быть, в какой-то ситуации назвать нечто «очевидным» — это самый точный способ высказать то, что вы думаете, однако довольно трудно сделать это так, чтобы не выглядеть высокомерным. (Подозреваю, что на самом деле это одна из причин, по которой мы в таких ситуациях избегаем «я» и выбираем безличные формы: «это очевидно» или «общеизвестно, что…»).

Я не утверждаю, что предложенные нормы безусловно хороши, но полагаю, что их осуществление уменьшит количество мыслей, которые нельзя думать и слов, которые нельзя произносить.

  • 1. Даже если вы далеки от философии и физики, вы могли слышать о связанной с антропным принципом «проблемой наблюдателя». Вкратце ее можно сформулировать так: наблюдатель влияет на наблюдаемое. Результаты эксперимента, исследования и т.д. всегда зависят от условий наблюдения, одним из которых является наблюдатель.
    Сегодня влияние наблюдателя на объект и результат наблюдения общеизвестно и кажется простой и логичной идеей, до которой может додуматься всякий, однако чтобы сформулировать этот принцип и его следствия, понадобилось создать и усвоить теорию относительности. Идеи, которая время спустя кажутся простыми и логичными, далеко не всегда очевидны в момент их рождения (Прим. перев.).
  • 2. В статье идет речь о столкновении (автор буквально говорит об ошеломляющем столкновении «лоб в лоб») Люка, одного из активных авторов Less Wrong, с поразившей его работой И. Дж. Гуда. Люк приводит цитату, которую можно свести к следующему утверждению: как только человек изобретет машину, более умную, чем ее создатель, это станет последним изобретением человечества. Люк всерьез задумался над этим утверждением, и попытка опровергнуть идею, высказанную в цитате, и ряд следствий этой идеи перевернула его жизнь (Прим. перев.).
Перевод: 
Дарья Колотова
Оцените качество перевода: 
Средняя оценка: 3.7 (7 votes)