Там сказано как. Если вкратце, насколько я понял, оценка просто получается из того, когда у нас оценочно накопятся мощности, достаточные, чтобы промоделировать одновременно столько нейронов, сколько есть в человеческом мозге.
Да-да. Именно это я и подозревал. Безнадёжно оптимистичный прогноз. Он кстати учитывал наблюдаемое замедление закона Мура или нет?
А в чём проблема? Если у нас есть некий интеллект, его можно заставить решать задачки. Да, конечно, нет особой пользы от того, чтобы создать копию человека и заставить её решать задачки. Однако, мощности будут расти и дальше, и если мы сможем создать копию человеческого мозга, то после этого, мы сможем создать копию человеческого мозга, которая будет работать также эффективно, но быстрее. Т.е. будет решать те же задачки, что и человек, но быстрее.
Он не будет решать. Человек в состоянии сенсорной депривации быстро вваливается в совершенно непродуктивное состояние. Придётся создать этому человеку ещё и сенсорный вход. Причём интерактивный, потому что рефлекторные дуги замыкаются снаружи в рефлекторные кольца. Потому что если человек нахмуривает брови, то он получает в ответ кинестетические ощущения характеризующие гримасу "нахмуренные брови" и эти ощущения существенно меняют состояние психики -- достаточно существенно, чтобы зарегистрировать это экспериментально. Мысля человек проговаривает слова, сигналы уходят к мышцам и возвращаются обратно снимаемые с проприорецепторов, искусственное создание помех в этом процессе существенно замедляет способность человека решать задачи.
Короче, придётся создать не только виртуальный мозг, но ещё и виртуальное тело, а скорее всего ещё и пару десятков кубометров виртуального пространства вокруг этого тела. И симулировать всё это, только для того, чтобы мозги оставались бы в работоспособном состоянии.
Во-вторых, спор об этике в данном случае, по-моему, упирается в спор о том, что такое сознание, и меня не тянет в нём участвовать. "Выключить её - значит убить человека" к тому же очень напоминает презумпцию типичности.
В-третьих, я подозреваю, что прогресс всё равно не остановить, и кто-нибудь это неизбежно всё равно сделает (причём, почти наверняка этим кем-то будет не Марков, потому что соответствующие мощности почти наверняка раньше появятся не в России), а вопросы этичности (если они действительно есть) нам придётся разбирать когда что-нибудь "рванёт", как это всегда и бывает.
То есть, если нет твёрдой уверенности в том, что деяние крайне неэтично, значит можно его совершить? Если кто-нибудь другой обязательно совершит это сомнительное деяние, значит и нам можно? Это довольно шаткая этическая позиция.
Впрочем вопрос об этике на самом деле оффтопичен, но я говорил об этике не с целью обсуждать этику, а как пример потенциального источника проблем, которые не учитывались при расчёте дедлайна 2030 года. Вне зависимости от того, допустимо ли с этической точки зрения создавать рабочую копию человеческого мозга или нет, в любом случае -- это этическая проблема, потому что вопрос не имеет лежащего на поверхности очевидного ответа. А это значит, что найдутся те, кто будет ломать копья в этом споре. А ну-ка, представьте, РПЦ встанет дыбом, хомячки выйдут на улицы и будут требовать прекратить издевательство над бедными виртуальными людьми. "Рукотворный виртуальный ад и учёные -- черти его." Законопроект запрещающий создание копий мозга человека. И далее по тексту...
Речи этих специалистов в ИИ, вообще вызывают в моей памяти высказывание Козьмы Пруткова: "специалист подобен флюсу, потому что он односторонен". Вспоминаются слепцы, исследующие слона методом ощупывания одной части этого слона. Они то ли игнорируют наблюдаемую эмерджентную сложность человеческой психики, то ли полагают что если эта сложность сэмерджится на виртуальных нейронах, то они каким-то чудом получат возможность проектировать искусственные интеллекты под произвольные цели. Ну-ну. На мой взгляд, если добавить пессимистичности в закон Мура, то можно сделать предсказание, что к 2035-2040 году создадут виртуальную копию головного мозга, которая станет не ИИ, а объектом исследования учёных-когнитивистов (это и ИИ, и нейронаука, и психология, и... ну тот шестиугольник Милллера). И вот затем... Мне сложно оценить сколько времени потребуется на исследование столь удобной модели для исследования. Вероятно дохрена, вероятно придётся сначала дождаться развития техники, когда эту модель сможет запустить у себя на десктопе любой молодой учёный, когда над этой моделью начнут работать параллельно тысячи исследователей, и вот после этого... может лет десять? То есть году эдак к 2070?
Добавлено 19 Июня 2016, 14:52:Кстати, мне в голову пришёл показательный пример-аналогия: декодирование ДНК. Где-то в районе 2000 года секвенировали генотип человека. Журналисты тогда ещё истерику закатили, мол, все загадки человека решены. Прошло около пятнадцати лет и какие результаты мы наблюдаем? Мы продолжаем узнавать всё больше и больше -- постоянно выясняют функции то одного, то другого гена. Это круто. Но где практический выхлоп?
Технологии секвенирования ДНК охрененно помогли биоинженерии и поэтому ГМО стали обыденностью. Но в ГМО в общем нет чего-то принципиально нового, ГМО делают с 1970-какого-то там года. Да, знание содержимого ДНК и возможность сравнивать ДНК разных людей позволяет выяснить механизмы тех или иных заболеваний. Иногда это приводит к возможности вмешаться в эти механизмы и вылечить болезнь, хотя бы симптоматически. Но исправить кривой ген пока никак.
Может быть учёные теперь могут создать человека в пробирке? Нет. Пока нет. Высшее достижение -- создание бактерии. И даже с модифицированные генетическим алфавитом. Но бактерии. Одноклеточного существа.
И создание копии человеческого мозга я вижу примерно таким же прорывным достижением, как и секвенирование ДНК человека. Круто! Выход на новый уровень! Да, но сам по себе выход на новый уровень даёт лишь возможность для исследователей более эффективно исследовать.