Главное > Общение

Реалистично ли взрывное самоусиление ИИ?

<< < (9/9)

sergeyr:

--- Цитата: Ved от 17 Октября 2016, 20:15 ---кроме того, мне лично импонирует пример с дополнительными измерениями, потому что в его пользу говорит одно дополнительное слабое свидетельство: он решает парадокс Ферми.
--- Конец цитаты ---
Парадокс Ферми решается намного проще и естественней: цивилизации не выживают, ресурсный кризис и случайности кончают их с той же неумолимостью, как аналогичные явления кончают каждый отдельный биологический организм любого вида в земной биоте.
Современные знания указывают именно на это решение парадокса Ферми, и придумывание другого решения через введение лишних сущностей (в виде _практически доступных_ дополнительных измерений) - это, на мой взгляд, проявление когнитивного искажения (преувеличение вероятности желаемого события, aka оптимистическая защитная реакция).
(Именно поэтому я с одобрением наблюдаю за деятельностью Юдковски, хотя и не считаю предотвращение угрозы ИИ приоритетным направлением. Дружественный ИИ нужен, на мой взгляд, не для того чтобы предотвратить катастрофу, вызванную недружественным ИИ, а для того, чтобы хотя бы попытаться предотвратить куда более вероятную ресурсную катастрофу и куда более страшный класс катастроф-случайностей в целом.)

Навигация

[0] Главная страница сообщений

[*] Предыдущая страница

Перейти к полной версии