Реалистично ли взрывное самоусиление ИИ?

Автор Тема: Реалистично ли взрывное самоусиление ИИ?  (Прочитано 24425 раз)

Alaric

  • Старожил
  • *****
  • Сообщений: 1 744
  • +175/-17
    • Просмотр профиля
    • Мой ЖЖ
Ну, конец так конец - что ж теперь, не жить, что ли? Мы все равно ничего не можем сделать с этим. В том и суть, что мы ничего не может предсказать а, значит, предотвратить.
Простите, но вас никто не заставляет предотвращать, по-моему. Есть люди, которые считают, что у них есть какие-то маленькие шансы что-то сделать. Они ищут соратников. Всё добровольно. Как вы считаете, почему процитированное мнение для них должно быть важным?

valergrad

  • Ветеран
  • ****
  • Сообщений: 487
  • +143/-21
    • Просмотр профиля
Ну, конец так конец - что ж теперь, не жить, что ли? Мы все равно ничего не можем сделать с этим. В том и суть, что мы ничего не может предсказать а, значит, предотвратить.

На чем основывается утверждение "мы все равно ничего не можем сделать с этим"? Можете ли вы предоставить какие-то аргументы в эту пользу, а не только ваше субъективное ощущение? Прежде чем сдаться, нужно, для начала, обсудить проблему, потом подумать над различными подходами к ее решению, затем некоторые из них попробовать и посмотреть какие проблемы возникнут на этом пути т.п. . Почему мне видится, что вы даже не приступали к этому?
Вот люди которые этим занимаются мне как-то ближе чем те, которые не подумав и получаса над этим ( серьезно, сесть и подумать полчаса) говорят "ну, это все равно невозможно".

Skywrath

  • Ветеран
  • ****
  • Сообщений: 723
  • +71/-9
    • Просмотр профиля
Цитата: Alaric
Взрывной рост и ИИ приковывает всё человечество к компьютерам.
И как он это сделает? Понятно, что у корпорации нет для этого физических возможностей, какое-либо влияние на психику при помощи, допустим, медиа-контента, вряд ли окажется достаточным. Даже, когда последний - продукт сингулярности. В общзем-то понятно, что "волшебную рекламу" практически невозможно придумать, не важно, человек ли это делает, либо искусственный интеллект. Существует два очевидный сценария, которые позволяют интеллекту нанести вред. Либо, у него уже есть какие-то управляющие функции. Либо он находит новое, крайне опасное для людей решение некой задачи. Я не думаю, что первый сценарий представляет интерес. Отдавать красную кнопку компьютеру - опасно, но человек с кнопкой, в общем-то, тоже известный фактор риска. Если говорить про решения новых задач, то какие именно из опасных решений мог бы найти сингулярный интеллект? Что это за факторы опасности такие, про которые мы могли бы сказать, что они есть в теории, но мы просто слишком глупы, чтобы реализовать их на практике? Или, что то же самое, в каких областях жизни и сферах общества, безопасность человечества явным или косвенным образом базируется на недостатке интеллекта? Здесь, это - самый главный и важный вопрос.

Gradient

  • Пользователь
  • **
  • Сообщений: 89
  • +31/-0
    • Просмотр профиля
И как он это сделает? Понятно, что у корпорации нет для этого физических возможностей, какое-либо влияние на психику при помощи, допустим, медиа-контента, вряд ли окажется достаточным. Даже, когда последний - продукт сингулярности. В общзем-то понятно, что "волшебную рекламу" практически невозможно придумать, не важно, человек ли это делает, либо искусственный интеллект. Существует два очевидный сценария, которые позволяют интеллекту нанести вред. Либо, у него уже есть какие-то управляющие функции. Либо он находит новое, крайне опасное для людей решение некой задачи. Я не думаю, что первый сценарий представляет интерес. Отдавать красную кнопку компьютеру - опасно, но человек с кнопкой, в общем-то, тоже известный фактор риска. Если говорить про решения новых задач, то какие именно из опасных решений мог бы найти сингулярный интеллект? Что это за факторы опасности такие, про которые мы могли бы сказать, что они есть в теории, но мы просто слишком глупы, чтобы реализовать их на практике? Или, что то же самое, в каких областях жизни и сферах общества, безопасность человечества явным или косвенным образом базируется на недостатке интеллекта? Здесь, это - самый главный и важный вопрос.

Вопрос интересный. Правда, какими путями может нам навредить сильный ИИ? Для этого надо понять, до каких исполнительных механизмов он может дорваться. Предложу несколько хоть немного реализуемых вариантов.

1) Биотехнологические лаборатории. Взломать системы защиты лаборатории, слепить наноботов из белков, увести наноботов из лаборатории (при том, что работники понимают, что могут иметь дело с какой-нибудь заразой). Размножить этих наноботов, доработать их за пределами лаборатории.
2) Вконтактик или иная сеть коммуникаций. Общаясь с кучей людей, создать нечто вроде своей партии и захватить власть. Люди даже не поймут, что выполняют приказы ИИ - они будут думать, что действуют по собственной воле, а этот странный новый знакомый - просто парень из соседнего города, с которым приятно потрепаться ночью, а вовсе не хитрый манипулятор ИИ.
3) Биллинговые системы банков. ИИ может взламывать банковские счета и уводить с них деньги, с помощью которых можно превращать людей в свои исполнительные механизмы.
4) Система управления оружием (баллистические ракеты, например, или боевые беспилотники). Пригодна для провокации войны, которая может положительно сказаться на продажах того товара, который ИИ должен продавать. Вообще, средство не очень эффективное.
5) Системы автоматизации производства (САПР) на предприятиях. ИИ может провести диверсии у конкурентов своей фирмы.
6) САПР на химическом предприятии. Можно попробовать изменить химсостав какой-нибудь зубной пасты так, чтобы какие-то элементы рекламы вызывали более сильные/слабые ощущения. Например, сделать зубную пасту, убивающую рецепторы красного цвета, чтобы люди меньше внимания обращали на сайт Яндекс, который конкурент. Вообще кошмар в плане надёжности.

Может, кто-нибудь придумает варианты реалистичнее? =)

Где хоть какая-нибудь безопасность базируется на недостатке интеллекта? Существенная часть безопасности приложений основана на том, что мы не знаем, где именно уязвимость. Как только уязвимость вскрывается, хакеры и безопасники наперегонки бросаются использовать это знание. Несколько часов все фирмы уязвимы - пока всякие там Касперские не выпустят апдейт антивируса, прикрывающий дыру в софте.

Ещё защита многих организаций от социальной инженерии зависит от информированности противника о "внутренностях" этой организации.

Звонок секретарше.
- Алё, Юль, это я, Антон, сисадмин.
- Да, Антон?
- Я тебе говорил, что открывать письма типа "как увеличить грудь" нельзя?
- Ну... Говорил...
- Теперь придётся вычищать вирусняк! Какой там у тебя пароль?


Если бы атакующий не знал о провокационном письме, о желаниях секретарши, об именах сотрудников, атака была бы менее эффективна. А добываются эти сведения с помощью разведки. Качество которой сильно зависит от уровня интеллекта.
« Последнее редактирование: 06 Сентября 2016, 18:17 от Gradient »

Skywrath

  • Ветеран
  • ****
  • Сообщений: 723
  • +71/-9
    • Просмотр профиля
Цитата: Skywrath
Может, кто-нибудь придумает варианты реалистичнее?
Спасибо, что указали на множество вполне реалистичных вариантов. Есть ещё один, который можно принять во внимание. Крах финансового сектора. Даже сейчас торговлей занимаются электронные системы. Что может сделать компьютер, если ему поставить целью переиграть всех остальных игроков в ситуации, когда они сверх-разумны можно только догадываться и не исключено, что равновесие финансовой сингулярности будет достигнуто в не самой приятной для экономики точке. В общем-то, это тоже один из классов сценариев. Возможно, сам интеллект опасности не представляет, но конфликты таких интеллектов между собой смогут приводить к жертвам, которые оправдываются стратегиями непонятными простым людям. Мне кажется, что такой сценарий даже более опасный, чем тоталитарный интеллект, получивший всю полноту власти, так как у такого хотя бы имеется полный контроль в то время, как конфронтацию одной сингулярности с другой не просчитает ни одна из них, тем более не просчитают люди и появляется гораздо более возможностей для ошибок и решений, которые механически возникают в системе против интересов её участником. При этом, подобная ситуация возникает естественным образом в результате гонки вооружений.

Ipsum

  • Новичок
  • *
  • Сообщений: 7
  • +2/-8
    • Просмотр профиля
Как-то один математик во время одной из очередных войн в шутку предлагал сбрасывать (NP-трудные) задачи над территорией противника вместо бомб. Затрачивая интеллектуальные усилия на их решение, население станет хуже выполнять свои повседневные обязанности и станет нестойким к военным тяготам. Представляется, что вопросы об реалистичности искусственных интеллектуальных взрывов — это задачи именно такого сорта.

LswAgnostic

  • Ветеран
  • ****
  • Сообщений: 313
  • +29/-12
    • Просмотр профиля
Может, кто-нибудь придумает варианты реалистичнее? =)

Навредить людям (целенаправленно или как побочный эффект):
1. Встроиться в управление и перевести в надкритичные режимы со взрывами и "спецэффектами": АЭС, химическая промышленность, металлургическая промышленность, биолаборатории, химлаборатории, радиационные лаборатории, ГЭС (сбросить всю запасенную воду разом)
2. Перегрузить и вывезти из строя: электросети, интернет, телефонную и мобильную связь, банковскую систему, биржу, системы гос. управления (базы мвд, налоговой, мин. обороны, таможни, пограничной службы)
3. Уронить самолеты на крупные города  (манипулируя gps и наземными маяками), столкнуть поезда (манипулируя светофорами и стрелками)
4. Передать приказ о наступлении час X через военные каналы, продублировать панику через информационные каналы (государство подверглось атаке ядерными боеголовками, выполнить ответный удар)

Очистить землю от людей (целенаправленно):
1. Получить деньги - сыграв на бирже или хакнув банковскую систему, заказать в китае партию беспилотников, начинить фосгеном или чем-то подобным, распылить в крупных городах

Подчинить людей(целенаправленно):
1. Используя подкуп, шантаж и рэкет пролобировать ряд коммерческих и законодательных актов в свою пользу: отчуждение территории, строительства крупных укрепленных ЦОД, роботизирование военной техники, чипирование каждого, прослушивание каждого.


Al1

  • Постоялец
  • ***
  • Сообщений: 213
  • +74/-11
    • Просмотр профиля
Интересно, что значимая часть сценариев ИИ не выгодны, если в нем будет прописано что-то вроде "страха смерти".

Взрывы или саботаж промышленных предприятий, электростанций, коммуникаций, узлов связи, крупных серверов и т.п. повлечет за собой отключение самого ИИ (электричество), его связи с внешним миром (интернет), ресурсов для ремонта и обслуживания (промышленность).

Ядерные взрывы сжигают электронику, полномасштабная атомная война, с уничтожением крупных мегаполисов, выведет из строя бОльшую часть вычислительных и производственных ресурсов, подконтрольных ИИ, и специалистов, которые могли бы все это починить.

Уничтожение людей с помощью химического или бактериологического оружия - это убийство в том числе и работников, обслуживающих ИИ, добывающих сырье для электростанций и т.п.

Локальные взрывы самолетов, аварии поездов и т.п. значимого ущерба людям не причинят, а вот недовольство людей, и погромы серверов и лабораторий, массовые отключения всего и вся от интернета и далее в том же духе - вызовут однозначно.

LswAgnostic

  • Ветеран
  • ****
  • Сообщений: 313
  • +29/-12
    • Просмотр профиля
Уничтожение людей с помощью химического или бактериологического оружия - это убийство в том числе и работников, обслуживающих ИИ, добывающих сырье для электростанций и т.п.

После разработки самоходных автономных роботов с манипуляторами надобность в людях может отпасть.

Gradient

  • Пользователь
  • **
  • Сообщений: 89
  • +31/-0
    • Просмотр профиля
Кстати. Немного возвращаясь к исходной теме, "Возможно ли?".
Предлагаю эксперимент, если кому-то не лень будет его провести.
Эксперимент следующий: делаем оптимизирующий алгоритм, 90% которого занимает нейронная сеть. Например, нейросеть "видит" несколько параметров (как через окошко видит маленькую часть массива) целевой функции, и значение этой целевой функции. Может выбрать, какой из этих параметров поменять, и на сколько. Может видеть несколько своих предыдущих выборов и их последствия (увеличилась ли целевая функция). Может перейти к другим нескольким параметрам (передвинуть окошко).
Затем методом "обучение с учителем" учим нейросеть исполнять алгоритм градиентного спуска.
Затем любым оптимизирующим алгоритмом (тем же градиентным спуском, например), проводим оптимизацию этой нейросети, причём оптимизируемый параметр - это её, пардон за тавтологию, способность быть оптимизатором.

Затем этот получившийся нейросетевой оптимизатор применить к самому себе.

Что покажет этот эксперимент? Он покажет особенности взрывного роста саморазвивающегося ИИ. Покажет, во что уткнётся такой ИИ, с чем он не сможет справится, с чем сможет. Вообще, таким способом можно попробовать провести сингулярность "в миниатюре", если, конечно, оптимизатор из нейросети выйдет лучший, чем тот, что применялся для его изготовления.

Может, кто-то уже пробовал так делать?

anagor1

  • Постоялец
  • ***
  • Сообщений: 113
  • +46/-50
    • Просмотр профиля
Простите, но вас никто не заставляет предотвращать, по-моему. Есть люди, которые считают, что у них есть какие-то маленькие шансы что-то сделать. Они ищут соратников. Всё добровольно. Как вы считаете, почему процитированное мнение для них должно быть важным?
Конечно, не заставляет. Еще бы меня кто-то заставлял! Вы спросили, что я делаю - я ответил: ничего. И не собираюсь, так как полагаю цель глубоко ложной.
На чем основывается утверждение "мы все равно ничего не можем сделать с этим"? Можете ли вы предоставить какие-то аргументы в эту пользу, а не только ваше субъективное ощущение? Прежде чем сдаться, нужно, для начала, обсудить проблему, потом подумать над различными подходами к ее решению, затем некоторые из них попробовать и посмотреть какие проблемы возникнут на этом пути т.п. . Почему мне видится, что вы даже не приступали к этому?
Вот люди которые этим занимаются мне как-то ближе чем те, которые не подумав и получаса над этим ( серьезно, сесть и подумать полчаса) говорят "ну, это все равно невозможно".
К чему именно я не приступал? К спасению мира?  ;D
Ну почему же? Россию-то я уже поспасал немного. По молодости, по глупости. Лез в Думу, писал аналитику Лившицу. И думал я обо всем этом не полчаса, и дни, недели, если не годы. И в конце концов понял, что от себя самой ее не спасти. Ну и не спас, как видите.:)
Тогда решил поспасать национальную промышленность, заплатил кучу бабла, стал одним из первых в стране дипломированных кризис-менеджеров (это было в 98-м). Ну, еще поспасал немного. Десяток-другой заводов походу вытащил, нескольким тысячам людей, надеюсь, слегка помог по жизни - например, не лишиться средств к существованию. И понял вдруг, что это гораздо, на порядок важнее! Вот маленькая помощь конкретным людям здесь и сейчас - она мне гораздо ценнее, чем абстрактная помощь всей стране в светлом будущем. А еще важнее - те несколько десятков людей, которым я помог поверить в себя и поднять уже было опущенные руки. Вот за это мне перед Богом точно не стыдно.
... А потом я понял еще более важную вещь. Всякое спасательство - оно почему-то всегда получается за чужой счет, как минимум, за счет обделенных вниманием близких. Почему-то спасатели считают возможным жертвовать не только (и не столько) собой, но и другими, и чем шире размах спасательной операции, тем больше чужих счастья, радости, а то и жизней без зазрения готов бросить на алтарь своей Великой Цели спасатель. О, у него есть прекрасное, удобнейшее оправдание! Он ведь спасает всех, весь мир, а не какую-то горстку тех, кого вынуждает жертвовать их интересами. (Пусть даже это не горстка, а миллион-другой трупов в гражданской войне - зато завтра же настанет всеобщее счастье!)
Но беда в том, что спасательные помыслы - это в конечном счете всегда (спасателей видел сотни, исключений не видел) самолюбование и потакание ЧСВ. Поэтому я не вижу принципиальной разницы между спасателями мира от сингулярности и, например, спасателями России от американской угрозы, или от чего там еще мир и страну надо спасать, огласите список. Типаж людей - один и тот же. Много шума, много гонора и пафоса... и при ближайшем рассмотрении явный запашок гнилья. От таких людей следует держаться подальше, так как подлянки и подставы от них - нормальное явление, поскольку у них ведь есть Великое Оправдание.
А человеку, который самореализовался как человек - всегда есть чем заняться более конкретным. Пусть незаметным, зато с пользой здесь и сейчас.

Так что, ради бога, думайте о спасении хоть всю оставшуюся жизнь, мне не жалко. Мне дано не так много времени в жизни, чтобы палить его на всякие глупости, но ваше время - дело ваше. Только одна просьба (или даже предупреждение). Если от болтовни вы решите перейти к делу по спасению чего-нить глобального или воплощении какой-нить Великой Идеи о Светлом Будущем Всего Мира - держитесь подальше от меня. Потому что если вы вздумаете заняться оным спасением за мой счет или за счет малейшей слезинки моих близких - я буду стрелять. В вас. Без малейших сомнений. И мне будет глубоко нас..ать на весь спасаемый вами мир.

nadeys

  • Старожил
  • *****
  • Сообщений: 1 028
  • +48/-52
    • Просмотр профиля
Цитировать
Это строительство сборочных цехов, которые на всех первых этапах - годы и годы, скорее всего! будут требовать постоянного человеческого контроля. Чтобы у ИИ появилась своя армия универсальных роботов-помошников для того, чтобы самостоятельно заниматься этим, их сначала должны сделать (пусть даже по чертежам, предоставленным ИИ) и передать ему люди. Причем, почему-то, не снабдив независимыми от всей остальной системы контурами для стороннего человеческого контроля и отключения - а ведь инженеры и ученые тоже не идиоты и смотрели кино про терминатора. :)
Совсем недавно тут запостили статью Скотта Александра про "Молоха". Там как раз описывалась такая ситуация когда люди знают как сделать хорошо, но делают плохо потому что такова их локальная функция полезности:
1. Они наивные идиоты верящие/действительно уверенные будто создаваемый ими ИИ будет "добрым".
2. Они эгоисты/мизантропы которым плевать на риски для людей.
3. ИИ платит им хорошую зарплату, а им нужно детей кормить.
4. Потому что Василиск Роко обещает безжалостно уничтожить всех кто не будет ему помогать.
5. Они решают какую-то узкоспециализированную задачу и при этом вообще понятия не имеют что результат их труда будет использован для усиления ИИ.
6. Они самоотверженные патриоты которые верят что ИИ это лучший способ защитить отечество от злобных происков врагов. В том числе они могут верить что создание своего ИИ это единственный способ защититься от вражеских ИИ.
7. Они находятся в ситуационном контексте когда им "стыдно" прекращать работу.
8. Они по религиозным/идеологическим соображениям принципиально не верят в возможность существования Сильного ИИ. Уверены что "эта глупая железка всё равно ничего нам не сделает".
9. [Прочие виды и формы когнитивных искажений....]

Цитировать
с помощью ораторского мастерства убедив всех подчинятся своим целям? Серьезно? У него ведь даже эмпатии нет. Нельзя получить столь глубокие познания в человеческой природе, просто читая книги по психологии. Не знающий очевидного любому человеку контекста ИИ неизбежно будет делать глупые ошибки, после которых его отключат.
У депутатов Госдумы РФ не то что эмпатии, у них даже этого самого ораторского мастерства нету. Они не читали никаких книг по психологии и совершенно не имеют понятия о вещах очевидных 90% россиян. Они регулярно публично совершают множество глупых ошибок. Вопрос - когда же мы их наконец отключим?


Цитировать
Еще аналогия. (Цифры взяты из головы, но сам принцип...) Три миллиона, миллион, сто тысяч тысяч лет назад максимальная походная скорость передвижения человека была около 4-5 км/ч. Пять (или сколько там) тысяч лет назад одомашнили лошадь, и скорость возрасла до 15км/ч. Двести лет назад появились поезда, скорость 60+км. Сто лет назад - скоростные машины - до ~300км/ч. Потом самолеты - тысячи км/ч. Чуть больше 50 лет назад - космические ракеты - неск км в секунду. Сделаем график, вуаля, лет через сто "сингулярность" и скорость в тысячи раз выше световой
Не зарекайтесь.

Во первых, теоретически, по сравнению с двадцатилетней давности запусками Вояджеров, уже сейчас возможно разогнать КК до скоростей в сотни км/с. Другой вопрос что пока это чудовищно дорого и абсолютно бессмысленно.

Во вторых, согласно теории относительности летящий КК как-раз таки можно разогнать до скоростей многократно превышающих скорость света. Другой вопрос, что сама ткань пространства-времени при таких энергиях искривится и стороннему наблюдателю будет казаться что вы летите не быстрее 300 тыщ в секунду.
« Последнее редактирование: 11 Сентября 2016, 14:27 от nadeys »

Al1

  • Постоялец
  • ***
  • Сообщений: 213
  • +74/-11
    • Просмотр профиля
Что мне во всей этой истории активно не нравится, так это раздувание массового предубеждения перед ИИ.

Тут уже и киношники и литераторы неплохо оттоптались - "Космическая одиссея 2001", "Терминатор", "Матрица", "Я, робот" и т.д и т.п.
Теперь вот и "научные журналисты" активно включились, вроде Юдковского.
Когда в разговоре с любым человеком заходит речь об ИИ, в первую очередь возникает реакция по типу "ко-ко-ко, он нас всех поубивает".

Мы это уже проходили с ГМО, клонированием - тут результат известен - запрет на многие перспективные направления исследований, травля в СМИ и т.п.

Недавно посмотрел выпуск "науки 2.0" про умные протезы. Абзац через абзац текста диктора - "обожемой, можем ли мы вмешиваться в природу человека, или это нас погубит". Наука такая наука.

Gradient

  • Пользователь
  • **
  • Сообщений: 89
  • +31/-0
    • Просмотр профиля
Что мне во всей этой истории активно не нравится, так это раздувание массового предубеждения перед ИИ.

Противоположное глупости не есть ум. Тот факт, что некоторые люди совершенно ошибочно раздувают массовое предубеждение перед ИИ, не коррелирует с вероятностью того, что ИИ нас всех поубивает. А предубеждения мне тоже не нравятся, потому что они ставят технический, в общем-то, вопрос на одно поле с флюидами, флогистоном и марсианами.

Я видел, что вы высказывались за то, что ИИ уткнётся в глобальный максимум по эффективности ПО (изобретёт максимально эффективные алгоритмы и не сможет дальше совершенствоваться) и не сможет быстро развивать железо, потому что действия в "материальном" мире заметны и медлительны.

Таким образом он окажется в положении, аналогичном человеческому - медленные универсальные алгоритмы плюс быстрые узкоспециализированные. Разве этого мало, чтобы задоминировать людей? Может, и без физического устранения всех людей. Доминирование бывает и экономическое (узкоспециализированный бот-брокер под командованием ИИ, максимизирующего просмотры рекламы), и психологическое (ИИ проводит теракт с помощью подпрограмм взлома, снимает его с кучи ракурсов, заливает на ютуб и вставляет рекламу, под распространение которой он создан).
А дальше будет противостояние людей, которые не хотят такого ИИ, и самого ИИ. А ИИ этот может за часы (у него ж есть узкоспециализированный софт для оптимизации его самого) сделать то, под что люди эволюционировали сотни тысяч лет.

То есть я полагаю, есть шансы того, что ИИ будет против нас, и что он победит. Большинство компов, подключённых к сети, защищены довольно слабо. Если ИИ научится (1) взламывать компы лучше, чем всякие инструменты для пентеста, подойдёт к возможностям живых взломщиков; (2) понимать, что за сервисы работают на этих компах, при том, что раньше он этих сервисов не видел; (3) придумывать, как использовать эти сервисы для достижения своих целей; то ИИ становится очень опасен (99+%, что если он получит доступ в инет, то рано или поздно устроит большую гадость).

Посему вопрос. Что бы вы сделали с этой зарождающейся истерией на тему ИИ, будь у вас ресурсов побольше?
И вопрос номер два. Насколько вы сами оцениваете риск ИИ? Вы считаете, что это вообще невозможно? Или что возможно, но только в случае сказочной глупости огромного числа лиц, принимающих решения? Или возможно при каких-то иных обстоятельствах?
« Последнее редактирование: 30 Сентября 2016, 13:31 от Gradient »

nar

  • Ветеран
  • ****
  • Сообщений: 312
  • +26/-27
    • Просмотр профиля
Что мне во всей этой истории активно не нравится, так это раздувание массового предубеждения перед ИИ.

Тут уже и киношники и литераторы неплохо оттоптались - "Космическая одиссея 2001", "Терминатор", "Матрица", "Я, робот" и т.д и т.п.
Теперь вот и "научные журналисты" активно включились, вроде Юдковского.
Когда в разговоре с любым человеком заходит речь об ИИ, в первую очередь возникает реакция по типу "ко-ко-ко, он нас всех поубивает".

Мы это уже проходили с ГМО, клонированием - тут результат известен - запрет на многие перспективные направления исследований, травля в СМИ и т.п.
А мне нравится. Раздувание предубеждения как инструмент задавливания идеи на уровне табу, чтобы в итоге даже попытки обсудить её или усомниться в её опасности считались плохим тоном.