Безопасность искусственного интеллекта — различия между версиями

Материал из Вики LessWrong.ru
Перейти к: навигация, поиск
(Исправлено окончание слова.)
м (Уровень заголовков)
Строка 1: Строка 1:
 
'''Задача безопасности искусственного интеллекта''' состоит в том, чтобы создание в будущем сильного искусственного интеллекта оказало положительное влияние на человечество и не оказало отрицательного.
 
'''Задача безопасности искусственного интеллекта''' состоит в том, чтобы создание в будущем сильного искусственного интеллекта оказало положительное влияние на человечество и не оказало отрицательного.
  
=== Статьи по теме ===
+
== Статьи по теме ==
 
* [https://lesswrong.ru/node/1058 Соответствие ИИ целям оператора] - сборник переведенных статей на тему безопасности ИИ, написанных исследователями из [[MIRI]] и другими авторами, близкими к сообществу рационалистов.
 
* [https://lesswrong.ru/node/1058 Соответствие ИИ целям оператора] - сборник переведенных статей на тему безопасности ИИ, написанных исследователями из [[MIRI]] и другими авторами, близкими к сообществу рационалистов.
  
=== См. также ===
+
== См. также ==
 
* [[Machine Intelligence Research Institute]]
 
* [[Machine Intelligence Research Institute]]
  
=== Ссылки ===
+
== Ссылки ==
 
* [https://aisafety.ru/ Сайт с переводами статей на тему безопасности ИИ]
 
* [https://aisafety.ru/ Сайт с переводами статей на тему безопасности ИИ]
  
 
[[Категория:AI Safety]]
 
[[Категория:AI Safety]]

Версия 20:37, 21 января 2023

Задача безопасности искусственного интеллекта состоит в том, чтобы создание в будущем сильного искусственного интеллекта оказало положительное влияние на человечество и не оказало отрицательного.

Статьи по теме

  • Соответствие ИИ целям оператора - сборник переведенных статей на тему безопасности ИИ, написанных исследователями из MIRI и другими авторами, близкими к сообществу рационалистов.

См. также

Ссылки