Безопасность искусственного интеллекта — различия между версиями
(Исправлено окончание слова.) |
м (Уровень заголовков) |
||
Строка 1: | Строка 1: | ||
'''Задача безопасности искусственного интеллекта''' состоит в том, чтобы создание в будущем сильного искусственного интеллекта оказало положительное влияние на человечество и не оказало отрицательного. | '''Задача безопасности искусственного интеллекта''' состоит в том, чтобы создание в будущем сильного искусственного интеллекта оказало положительное влияние на человечество и не оказало отрицательного. | ||
− | + | == Статьи по теме == | |
* [https://lesswrong.ru/node/1058 Соответствие ИИ целям оператора] - сборник переведенных статей на тему безопасности ИИ, написанных исследователями из [[MIRI]] и другими авторами, близкими к сообществу рационалистов. | * [https://lesswrong.ru/node/1058 Соответствие ИИ целям оператора] - сборник переведенных статей на тему безопасности ИИ, написанных исследователями из [[MIRI]] и другими авторами, близкими к сообществу рационалистов. | ||
− | + | == См. также == | |
* [[Machine Intelligence Research Institute]] | * [[Machine Intelligence Research Institute]] | ||
− | + | == Ссылки == | |
* [https://aisafety.ru/ Сайт с переводами статей на тему безопасности ИИ] | * [https://aisafety.ru/ Сайт с переводами статей на тему безопасности ИИ] | ||
[[Категория:AI Safety]] | [[Категория:AI Safety]] |
Версия 20:37, 21 января 2023
Задача безопасности искусственного интеллекта состоит в том, чтобы создание в будущем сильного искусственного интеллекта оказало положительное влияние на человечество и не оказало отрицательного.
Статьи по теме
- Соответствие ИИ целям оператора - сборник переведенных статей на тему безопасности ИИ, написанных исследователями из MIRI и другими авторами, близкими к сообществу рационалистов.