Безопасность искусственного интеллекта — различия между версиями
м (Уровень заголовков) |
(Сборник ссылок на ресурсы) |
||
Строка 8: | Строка 8: | ||
== Ссылки == | == Ссылки == | ||
+ | === Обзорные материалы === | ||
+ | ==== На русском ==== | ||
+ | * [https://new.80000hours.ru/problem-profiles/artificial-intelligence Предотвращение катастрофы, связанной с ИИ] - большой обзор проблемы на сайте [[80.000 часов]]; содержит также ссылки на материалы и раздел "Что конкретно мы можешь сделать, чтобы помочь" | ||
+ | * [https://reverendbayes.notion.site/c20d4ed31858464d9737665455c0dbee Искусственный интеллект и экзистенциальные риски] - большой обзор проблемы в формате древовидной структуры от [[Участник:ReverendBayes|Андрея Ведерникова]] | ||
+ | ==== На английском ==== | ||
+ | * [https://intelligence.org/2016/12/28/ai-alignment-why-its-hard-and-where-to-start/ AI Alignment: Why It’s Hard, and Where to Start] - видео [[Элиезер Юдковский|Элиезера Юдковского]] 2016 года (+ текстовая расшифровка) | ||
+ | === Ресурсы, посвященные теме безопасности ИИ === | ||
+ | ==== На русском ==== | ||
* [https://aisafety.ru/ Сайт с переводами статей на тему безопасности ИИ] | * [https://aisafety.ru/ Сайт с переводами статей на тему безопасности ИИ] | ||
+ | * [https://t.me/ai_safety_digest Start in AI Safety] - телеграм канал со ссылками на образовательные и карьерные возможности в AI Safety | ||
+ | ==== На английском ==== | ||
+ | * [https://www.alignmentforum.org/ AI Alignment Forum] | ||
+ | * [https://intelligence.org/ Сайт MIRI] | ||
+ | * [https://stampy.ai/ stampy.ai] - сборник FAQ по теме безопасности ИИ | ||
+ | * [https://arbital.com/ Arbital] - вики-ресурс про AI Safety с большим уклоном в математические аспекты | ||
[[Категория:AI Safety]] | [[Категория:AI Safety]] |
Версия 16:08, 8 октября 2023
Задача безопасности искусственного интеллекта состоит в том, чтобы создание в будущем сильного искусственного интеллекта оказало положительное влияние на человечество и не оказало отрицательного.
Содержание
Статьи по теме
- Соответствие ИИ целям оператора - сборник переведенных статей на тему безопасности ИИ, написанных исследователями из MIRI и другими авторами, близкими к сообществу рационалистов.
См. также
Ссылки
Обзорные материалы
На русском
- Предотвращение катастрофы, связанной с ИИ - большой обзор проблемы на сайте 80.000 часов; содержит также ссылки на материалы и раздел "Что конкретно мы можешь сделать, чтобы помочь"
- Искусственный интеллект и экзистенциальные риски - большой обзор проблемы в формате древовидной структуры от Андрея Ведерникова
На английском
- AI Alignment: Why It’s Hard, and Where to Start - видео Элиезера Юдковского 2016 года (+ текстовая расшифровка)
Ресурсы, посвященные теме безопасности ИИ
На русском
- Сайт с переводами статей на тему безопасности ИИ
- Start in AI Safety - телеграм канал со ссылками на образовательные и карьерные возможности в AI Safety
На английском
- AI Alignment Forum
- Сайт MIRI
- stampy.ai - сборник FAQ по теме безопасности ИИ
- Arbital - вики-ресурс про AI Safety с большим уклоном в математические аспекты