Безопасность искусственного интеллекта — различия между версиями

Материал из Вики LessWrong.ru
Перейти к: навигация, поиск
м (Уровень заголовков)
(Сборник ссылок на ресурсы)
Строка 8: Строка 8:
  
 
== Ссылки ==
 
== Ссылки ==
 +
=== Обзорные материалы ===
 +
==== На русском ====
 +
* [https://new.80000hours.ru/problem-profiles/artificial-intelligence Предотвращение катастрофы, связанной с ИИ] - большой обзор проблемы на сайте [[80.000 часов]]; содержит также ссылки на материалы и раздел "Что конкретно мы можешь сделать, чтобы помочь"
 +
* [https://reverendbayes.notion.site/c20d4ed31858464d9737665455c0dbee Искусственный интеллект и экзистенциальные риски] - большой обзор проблемы в формате древовидной структуры от [[Участник:ReverendBayes|Андрея Ведерникова]]
 +
==== На английском ====
 +
* [https://intelligence.org/2016/12/28/ai-alignment-why-its-hard-and-where-to-start/ AI Alignment: Why It’s Hard, and Where to Start] - видео [[Элиезер Юдковский|Элиезера Юдковского]] 2016 года (+ текстовая расшифровка)
 +
=== Ресурсы, посвященные теме безопасности ИИ ===
 +
==== На русском ====
 
* [https://aisafety.ru/ Сайт с переводами статей на тему безопасности ИИ]
 
* [https://aisafety.ru/ Сайт с переводами статей на тему безопасности ИИ]
 +
* [https://t.me/ai_safety_digest Start in AI Safety] - телеграм канал со ссылками на образовательные и карьерные возможности в AI Safety
 +
==== На английском ====
 +
* [https://www.alignmentforum.org/ AI Alignment Forum]
 +
* [https://intelligence.org/ Сайт MIRI]
 +
* [https://stampy.ai/ stampy.ai] - сборник FAQ по теме безопасности ИИ
 +
* [https://arbital.com/ Arbital] - вики-ресурс про AI Safety с большим уклоном в математические аспекты
  
 
[[Категория:AI Safety]]
 
[[Категория:AI Safety]]

Версия 16:08, 8 октября 2023

Задача безопасности искусственного интеллекта состоит в том, чтобы создание в будущем сильного искусственного интеллекта оказало положительное влияние на человечество и не оказало отрицательного.

Статьи по теме

  • Соответствие ИИ целям оператора - сборник переведенных статей на тему безопасности ИИ, написанных исследователями из MIRI и другими авторами, близкими к сообществу рационалистов.

См. также

Ссылки

Обзорные материалы

На русском

На английском

Ресурсы, посвященные теме безопасности ИИ

На русском

На английском

  • AI Alignment Forum
  • Сайт MIRI
  • stampy.ai - сборник FAQ по теме безопасности ИИ
  • Arbital - вики-ресурс про AI Safety с большим уклоном в математические аспекты