"Алексей Турчин. Структура глобальной катастрофы" - читать интересную книгу авторапринять в отношении нее. И хотя возможные меры в этой книге обсуждаются,
здесь вы не найдете универсального рецепта избавления от глобальных рисков. Однако книга не должна внушить читателю ощущение неизбежности гибели. Автор полагает, что, несмотря на трудности и риски, ожидающие человечество в XXI веке, люди имеют шанс выжить и, более того, построить более совершенный мир. Однако выживание является необходимым условием для любого совершенного мира. Опять же, в этой книге мы не обсуждаем то, каким бы мог быть совершенный мир, в котором новые технологии использованы во благо плюс, а не для разрушения. В этом томе вы найдете мою монографию "Структура глобальной катастрофы", а также три статьи в приложении к ней, необходимые для более ясного понимания темы. Монография распадается на две большие части - методологии анализа и собственно исследования рисков. Методология состоит в основном из критического анализа способности человеческого мышления к предсказанию и оценке глобальных рисков. (Более ранняя версия части, посвященной методологии, вышла в сборнике Института системного анализа РАН в виде статьи "О возможных причинах недооценки глобальных рисков" .) Эта методология может быть полезна, с небольшими изменениями, и в любых других футурологических исследованиях. В разделе о методологии дается ряд рекомендаций о том, как именно следует осуществлять анализ рисков. Разбор конкретных рисков во второй части состоит из максимального подробного перечня различных угроз со ссылками на источники и критического анализа. Затем исследуются системные эффекты взаимодействия разных рисков, обсуждаются способы вероятностной оценки глобальных рисков и другие связанные с этим вопросы. новаторскую статью американца Е. Юдковски "Искусственный интеллект как позитивный и негативный фактор глобального риска", переведенную мной на русский язык. Эта статья выходит в научном сборнике "Риски глобальной катастрофы" , который издается университетским издательством Оксфорда в этом году под редакцией Ника Бострома и Милана Чирковича. Е. Юдковски - ведущий научный сотрудник Сингулярити института в Калифорнии, который занимается разработкой системы универсального искусственного интеллекта и проблемами его безопасности ("дружественности"). Он написал несколько больших текстов о проблемах создания систем ИИ и обеспечения их дружественности, ввел концепцию саморазвивающегося Семени ИИ (Seed AI), много писал о проблемах футурологии и возможной Технологической Сингулярности - резкого ускорения технологий в будущем. Его институт разработал "SIAI рекомендации по созданию дружественного ИИ", которые претендуют на то, чтобы стать отраслевым стандартом в безопасности ИИ. Ник Бостром - шведский ученый и философ, возглавляющий институт "Будущее человечества" в Оксфорде, автор исследований по этике, теории вероятностей, футурологии и философии, неоднократно публиковался в ведущих реферируемых научных журналах Mind, Nature и др. Часть его работ по теории вероятностей посвящена малоизвестному в России логическому парадоксу, называемому Doomsday argument, название которого мы будем переводить как "Теорема о конце света". Есть много разных мнений о ее истинности, ложности и границах применимости, однако нам кажется важным ознакомить читателя с этим направлением современной мысли. Поэтому в приложении добавлена статья Ника Бострома "Введение в теорему о конце света для начинающих". Хотя |
|
|