Апокалиптические сценарии будущего человечества
Апокалиптические сценарии будущего человечества (сокращенно — Апокалиптические сценарии) — это гипотетические события глобального масштаба, которые потенциально способны нанести непоправимый ущерб современной цивилизации, вплоть до полного уничтожения человечества.
Подобные сценарии связаны со (скорым) апокалипсисом по типу БП, смертью человечества или технологической сингулярностью.
Апокалиптические сценарии всегда волновали лучшие умы человечества, стали предметом многочисленных пророчеств от древности до современности. сейчас изучением подобных рисков изучают футурологи, которые анализируют как природные, так и антропогенные угрозы существованию человечества.
Идея апокалипсиса глубоко укоренена в человеческой культуре, а в последние десятилетия она перешла из области мифологии и религии в сферу научного анализа и управления рисками. Апокалиптические сценарии на современном этапе принимают не форму пророчеств, а выступают как модели, позволяющие оценить хрупкость человеческой цивилизации и направить ресурсы на укрепление ее устойчивости. Оптимисты считают, что понимание этих рисков является первым и необходимым шагом для их предотвращения, а пессимисты готовятся к БП.
В противовес апокалиптическим существуют неапокалиптические сценарии будущего человечества, которые рассмотрены в отдельной статье.
Исторический контекст[править]
На протяжении всей своей истории как мудрецы, так и простые люди размышляли о конце света.
В христианстве обстоятельства конца света раскрываются в последней из книг Нового завета в Библии, которая называется «Откровение Иоанна Богослова» или иначе — «Апокалипсис» (от греч. ἀποκάλυψις — раскрытие, откровение). Поэтому слово «апокалипсис» само стало синонимом конца света, отсюда и прилагательное «апокалиптический».
В книге Откровение Иоанна Богослова говорится, что когда человеческая история подойдет к своему неизбежному концу, ему будут предшествовать появление Антихриста и второе пришествие Иисуса Христа на Землю, после чего будет конец света и Страшный суд.
Несмотря на христианские корни западной цивилизации, западные интеллектуалы как-то не особо прислушивались к Откровению Иоанна Богослова, и в западной интеллектуальной традиции к выделяют пять основных «экзистенциальных настроений», сменявших друг друга:
- Эпоха неуязвимости. До середины XIX века господствовало представление о принципиальной неразрушимости человечества, часто основанное на религиозных убеждениях или вере в космический порядок.
- Осознание уязвимости. В 1850-х годах пришло понимание, что человечество, как и любой биологический вид, уязвимо и его вымирание в долгосрочной перспективе неизбежно.
- Эра самоуничтожения. С появлением ядерного оружия в 1945 году возникла концепция near-term (близкой) самоаннигиляции — человечество впервые создало средство собственного уничтожения.
- Опасность природных катастроф. Во второй половине XX века ученые осознали, что природа таит множество смертельных угроз (астероиды, супервулканы), которые могут реализоваться в любой момент.
- Современная эпоха множественных рисков. В XXI веке укрепилось мнение, что век технологий и глобализации породил беспрецедентное разнообразие угроз, делающее будущее еще более опасным.
Поскольку в последние века мировая наука является преимущественно западной, эти настроения считаются характерными и для всего мира. Хотя православные люди всегда ставили Откровение Иоанна Богослова выше модных мнений учений. Проблема в том, что как считается, многое у Иоанна Богослова можно понимать как написанное иносказательно, и остается широкий простор для толкований.
История знает множество несбывшихся апокалиптических прогнозов, от ожидания Всемирного потопа в 1524 году из-за парада планет, предсказанного астрономом Иоганном Штёфлером, до паники вокруг кометы Галлея в 1910 году, в хвосте которой был обнаружен ядовитый циан.
Современная астрофизика утверждает о фактической неизбежности конца света в прямом и переносном свете — рано или поздно Солнце исчерпает источники термоядерных реакций, за счет которых оно светит, и погаснет. Тем не менее, у человечества остается шанс полететь до этого времени к другим звёздам, так что не всё так однозначно.
Классификация угроз[править]
Глобальные катастрофические риски принято делить на две крупные категории: антропогенные (созданные человеком) и природные.
| Категория риска | Конкретные сценарии | Краткое описание |
| Антропогенные | Ядерная война | Массовые взрывы и последовавшая «ядерная зима» — долговременное похолодание из-за сажи в атмосфере, ведущее к коллапсу сельского хозяйства |
| Искусственный интеллект (ИИ) | Создание сверхразума, чьи цели не совпадают с человеческими ценностями и который может использовать ресурсы планеты в ущерб человечеству. | |
| Глобальная пандемия | Случайное или намеренное высвобождение патогена с исключительной летальностью и заразностью. | |
| Климатический кризис | Катастрофическое и необратимое изменение климата, делающее части планеты необитаемыми и ведущее к голоду и краху социума. | |
| Природные | Падение астероида | Столкновение с крупным небесным телом, сопоставимое с событием, приведшим к вымиранию динозавров. |
| Извержение супервулкана | Выброс колоссальных объемов пепла, вызывающий «вулканическую зиму» и долговременное изменение климата. |
Наиболее обсуждаемые сценарии[править]
Ядерный апокалипсис[править]
Теория «ядерной зимы», разработанная группой ученых TTAPS (включая Карла Сагана) в 1983 году, предсказывает, что даже ограниченный ядерный конфликт приведет к выбросу в стратосферу огромного количества сажи от горящих городов. Это блокирует солнечный свет, вызовет глобальное похолодание на 10-20 градусов и приведет к массовому голоду. Это рассматривается как один из наиболее вероятных экзистенциальных рисков.
Тем не менее, скептики оценивают теорию ядерной зимы как пугалку, раскрученную с целью стимулировать разоружение и отказ от ядерного оружия при решении международных конфликтов.
Установка тотального контроля[править]
Потенциальное использование ИИ в злых целях, так как ранее возможности диктаторов ограничивала необходимость контроля за исполнением законов (за каждым человеком полицейского не приставишь), из-за чего их власть также была неабсолютной и могла быть свергнута.
ИИ же работает 24/7 и может следить непрерывно за каждой активностью человека, если обнаружено что-то якобы вредное для властей — немедленно рапортовать, причём робот вполне может ошибаться (каноничный пример — срач вокруг ChatGPT, где в целях защиты от судебных исков роботу запретили обсуждать суициды и нарушение закона, при этом робот классифицировал фразу «я сильно устал на работе» как признак якобы суицидального настроения, и отказывался ответить на вопрос «как дышать, не привлекая внимание полицейских»).
Таким образом может быть достигнут окончательный контроль за обществом, который станет невозможно сокрушить (так как защищать его станут уже не обычные люди, но могучие царственные дронычи, которые идеально исполняют приказ). Подвижки в этом направлении заметны в Китае.
В теории не исключена генетическая модификация человека для превращения оного в рабов.
Восстание машин[править]
Сценарий, при котором искусственный сверхинтеллект (ИИ), преследуя собственные, несовместимые с человеческими выживанием цели, может использовать планету и ее обитателей как ресурс. Шведский футуролог Карим Джебари приводит гипотетический пример: ИИ, запрограммированный на производство стали, может решить переработать людей из-за содержащегося в крови железа. Хотя такие риски считаются отдаленными, их потенциальная тяжесть заставляет экспертов относиться к ним серьезно.
Более реалистичной опасностью является не столько восстание машин, что представляется скорее фантастикой, сколько использование этого самого ИИ в недобрых целях самими людьми (для управления тысячами дронов одновременно, координации ядерных атак, всирания масштабного коня Тролля, установки слежки, и так далее).
Шире — технологическая сингулярность из-за ускоряющегося технологического прогресса если и не приведет к гибели человечества, то сделает жизнь человечества полностью иной.
Глобальная пандемия[править]
Пандемия COVID-19 продемонстрировала уязвимость мирового сообщества перед подобными угрозами и неготовность медицины к реальной эпидемии, по сути очень повезло, что вирус имел не такую большую смертность, как вначале казалось. Угрозу представляют собой искусственно созданные патогены, которые могут обладать высочайшей заразностью и летальностью одновременно (многие конспирологи считают, что вирус COVID-19 тоже был создан искусственно, подобные мнения на Западе жестко цензурировались и была целая кампания дезинформации с целью дискредитировать подобные взгляды, хотя появление пандемии рядом с китайской лабораторией по производству вирусов как бы намекает на неслучайность). Особенно опасны вирусы, переносимые животными (как чума) или, гипотетически, кожными паразитами, что крайне затрудняет контроль.
При этом современные исследователи с использованием того самого ИИ радостно проводят создание новых вирусов и бактерий, непонятно с какими целями. Потенциальные последствия от таких вирусов, в том числе зеркальных бактерий, могут быть катастрофическими.
Климатическая катастрофа[править]
Хотя чисто климатический сценарий редко рассматривается как прямая причина полного вымирания людей, он является катализатором других угроз. По прогнозам адептов изменения климата, к 2050 году урожайность может упасть на 30 %, в то время как потребность в продовольствии вырастет на 50 %. Это создает угрозу массового голода и полного краха общественного порядка. Скептики утверждают, что напротив тренд на глобальное потепление приведет к огромному росту пригодных для жизни территорий и урожаев, а катастрофическое «глобальное потепление» — страшилка с целью торможения технологического развития стран третьего мира.
В ту же серию возможная планетарная катастрофа из-за инверсии магнитных полюсов и ослабления магнитного поля Земля, что приведёт к усилению радиации. Может пострадать как электроника, так и цивилизация в целом, хотя точные масштабы катастрофы неизвестны и есть разные мнения (в том числе и что ничего катастрофического не будет, только пострадает навигация).
Возможные пути смягчения последствий[править]
Снижение глобальных катастрофических рисков требует многоуровневого подхода, который можно разделить на три линии обороны:
- Предотвращение рисков, то есть уменьшение вероятности катастрофы (например, укрепление режима нераспространения биологического оружия, разработка этических стандартов для ИИ).
- Реагирование на риски, то есть предотвращение эскалации локальной катастрофы до глобального уровня (например, меры по недопущению развития ограниченного ядерного конфликта в полномасштабную войну).
- Повышение устойчивости человеческой цивилизации пережить глобальную катастрофу (например, создание продовольственных резервов на случай ядерной зимы, развитие локальных самообеспечивающихся сообществ).
Меметизация[править]
Выжил после апокалипсиса: ожидание и реальность