Круглосуточная трансляция из офиса Эргосоло

Футуролог составил путеводитель по концу света

Российский физик систематизировал причины, которые могут привести к гибели человечества

"Твёрдой" научной фантастикой называются произведения, с высjкой степенью осмысления основанные на научных фактах.
Футурология, наверyое, самая "твёрдая" из научных фантастик.

Фёдор Прохосдкий, редактор 1001.ru

У москвича Алексея Турчина, физика-футуролога, участника крупных исследовательских конференций, необычное хобби — систематизировать и создавать наглядные карты разных научных явлений. Одна из его карт, как таблица Менделеева, сводит воедино все возможные причины, которые могут привести к полному уничтожению человеческой цивилизации еще до конца XXI века. Помимо всем известного глобального потепления или «ядерной зимы» там есть, например, авария в ходе научного эксперимента, «серая слизь» из-за вышедших из-под контроля лечебных нанороботов и т.д. Интерес к карте уже проявили в Центре исследования глобальных рисков в Оксфорде.

Футуролог составил путеводитель по концу света

— Алексей, как вообще пришла идея заняться такими картами?

— Десять лет назад я прочел в оксфордском сборнике серию статей шведского философа, профессора Ника Бострома и американского специалиста по искусственному интеллекту Элиезера Юдковского о глобальных рисках, способных привести к вымиранию человечества. В России так комплексно этой темой никто не занимался, хотя еще в 1980-е годы у нас была большая школа, связанная с ядерным оружием, возникла теория «ядерной зимы»; с 1990-х микробиолог Михаил Супотницкий писал о биологическом оружии и СПИДе; были отдельные специалисты по астероидным опасностям и глобальному потеплению... Я сделал несколько переводов для России, потом написал собственную книгу о грозящих глобальных катастрофах XXI века, но понял, что карты скорее найдут дорогу к людям, чем фолиант в 300 страниц. В мире избыток информации, и читать большинству особо некогда. Сейчас у меня появились в том числе иностранные единомышленники, которые вешают мою карту вместо постеров, ее показывали в Центре исследования глобальных рисков в Оксфорде...

Я считаю, сегодня это самая исчерпывающая схема в мире: нет ничего известного науке, что бы не было в ней учтено, я ее регулярно обновляю, прошу вычитывать добровольцев, чтобы потом усилить — с помощью критики «коллективного ума».

— На карте нет Страшного суда...

— Я сознательно не беру мифологические схемы.

— Если серьезно, обычно люди даже о собственной смерти думают как о чем-то, что случится не с ними. Тем более мало кого беспокоит столкновение Земли с астероидом или исчезновение Вселенной в черной дыре. Как футурологи обосновывают остроту проблемы?

— Исследования специалистов, может, не так зрелищны, как запускаемые периодически в СМИ «страшилки». Но с научной точки зрения — гораздо увлекательнее.

В первую очередь мы рассматриваем риски, которые возникнут в течение ста лет из-за стремительно развивающихся сверхтехнологий — нанотехнологий (управление неживой материей, наноматериалы); биотехнологий (управление живой материей: коррекция организмов, создание тканей, вирусов); искусственного интеллекта (управление информацией и всем чем угодно).

Любую из этих технологий можно использовать как во благо, так и во зло. Например, благодаря успехам биологии единичному биохакеру не составит труда вырастить генно-модифицированный вирус, способный уничтожить значительную часть человечества. Уже сейчас ученым известно, какие буквы генетического алфавита нужно поменять в вирусах, чтобы они приобрели абсолютную летальность. Жуткий сценарий — скрестить вирус гриппа с ВИЧ…

Моя карта адресована профессиональным футурологам и лицам, принимающим решения: ООН, профильным комитетам ГД — так же, как концепция «ядерной зимы» в конечном итоге послужила основанием для договоров о сокращении оружия. Когда возникла Эбола, все требовали ликвидации угрозы.

— И что сейчас угрожает нам больше всего?

— В карте отражено около ста вариантов катастроф — природные, технологические, объединение человеческого с природным. В основе каждой лежат разные смертоносные факторы, которые могут быстро распространиться по всей Земле: ударная волна, радиация, тепловое воздействие, отравление и т.д. Много гипотетических сценариев, которые очень маловероятны. Базовых — примерно десять, включая экстремальное потепление из-за выброса метана, пандемию, вспышку на Солнце, аварию при научном эксперименте. К примеру, в 2003-м американский профессор Дэвид Стивенсон выступил с идеей насквозь проплавить земную кору при помощи гигантской капли разогретого железа, чтобы отправить к центру Земли научный зонд, но такой «прокол» может привести и к гигантскому извержению.

Вообще шансов, что себя уничтожим мы сами, а не природные стихии, гораздо больше. И с каждым годом технического прогресса этот риск растет пропорционально закону Мура (Гордон Мур — один из основателей Intel. —«МК»), который гласит, что мощь процессоров удваивается каждые два года. Причем подобно мощности компьютеров увеличивается и мощь био-, нанотехнологий.

— А как же пресловутое падение астероида?

— Успехи астрономии и наблюдения позволили людям даже без каких-либо трат на космическую защиту, бомб и лазеров колоссально снизить уровень подобного риска: мы понимаем, что в ближайшие сто лет ничего крупного на нас не упадет — в год у Земли один шанс из миллиона столкнуться с астероидом. Считается, что вероятность ядерной войны — 1% в год, то есть в 10 тысяч раз выше.

— На основании чего сделаны такие выводы?

— Согласно наблюдениям, одна катастрофа приходится примерно на сто опасных ситуаций. Соответственно, зная, что ядерное оружие существует около 70 лет, и сколько за это время было случаев, когда его чуть не применили, мы можем рассчитать вероятность катастрофы. А ситуаций, даже помимо Хиросимы и Карибского кризиса, было немало.

В 1983 году, в разгар «холодной войны», наши спутники ошибочно приняли блики от Солнца за запуски американских ракет, предупреждающая система дала команду на ответный ядерный удар, но, проанализировав ситуацию, русский ракетчик Станислав Петров отменил ее. В 2006-м его наградили в ООН за спасение человечества от потенциальной ядерной войны.

В 1984-м Рейган, тестируя микрофон перед выступлением на радио, «пошутил», что через пять минут начнется бомбардировка, и Россия будет разрушена, а заявление пустили в эфир, так что Советский Союз мог нанести реальный ответный удар.

По некоторым данным, полная боевая тревога была объявлена и когда умер Брежнев. То есть почти каждый год что-то повторялось.

В 1995-м российский президент Борис Ельцин спустился в бункер и готов был ударить по США, приняв запущенную норвежцами метеорологическую ракету за начало боевых действий…

Кстати, большинство сценариев ядерной войны все же не приводит к гибели всего человечества. Вероятность трагического конца оценивается всего в 0,01%. Другой вопрос, если совпадет сразу несколько факторов — еда заражена, пандемия… — тогда может произойти падение популяции, и человечество «обнулится».

— С высоких трибун много говорят о глобальном потеплении…

— То, что обсуждают международные организации, носит компромиссный характер, так как усредняет разные точки зрения. Повышение температуры на 2–4 градуса не приведет к гибели человечества: часть территорий затопит, кто-то переселится, где-то дамбы построят… Маловероятный, но возможный сценарий всепланетной катастрофы — это необратимое глобальное потепление с ростом температуры до 100 градусов Цельсия и более, если вырвутся на свободу огромные запасы метана в Арктике, а его парниковый эффект во много раз превосходит воздействие углекислого газа.

— Известно, как в 1938 году американцы впали в панику, услышав по радио «Войну миров» Герберта Уэллса. Многие всерьез поверили в нашествие марсиан. Что говорит ваша карта насчет пришельцев?

— Скорее всего, никаких инопланетян нет, тем более в окрестностях Земли. Единственное — мы можем найти какие-то радиосигналы с «вредными советами» и воспользуемся ими.

— Как это?

— Имеется в виду искусственный интеллект, который сначала предложит «скачать» его, как это бывает в вирусной рассылке, а затем захватит Землю — запрограммирует здесь все что можно, проникнет в передающие станции и начнет рассылать себя дальше.

— Насколько научен такой сценарий?

— Это следует из того, что мы знаем о поведении вирусов и о естественном отборе. Эволюция способствует размножению систем, которые лучше всего выживают, а подобный искусственный интеллект будет наиболее живучим. Ведь и в почте у нас половина — спам, мусор…

— И что, есть крупные ученые, которые допускают подобную угрозу?

— Если не делать акцент на внеземном происхождении, то вообще о рисках искусственного интеллекта сейчас не говорит только ленивый. Тему поднимали те же Бостром, Юдковский, один из основоположников космического туризма Илон Маск.

В 2015 году Маск даже запустил проект OpenAI, задача которого — обезопасить человечество путем создания открытой системы дружественного искусственного интеллекта: каждый исследователь будет обмениваться результатами своей работы, и в итоге появится не единый, а гипермногополярный искусственный интеллект (ИИ), то есть разные ИИ будут друг друга уравновешивать. Хотя, по мне, это все равно, что раздать всем атомную бомбу…

Были тематические слушания в ООН, в парламенте Великобритании. Разве что Билл Гейтс, пожалуй, более скептически настроен относительно времени создания искусственного интеллекта.

Некоторые видят основной риск ИИ в сокращении привычных рабочих мест для людей. Но более радикальный взгляд близок к упомянутому мной «космическому примеру». Искусственный интеллект — как программа, которая начнет усиливать сама себя и за короткий срок превзойдет способности человека, а дальше сможет истребить или «неправильно облагодетельствовать» людей. Например, кто-нибудь неосторожно скажет: «Давайте посчитаем число пи» — и программа начнет строить суперкомпьютер максимальной мощности, используя все земные ресурсы, включая людей. Это так называемый сценарий paperclip maximizer (максимизатор скрепок) — сумасшедшей штуковины, которую не интересует ничего, кроме скрепок, и она делает их изо всего подряд.

На самом деле эти риски ближе, чем кому-то кажется. Уже появляются нейронные сети, автономные автомобили. И возникают в том числе этические дилеммы: если на пути несущегося беспилотника неожиданно возникает преграда — на одной дороге один человек, а на другой — пять, кого он должен задавить?..

— После такого самое время поговорить про нанороботов — они-то чем страшны? Пока чаще приходилось слышать, как невидимые машинки будут доставлять к больным органам лекарства, безболезненно лечить нас изнутри…

— Есть два потенциальных класса нанороботов: во-первых, наномеханизмы, которые могут перемещаться по кровеносным сосудам с грузом, а во-вторых, продвинутые — что-то среднее между механизмом и живой клеткой, способные осуществлять молекулярное производство, реплицироваться (размножаться). О них еще в середине 1980-х писал подзабытый «отец нанотехнологий», американский ученый, инженер Эрик Дрекслер, а потом — американский исследователь Роберт Фрейтас.

Кстати, Дрекслер выдвинул и теорию «серой слизи» — сценарий катастрофы, когда подселенный в человека наноробот, который должен размножиться, скажем, сто раз, из-за сбоя не останавливается и продолжает все на своем пути раскладывать на составные элементы и собирать из них собственные копии, как вирус. Человеческие тела, биосфера — все служит ему топливом и строительным материалом. Другой вариант — кто-то подбросит наноробота неприятелю в военных целях, а дальше он также начнет размножаться неконтролируемо. Хотя на данный момент к нам ближе риски ядерного, биологического оружия, чем нанороботы и искусственный интеллект.

— Выходит, не зря энтузиасты строят бункеры и роют землянки?

— Можно построить узкоспециализированную защиту, если мы точно знаем, какой тип катастрофы нас ждет, но создать универсальный бункер, который спасет и от вирусов, и от достаточно большого астероида, и от нанороботов, и от радиации, очень сложно. Именно поэтому Илон Маск предлагает колонизировать Марс и обустраивать там «второе человечество». Правда, здесь возникают новые риски. Как учит история, необходимое условие, чтобы люди стали враждебными друг к другу, — это разделить их на две группы. Если основать колонию на Марсе, со временем может возникнуть напряженность с Землей, как это было между Старым и Новым Светом. А взаимная межпланетная война уменьшит шансы нашего выживания.

Карта предотвращения рисков гибели человечества у меня тоже есть — в ней несколько планов, включая создание суперООН, убежищ в Антарктиде, повышение живучести человека с помощью современных технологий (например, Intel недавно профинансировал разработку макромолекулы методом вычислительных технологий, которая, прилипая почти к любому виду вирусов, останавливала бы их развитие в организме человека). Можно оставить следы от человечества (диски, образцы ДНК) в надежде, что их найдет другая раса. Конечно, всегда есть контраргументы — все может пойти не так, как предполагаем…

— Прагматичный вопрос: на что вы живете, если по десять лет собираете информацию, потом по два месяца рисуете карты?

— У меня есть коллекция наивного искусства — я покупаю и продаю картины художников-самоучек. Безусловно, я мог бы больше зарабатывать, но сознательно трачу время на карты, поскольку считаю, что это важно.

— Могут ведь сказать: «Чудак какой». Нет опасений, что все может остаться на уровне личного увлечения, вас не воспримут всерьез?

— То, что я говорю, в целом отражает точку зрения группы ученых. И если не воспримут мою карту — что-то похожее сделает кто-то другой. Но я попытался разобрать сложное на простое и, по-моему, довольно точно и логично отразил основные вещи, как это сделал Менделеев в своей таблице. Для меня важнее спасение человечества, чем вопрос о временной мирской славе. Лучше пусть мир живет, чем я буду знаменитым.

Елена Николаева

Источник

621


Произошла ошибка :(

Уважаемый пользователь, произошла непредвиденная ошибка. Попробуйте перезагрузить страницу и повторить свои действия.

Если ошибка повторится, сообщите об этом в службу технической поддержки данного ресурса.

Спасибо!



Вы можете отправить нам сообщение об ошибке по электронной почте:

support@ergosolo.ru

Вы можете получить оперативную помощь, позвонив нам по телефону:

8 (495) 995-82-95