Читаем Футурология полностью

Каждый из глобальных рисков может охватить всю поверхность Земли настолько быстро, что люди не успеют подготовить средства защиты от него, и при этом он обладает такой силой, что может уничтожить каждого человека. Именно способность проникать повсюду делает какой-либо опасный фактор потенциальным источником глобального риска.

Глобальные риски — по определению, крайне редкие или новые явления, к которым у человека нет адаптации ни на уровне организма, ни на уровне систем предвидения. Непредсказуемость большинства глобальных рисков значительно усложняет задачу по их предотвращению.

Большинство глобальных рисков возникло за счет работы интеллекта человека (например, атомная бомба). Интеллект же нужен и для их предвидения, и для их предотвращения. Существует опасность, что в какой-то момент суммарный интеллект человечества уже сможет создавать глобальные риски, но еще не будет способен их предотвращать.

Глобальным рискам уделяется крайне мало внимания. Многие оценки, которые есть, либо устарели, либо односторонни и политизированы. Люди игнорируют мысли о глобальной катастрофе, поскольку они слишком страшны и депрессивны почти для любой системы ценностей.

Глобальные риски требуют для своего предотвращения глобальных инструментов, которые сами могут стать источником глобального риска. Например, всемирная власть может принять ошибочное глобальное решение, а система отклонения астероидов может стать космическим оружием, которое будет использовано против Земли.



Риски новых технологий

Наиболее очевидным источником глобальных рисков являются качественно новые объекты, создаваемые с помощью новых технологий, которые обладают одним общим свойством — способностью к неограниченной саморепликации:

цепная реакция; усиление интеллекта;

размножение нанороботов;

распространение искусственного вируса;

рост гипотетической черной дыры в коллайдере.

Качественная новизна этих событий может обусловливать отсутствие у них естественных ограничителей.



Главные технологические риски

Если контроль над развитием и использованием этих технологий будет утерян, именно они могут внести наибольший вклад в вероятность глобальной катастрофы.



Риски, связанные с развитием биотехнологий

Основной риск состоит в одновременном попадании в окружающую среду нескольких десятков генетически модифицированных патогенов, способных поражать как людей, так и всю биосферу. Это может произойти в ходе войны или стать следствием деятельности нескольких независимых друг от друга биохакеров.

Сейчас в Интернет ежегодно выпускается до 2 миллионов компьютерных вирусов, и это число постоянно растет. Аналогичная активность возможна и у биохакеров. Уже сейчас стоимость оборудования, необходимого для создания вируса, упала до нескольких сот долларов, время сократилось до недель, а необходимый уровень знаний снизился до школьного. Кроме того, генетические коды многих опасных вирусов были опубликованы в Интернете, например, гриппа «испанка».

Таким образом, риск биотехнологий является наиболее «зрелым» и наиболее серьезным.

Отметим, что один-единственный вирус вряд ли сможет истребить все человечество, как это показывают в кинофильмах, поскольку всегда найдутся люди с эффективной иммунной системой против него.



Риски, связанные с развитием искусственного интеллекта

Опасность того, что однажды созданный ИИ будет способен к быстрому, все более ускоряющемуся саморазвитию, в ходе которого, как полагает Стив Омохундро, «инстинкт самосохранения» может вытеснить в нем другие заложенные заранее системы цели, и он начнет воспринимать людей как угрозу для себя. Такой ИИ Юдковски назвал «недружественным».

Опасность появления ошибочной системы команд для сверхИИ, которая побудит его захватить Землю и уничтожить людей. Превосходящий интеллект может придумать множество способов уничтожения человека, если перед ним встанет такая задача: с помощью управляемых роботов, токсинов, нанотеха.

Дополнительные риски связаны с войной между двумя сильными ИИ, а также состоят в утрате «необходимости в человеке» по мере замены всех его функций ИИ. Именно об этом предупреждал Билл Джой в статье «Почему мы не нужны будущему» (2000).

В апреле 2000 года журнал Wired опубликовал эссе Билла Джоя «Почему мы не нужны будущему», которое вызвало оживленную дискуссию во всем мире. «Мы влетаем в новый век без плана, без контроля, без торомозов», — пишет Джой. «Момент, когда мы уже не сможем контролировать ситуацию, быстро приближается». По его мнению, три направления, в которых человечество ожидают наиболее опасные катаклизмы, — это интеллектуальные роботы, генная инженерия и нанотехнология.



Риски, связанные с развитием нанотехнологий


Перейти на страницу:

Похожие книги

Сочинения
Сочинения

Иммануил Кант – самый влиятельный философ Европы, создатель грандиозной метафизической системы, основоположник немецкой классической философии.Книга содержит три фундаментальные работы Канта, затрагивающие философскую, эстетическую и нравственную проблематику.В «Критике способности суждения» Кант разрабатывает вопросы, посвященные сущности искусства, исследует темы прекрасного и возвышенного, изучает феномен творческой деятельности.«Критика чистого разума» является основополагающей работой Канта, ставшей поворотным событием в истории философской мысли.Труд «Основы метафизики нравственности» включает исследование, посвященное основным вопросам этики.Знакомство с наследием Канта является общеобязательным для людей, осваивающих гуманитарные, обществоведческие и технические специальности.

Иммануил Кант

Философия / Проза / Классическая проза ХIX века / Русская классическая проза / Прочая справочная литература / Образование и наука / Словари и Энциклопедии
Глаз разума
Глаз разума

Книга, которую Вы держите в руках, написана Д. Хофштадтером вместе с его коллегой и другом Дэниелом Деннеттом и в «соавторстве» с известными мыслителями XX века: классическая антология эссе включает работы Хорхе Луиса Борхеса, Ричарда Доукинза, Джона Сирла, Роберта Нозика, Станислава Лема и многих других. Как и в «ГЭБе» читателя вновь приглашают в удивительный и парадоксальный мир человеческого духа и «думающих» машин. Здесь представлены различные взгляды на природу человеческого мышления и природу искусственного разума, здесь исследуются, сопоставляются, сталкиваются такие понятия, как «сознание», «душа», «личность»…«Глаз разума» пристально рассматривает их с различных точек зрения: литературы, психологии, философии, искусственного интеллекта… Остается только последовать приглашению авторов и, погрузившись в эту книгу как в глубины сознания, наслаждаться виртуозным движением мысли.Даглас Хофштадтер уже знаком российскому читателю. Переведенная на 17 языков мира и ставшая мировым интеллектуальным бестселлером книга этого выдающегося американского ученого и писателя «Gödel, Escher, Bach: an Eternal Golden Braid» («GEB»), вышла на русском языке в издательском Доме «Бахрах-М» и без преувеличения явилась событием в культурной жизни страны.Даглас Хофштадтер — профессор когнитивистики и информатики, философии, психологии, истории и философии науки, сравнительного литературоведения университета штата Индиана (США). Руководитель Центра по изучению творческих возможностей мозга. Член Американской ассоциации кибернетики и общества когнитивистики. Лауреат Пулитцеровской премии и Американской литературной премии.Дэниел Деннетт — заслуженный профессор гуманитарных наук, профессор философии и директор Центра когнитивистики университета Тафте (США).

Дуглас Роберт Хофштадтер , Оливер Сакс , Дэниел К. Деннетт , Дэниел К. Деннет , Даглас Р. Хофштадтер

Биология, биофизика, биохимия / Психология и психотерапия / Философия / Биология / Образование и наука