Читать книгу "Технологии против человека - Герд Леонгард"
Шрифт:
Интервал:
Закладка:
Самое безопасное и многообещающее будущее – это то, в котором мы не только не откладываем инновации, но принимаем во внимание возможные увеличивающиеся риски, которые сейчас «на совести кого-то другого».
Поскольку мощность технологий стремительно растет, я уверен, что необходимо установить баланс между мерами предосторожности и проактивностью. Первое означает, что необходимо активно изучать возможные последствия и непредвиденные результаты, прежде чем мы приступим к научному исследованию или развитию технологий. Этому противопоставляется подход, основанный на активных действиях, который выступает за движение вперед для достижения прогресса, прежде чем все потенциальные риски и последствия будут ясны.
Должны ли мы сдерживать науку, изобретателей и предпринимателей, если полученные изобретения могут оказать существенное негативное влияние на человечество? Обязательно. Должны ли мы останавливать или запрещать научные скачки, которые могут быть по большей части полезными для общества, но потребуют регулирования для достижения сбалансированного результата? Абсолютно точно нет. В действительности запретить такие достижения, может быть, даже невозможно.
Ответ на это, естественно, заключается в разумном и целостном балансе между этими двумя подходами, в требовании к нам быть еще более ответственными за наше будущее.
Давайте рассмотрим оба подхода более детально.
Первоначально, исходя из экологических соображений, принцип предосторожности предполагает, что те, кто создает вещи, которые могут привести к катастрофическим последствиям, должны сначала доказать, что любые непредвиденные последствия действительно можно будет контролировать. Другими словами, бремя доказательства, что эта рискованная затея в действительности не опасна, ложится на плечи того, кто хочет ее реализовать.
Этот принцип был применен в исследованиях рекомбинантных ДНК (на конференции в Асиломаре), и его трактовка непосредственно повлияла на работу, проделанную на Большом адронном коллайдере в ЦЕРНе[98] в Швейцарии, для решения проблем, которые могут случайно привести к образованию черной дыры154, 155. Как и в случае с Большим адронным коллайдером, коллективная осторожность в отношении технологических разработок должна явно превосходить потенциально катастрофические нововведения, которые могут быть слишком опасны для человечества. В Декларации в Уингспреде (1999)[99] предупредительный принцип излагается следующим образом:
Если результат деятельности создает угрозу для здоровья человека или окружающей среды, следует принять меры предосторожности, даже если некоторые причинно-следственные связи не установлены научно. В этом случае бремя доказательства несет инициатор деятельности, а не общественность156.
В Рио-де-Жанейрской декларации по окружающей среде и развитию 1992 года предложен еще более жесткий принцип: «В тех случаях, когда существует угроза серьезного или необратимого ущерба, отсутствие полной научной уверенности не используется в качестве причины для отсрочки принятия экономически эффективных мер по предупреждению ухудшения состояния окружающей среды»157.
Я думаю, что оба эти утверждения справедливы, если принимать во внимание искусственный интеллект, машинный интеллект, автономные системы, редактирование генома человека и геоинженерию. Наоборот, принцип проактивности объясняет, что человечество всегда изобретало технологии и очень рисковало. Поэтому мы не должны вводить чрезмерные ограничения для того, что люди могут или не могут изобрести. Кроме того, этот принцип предусматривает, что мы должны учитывать и затраты на потенциальные ограничения, и затраты на упущенные возможности.
Принцип проактивности был введен философом-трансгуманистом Максом Мором[100], 158 и далее был сформулирован британским социологом Стивом Фуллером[101], ii, 159. Поскольку сама идея трансгуманизма основана на концепции преодоления наших биологических возможностей, то есть возможности, по крайней мере, частично стать машиной, то неудивительно, что беспрепятственная активная деятельность является естественной частью этой истории.
Продуманный и гуманистический баланс
Вот что я предполагаю: избыток мер предосторожности может парализовать нас страхом и создать самоусиливающийся цикл сдержанности. Такое изгнание передовых научных, технологических, инженерных и математических (система STEM) видов деятельности или игр в подземелье, скорее всего, сделает преступниками тех, кто вовлечен в них. Очевидно, это не лучший подход к решению проблемы, потому что фактически мы можем обнаружить, что есть вещи, дальнейшее исследование которых будет нашей обязанностью, например, борьба с раком. Вещи, помогающие человечеству процветать, обязывают нас предоставить им свободу.
Однако сугубо проактивный подход не сработает в этом случае, потому что на кону стоит слишком много, учитывая экспоненциальный, комбинаторный и взаимозависимый характер технологических достижений, которые мы сейчас испытываем. Одни опасаются, что технологии практически точно в конечном итоге превзойдут человечество, если мы просто будем придерживаться проактивного подхода, как это происходит на сегодняшний день. Подобно тому как слишком много мер предосторожности будут душить прогресс и инновации, слишком большая активность освободит мощные и, вероятно, неконтролируемые силы, которые на данный момент мы должны хранить «под замко́м».
Наша задача, как всегда, будет заключаться в том, чтобы найти и сохранить этот баланс – между ящиком Пандоры и лампой Аладдина.
Мы находимся на экспоненциальном и комбинаторном пути во многих связанных с системой STEM дисциплинах. Многие традиционные подходы к обеспечению безопасности окажутся бесполезными, потому что скорость изменений и масштабы потенциальных нежелательных последствий значительно увеличились с тех пор, как кривая достигла точки поворота в 2016 году, когда мы начали увеличивать их с четырех до восьми (не до пяти) и сделали этот первый по-настоящему огромный шаг.
Внимание!
Сайт сохраняет куки вашего браузера. Вы сможете в любой момент сделать закладку и продолжить прочтение книги «Технологии против человека - Герд Леонгард», после закрытия браузера.