Онлайн-Книжки » Книги » 👨‍👩‍👧‍👦 Домашняя » Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта - Макс Тегмарк

Читать книгу "Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта - Макс Тегмарк"

453
0

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 109 110
Перейти на страницу:

(a) Как мы можем обеспечить высокую надежность систем с искусственным интеллектом, так чтобы они выполняли то, чего мы от них хотим, без опасности нанесения вреда из-за сбоев или злонамеренного взлома?

(b) Как мы можем добиваться роста нашего процветания благодаря автоматизации при сохранении человеческих ресурсов и целесообразности их жизней?

(c) Как нам обновить наше законодательство, чтобы оно стало более справедливым и эффективным, чтобы оно учитывало существование искусственного интеллекта, и как управлять рисками, связанными с ним?

(d) Как искусственный интеллект должен быть увязан с нашей системой ценностей, и каким должен быть его юридический и этический статус?

§ 3 Научно-политическое звено: Между исследователями искусственного интеллекта и политиками должен быть конструктивный и содержательный диалог.

§ 4 Исследовательская культура: Среди исследователей и разработчиков искусственного интеллекта следует поддерживать атмосферу сотрудничества, доверия и прозрачности.

§ 5 Исключение технологической гонки: Группы, разрабатывающие системы искусственного интеллекта, должны активно сотрудничать и не допускать получения решающего преимущества за счет снижения стандартов безопасности.

Ценности и вопросы этики

§ 6 Безопасность: Системы с искусственным интеллектом должны быть безопасными и хорошо защищенными на протяжении всей операциональной жизни и проверяемыми в этом отношении, когда проверка осуществима.

§ 7 Прозрачность при неисправностях: Если система с искусственным интеллектом причиняет вред, всегда должна быть возможность выяснить причину.

§ 8 Прозрачность при использовании в судебной практике: Привлечение автономной системы к принятию судебных решений должно сопровождаться удовлетворительными обоснованиями, поддерживаемыми компетентными специалистами-людьми.

§ 9 Ответственность: Разработчики и создатели продвинутых систем с искусственным интеллектом несут моральную ответственность за последствия их правильного использования, неправильного использования и любых предпринимаемых ими действий, им вменяется в моральную обязанность предвидеть и формировать эти возможные последствия.

§ 10 Приведение ценностей в соответствие: Независимо функционирующие системы с искусственным интеллектом должны быть спроектированы таким образом, чтобы их цели и поступки гарантированно не приходили в противоречие с человеческими ценностями на протяжении всего срока их работы.

§ 11 Человеческие ценности: Системы с искусственным интеллектом должны разрабатываться и действовать таким образом, чтобы это соответствовало идеалам человеческого достоинства, прав, свобод и культурного разнообразия.

§ 12 Неприкосновенность частной жизни: Люди должны иметь право получать доступ к производимым ими данным, редактировать их и контролировать их использование во всех тех ситуациях, когда такие данные анализируются или используются системами с искусственным интеллектом.

§ 13 Свобода и конфиденциальность: Применение искусственного интеллекта с использованием личных данных людей не должно необоснованно ограничивать реальную или воображаемую свободу этих людей.

§ 14 Общая польза: AI-технологии должны приносить пользу и расширять возможности как можно большего числа людей.

§ 15 Общее процветание: Экономические преимущества, созданные при помощи искусственного интеллекта, должны предоставляться всем, использоваться на благо всего человечества.

§ 16 Человеческий контроль: Делегирование принятия решений искусственному интеллекту и его форма определяется людьми; цели, для достижения которых такие решения будут приниматься, ставятся также людьми.

§ 17 Сохранение социального порядка: Власть, возникающая у высокоразвитой системы с искусственным интеллектом благодаря ее возможностям управления, должна поддерживать и развивать социальные и гражданские процессы, от которых зависит общественное благополучие, а не подрывать их.

§ 18 Гонка интеллектуальных систем вооружений: Следует всеми мерами избегать начала гонки вооружений в сфере разработки смертоносных автономных систем.

Долгосрочные аспекты

§ 19 Осторожность в отношении способностей: В отсутствие общего согласия мы должны избегать сильных предположений относительно верхнего предела будущих возможностей искусственного интеллекта.

§ 20 Значение для будущего: Продвинутый искусственный интеллект может стать причиной глубоких изменений в истории жизни на Земле, они должны планироваться и управляться с соразмерной заботой и привлечением необходимых ресурсов.

§ 21 Риски: Риски, связанные с развитием систем искусственного интеллекта, в особенности катастрофические или экзистенциальные, должны регулироваться соразмерными усилиями по планированию и смягчению последствий их ожидаемого воздействия.

§ 22 Последовательное самосовершенствование: Системы искусственного интеллекта, конструктивно предполагающие самосовершенствование или саморазмножение, которые могли бы привести к быстрому росту их качества или количества, должны подвергаться самому строгому контролю в плане безопасности и управляемости.

§ 23 Общее благо: Сверхразум может создаваться только для служения всеми разделяемым этическим идеалам и во благо всего человечества, а не какого-то одного государства или какой-то одной организации.

После того как мы вывесили список этих принципов онлайн, количество подписей под ним стало быстро расти, и сейчас среди них можно видеть имена более тысячи самых известных мыслителей и ведущих разработчиков интеллектуальных систем. Если и вы хотите поставить свою подпись, пройдите по ссылке: http://futureoflife.org/ai-principles.

Нас поразило не столько то, как высок был уровень всеобщего согласия относительно этих принципов, сколько сама их сила. Конечно, некоторые могут на первый взгляд показаться такими же спорными, как что-нибудь вроде «Мир, любовь и материнство — бесценны». Но у многих из них есть настоящие зубы, которые можно заметить, например, если попытаться сформулировать отрицание. Например, утверждение «Сверхразум невозможен!» будет противоречить § 19, а «Проводить исследование, направленное на снижение экзистенциального риска от искусственного интеллекта, — только попусту тратить время!» будет противоречить § 21.

В самом деле, как вы можете самостоятельно убедиться, посмотрев на YouTube наши панельные дискуссии, посвященные долгосрочной перспективе, Илон Маск, Стюарт Рассел, Рэй Курцвейл, Демис Хассабис, Сэм Харрис, Ник Бострём, Дэвид Чалмерс, Барт Зельман и Яан Таллин — все согласились, что сверхразум, возможно, будет создан и исследования по безопасности важно проводить.

Я надеюсь, что наши Асиломарские принципы разработки искусственного интеллекта станут исходной точкой для более детальных дискуссий, которые в итоге приведут нас к созданию разумных стратегических и политических решений по отношению к искусственному интеллекту. В этом духе наш медиа-директор Эриел Конн работал с Такером Дави и другими членами нашей команды, проводя интервью среди ведущих исследователей по поводу их видения и интерпретаций создаваемых принципов, а Дэвид Стэнли и его команда международных волонтеров FLI переводили эти принципы на ключевые языки мира.

1 ... 109 110
Перейти на страницу:

Внимание!

Сайт сохраняет куки вашего браузера. Вы сможете в любой момент сделать закладку и продолжить прочтение книги «Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта - Макс Тегмарк», после закрытия браузера.

Комментарии и отзывы (0) к книге "Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта - Макс Тегмарк"