Читать книгу "Радость науки. Важнейшие основы рационального мышления - Джим Аль-Халили"
Шрифт:
Интервал:
Закладка:
Вызывает ли беспокойство эта тенденция, когда люди верят в нелепые россказни? Конечно. Но разве это удивительно? Нет, не очень: теории заговора определенно не являются чем-то новым. Однако та скорость, с которой они теперь распространяются, особенно через соцсети, изумляет и одновременно ужасает.
Ученые гордятся тем, что считают себя искателями объективной истины о мире, но это не всегда так просто, как вы могли бы подумать, ведь такие проблемы, как предвзятость подтверждения и когнитивный диссонанс, способны поражать отдельных ученых не в меньшей степени, чем всех остальных. Однако, когда дело доходит до попыток раскрыть правду о каком-то событии или истории из повседневной жизни, все может оказаться еще сложнее. Например, новостной репортаж может быть фактологически точным, но в то же время предвзятым и субъективным. Более того, разные новостные сети, газеты или интернет-сайты могут честно сообщать об одном и том же событии и при этом иметь сильно отличающиеся интерпретации, причем каждая из них подчеркивает или преувеличивает одни аспекты и приуменьшает другие. Возможно, они и не пытаются намеренно ввести вас в заблуждение или солгать, а просто рассматривают событие или рассказывают историю через призму своей идеологической или политической позиции. Опять же, здесь нет ничего нового, и если мы готовы проявить усердие, то можем получать новости из нескольких источников, чтобы сформировать сбалансированное мнение – хотя на самом деле мало кто из нас так поступает. Однако, когда дело доходит до распространения пагубных фейковых новостей и намеренно вводящей в заблуждение дезинформации, в отличие от просто неверной информации или предвзятых репортажей, тогда мы должны противостоять этому.
Ложная информация – передаваемая или распространяемая намеренно или ненамеренно – не является следствием новых цифровых технологий, которыми мы располагаем сегодня, но безусловно усиливается ими в последние годы. Итак, что же с этим можно сделать? В предыдущей главе речь шла о том, как мы можем подвергнуть сомнению то, что слышим и читаем, анализируя свои предубеждения и требуя веских доказательств. Но маловероятно, что какой-либо из этих советов действительно изменит мнение сторонника теории заговора. Таким образом, в конце концов, возможно, что мы, общество, должны найти возможности для коллективной борьбы с дезинформацией и что законы на этот счет должны быть ужесточены, чтобы не допустить распространения лжи и дезинформации, а также развращения наших мыслей и мнений.
Эта проблема, к сожалению, усугубляется с каждым днем, поскольку технологии, используемые для распространения информации, становятся все более продвинутыми. Мы уже находимся на той стадии, когда почти невозможно отличить поддельные изображения, видеоматериалы или аудио от реальных и когда создавать и распространять поддельные «факты» с помощью широкодоступных технологий становится все проще. При этом технологии, используемые для различения подделок и реальности, все еще слишком легко обмануть. Поэтому нам придется как можно быстрее найти способы и разработать стратегии борьбы с дезинформацией и фейковыми нарративами. Это потребует сочетания технологических решений и изменений в обществе и законодательстве.
Когда мы сегодня слышим об использовании алгоритмов искусственного интеллекта и машинного обучения, это, как правило, предполагает несколько негативный контекст фильтрации информации, с целью сделать нас более легкой мишенью для рекламодателей. Однако гораздо более коварным является тот факт, что эта же технология используется для распространения дезинформации и делает фейк почти неотличимым от реальности. Но искусственный интеллект можно использовать и во благо. Он может проверять, оценивать и фильтровать данные для нашей пользы. Вскоре мы разработаем усовершенствованные алгоритмы для выявления, блокирования или удаления онлайн-контента, признанного ложным или вводящим в заблуждение.
Сейчас мы наблюдаем, как технологический прогресс движется в противоположных направлениях. Хотя создать убедительную фальшивку становится все проще, ту же технологию можно использовать и для проверки этой информации. Какая из этих двух конкурирующих сил (добро против зла) в конце концов победит, зависит от нас и от того, как мы будем реагировать.
Пессимисты, естественно, спросят, с чьей же правдой мы в итоге останемся. Некоторые могут даже возразить, что личная свобода должна цениться выше истины. Они скажут, что усиление цензуры и массовой слежки приведет к созданию официальной «правды», с которой обществу придется соглашаться. Или, возможно, они обеспокоены тем, что технологии, используемые для фильтрации фейковой информации, внедряются влиятельными корпорациями, например Facebook и Twitter, которые сами по себе не являются полностью объективными и могут иметь свои корыстные интересы и политические идеологии.
Безусловно, отрадно видеть, что многие крупные социальные сети в настоящее время начинают внедрять все более сложные алгоритмы для борьбы с контентом, который общество в целом считает морально нежелательным, таким как подстрекательство к насилию, опасные идеологии, расизм, женоненавистничество и гомофобия, а также информация, фальшивость которой не оставляет сомнений. Однако передача этой ответственности на «аутсорсинг» частным и крайне могущественным организациям, цель которых состоит все-таки в получении прибыли, может оказаться не совсем желательной в долгосрочной перспективе. И если нам придется это делать, то мы должны найти четкие способы привлечения таких организаций к ответственности за шаги, предпринимаемые от нашего имени.
Некоторые даже утверждают, что любая система, способная оценивать информацию как истинную или ложную, по сути своей необъективна. Однако, хотя верно то, что проектированием этих систем занимаются люди, имеющие ценности и предубеждения, это слишком вольное использование данного аргумента, которое я лично не приемлю. По мере того как ИИ становится все более продвинутым, он безусловно помогает нам отсеивать ложь от фактов, подкрепленных настоящими доказательствами, но он также может выявлять места, где существует неопределенность, субъективность и различные нюансы. В известном комедийном скетче на британском телевидении некто, играющий роль сотрудника службы поддержки клиентов, предлагает им генерируемые компьютером решения и всегда отвечает на самые разумные запросы клиентов фразой: «Компьютер говорит “нет”». Сейчас технологии ушли далеко вперед. Достижения последних лет означают, что ИИ вскоре сможет интегрировать в свои алгоритмы нравственное и этическое мышление, что позволит ему защищать такие права, как свобода слова, и одновременно отсеивать и блокировать ложные нарративы и дезинформацию. Нам нужно контролировать предвзятость, и поэтому то, какие именно моральные принципы закодированы в этих алгоритмах, следует открыто и коллективно обсуждать всем обществом. Что насчет религиозных и светских убеждений? Что насчет культурных норм? То, что одни члены общества считают приемлемым и даже необходимым моральным стандартом, для других – табу.
Всегда найдутся те, кто с недоверием относится к любым попыткам отделить правду от лжи. В каком-то смысле это неизбежно. Это не признание поражения, но такова реальность. Мы
Внимание!
Сайт сохраняет куки вашего браузера. Вы сможете в любой момент сделать закладку и продолжить прочтение книги «Радость науки. Важнейшие основы рационального мышления - Джим Аль-Халили», после закрытия браузера.