Читать книгу "Начало бесконечности. Объяснения, которые меняют мир - Дэвид Дойч"
Шрифт:
Интервал:
Закладка:
Тест Тьюринга и его рассуждения заставили многих исследователей задуматься, и не только о том, был ли он прав, но и о том, как пройти этот тест. Стали писать программы с намерением разобраться, что может иметь отношение к прохождению теста.
В 1964 году учёный-компьютерщик Джозеф Вейценбаум написал программу «Элиза» (Eliza), которая должна была имитировать психотерапевта. Он полагал, что психотерапевты — особенно простой для имитации тип человека, потому что о себе программа может давать обтекаемые ответы, а вопросы задавать только на основе вопросов и утверждений самого пользователя. Это была удивительно простая программа. Сегодня такие программы часто пишут студенты, изучающие программирование, потому что это забавно и просто. У типичной программы такого типа две основные стратегии. Сначала она сканирует входные данные в поиске определённых ключевых слов и грамматических форм. И если находит, то отвечает по шаблону, заполняя пробелы с помощью слов из входных данных. Например, если на вход поступила фраза «Я ненавижу свою работу», программа может распознать грамматические аспекты предложения, включая притяжательное местоимение «свою», а также глагол «ненавижу», как ключевое из встроенного списка вида «любить/ненавидеть/нравиться/не нравиться/хотеть» и выбрать для ответа подходящий шаблон: «Что в вашей работе вам не нравится больше всего?» Если программе не удаётся настолько хорошо разобраться с входными данными, она задаёт свой собственный вопрос, случайным образом выбирая из стандартных заготовок, которые могут зависеть от входной последовательности, а могут и не зависеть. Например, на вопрос «Как работает телевизор?» ответ может быть «Что интересного в том, как работает телевизор?». Или просто: «Почему вас это интересует?» Другая стратегия, которая используется в последних версиях «Элизы», работающих с Интернетом, заключается в построении базы данных предыдущих диалогов, с тем чтобы программа могла просто повторять фразы, которые вводили другие пользователи, выбирая их в соответствии с ключевыми словами, найденными во входной последовательности от данного пользователя.
Вейценбаума поразил тот факт, что многих людей, которые работали с «Элизой», ей удавалось обмануть. Таким образом, эта программа прошла тест Тьюринга, по крайней мере в самой его безыскусной версии. Более того, даже узнав, что это был не настоящий искусственный интеллект, люди иногда продолжали долго разговаривать с программой о своих личных проблемах так, как будто по-прежнему считали, что она понимает их. В 1976 году вышла книга Вейценбаума «Возможности вычислительных машин и человеческий разум»[39] (Computer Power and Human Reason), в которой он предупреждал об опасностях антропоморфизма, когда кажется, что компьютеры внешне демонстрируют человекоподобную функциональность.
Однако антропоморфизм — не главный тип самонадеянности, создающий препятствия в области искусственного интеллекта. Вот как в 1983 году студенты Дугласа Хофштадтера подшутили над своим научным руководителем. Они убедили его, что получили доступ к правительственной программе искусственного интеллекта, и позвали его проверить её тестом Тьюринга. На самом же деле на другом конце провода был один из студентов, который имитировал программу «Элиза». Как пишет Хофштадтер в своей книге «Метамагические темы» (Metamagical Themas), опубликованной в 1985 году, его вопросы студент с самого начала понимал невероятно хорошо. Например, среди первых реплик были:
Хофштадтер: Что такое уши?
Студент: Уши — это органы слуха у животных.
Эта фраза не была определением из словаря. Таким образом, что-то должно было обработать значение слова «уши» так, что оно выделилось среди многих других существительных. Один такой обмен репликами легко списать на удачу: наверняка вопрос совпал с одним из шаблонов, созданных программистом, включая специально подобранную информацию об ушах. Но после десятка таких диалогов по разным темам, с различным построением фраз, объяснять это удачей становится весьма неразумно, и обман должен был раскрыться. Но этого не произошло! И студент стал отвечать ещё смелее, но выдал себя лишь тогда, когда отпустил шутку прицельно в адрес Хофштадтера.
Хофштадтер отмечал: «Вспоминая этот эпизод, я просто поражаюсь, насколько я готов был поверить, что в программу действительно заложено столько интеллекта… Очевидно, что я хотел верить, что такая плавность речи в настоящий момент достижима просто за счёт сбора множества отдельных трюков, заплаток и нелепых, но работоспособных решений». Дело было в том (и только это уже должно было насторожить Хофштадтера), что на тот момент, спустя девятнадцать лет после написания «Элизы», ни одна из подобных ей современных программ не была похожа на человека хотя бы немного больше, чем оригинал. Да, они лучше справлялись с разбором предложений, в них было встроено больше шаблонов вопросов и ответов, но в развёрнутой беседе на разнообразные темы от этого практически не было пользы. Вероятность того, что выходная последовательность при таких шаблонах останется похожей на результат работы человеческой мысли уменьшается экспоненциально с числом высказываний. Таким образом, Хофштадтер должен был достаточно быстро объявить, что кандидат прошёл тест Тьюринга и что, поскольку всё же он был довольно похож на «Элизу», это, должно быть, был человек, выдающий себя за компьютерную программу.
Программы, которые пишут сегодня, ещё двадцать шесть лет спустя, в способности имитировать мышление недалеко ушли от «Элизы». Сегодня их называют «чатботами», и в основном они по-прежнему служат для развлечения, как сами по себе, так и в составе компьютерных игр. С их помощью создают дружественные интерфейсы для списков «часто задаваемых вопросов», например, о том, как работать с компьютерами. Но мне кажется, с точки зрения пользователя они не полезнее, чем списки вопросов и ответов с возможностью поиска.
В 1990 году изобретатель Хью Лебнер учредил премию за прохождение теста Тьюринга, присуждаемую по результатам ежегодного конкурса. Пока тест никем не пройден, участнику, который был ближе всего к победе, каждый год вручается приз поменьше. Выполнить тест сложнее, чем это может показаться на первый взгляд. Одна из проблем — в том, что требование, согласно которому программа должна притвориться человеком, одновременно и необъективно, и не имеет прямого отношения к тому, может ли она думать. Но если программа не будет притворяться человеком, то независимо от того, может она думать или нет, определить, что это компьютер, будет нетрудно. С этим связана и сложность, которая состоит в том, что участник-человек может специально имитировать чатбот, как в розыгрыше с Хофштадтером, и тем самым сорвать тест, в основе которого — сравнение человека и машины. Должны ли правила тем не менее разрешать человеку так поступать, чтобы смягчить предыдущую проблему?
К сожалению, при современном положении дел до таких тонкостей не доходит, что хорошо иллюстрируется следующими выдержками из разговора, благодаря которому программа «Элбот» (Elbot) в 2008 году получила (малый) приз Лебнера.
Внимание!
Сайт сохраняет куки вашего браузера. Вы сможете в любой момент сделать закладку и продолжить прочтение книги «Начало бесконечности. Объяснения, которые меняют мир - Дэвид Дойч», после закрытия браузера.