Читать книгу "Homo Roboticus? Люди и машины в поисках взаимопонимания - Джон Маркофф"
Шрифт:
Интервал:
Закладка:
Вскоре Грубер осознал, что ему интересно не улучшать экспертные системы, а создавать инструменты, облегчающие другим разработку экспертных систем. Потом это назовут «проблемой накопления знаний». В диссертации он утверждал, что для создания эффективной экспертной системы надо моделировать не знания, а стратегию, т. е. понимание того, что делать дальше. В то время экспертные системы постоянно зависали, создавались вручную и требовали участия специалистов для компилирования знаний. Его цель состояла в автоматизации приобретения этого неуловимого «стратегического знания».
Во время учебы в аспирантуре подход Грубера не выходил за рамки существующей в сообществе искусственного интеллекта концепции: сначала он определял искусственный интеллект традиционно, как понимание принципов функционирования интеллекта и выполнение задач на уровне человека. Со временем его точка зрения изменилась – необходимо не просто копировать интеллект человека, а стремиться к его усилению. Он не встречался с Энгельбартом и не был знаком с его идеями, но основным направлением исследований для него стало использование компьютеров не для копирования и замены людей, а для расширения их возможностей.
Еще во время работы над диссертацией Грубер решил перебраться на Западное побережье. Стэнфорд тогда был уже известным центром исследований искусственного интеллекта, и там работал Эд Фейгенбаум, восходящая звезда этой сферы. Он инициировал проект по созданию крупнейшей в мире экспертной системы по «техническим знаниям», знаниям о том, как разрабатываются и производятся такие вещи, как ракеты и реактивные двигатели. Консультант Грубера Пол Коэн представил его Фейгенбауму, который вежливо сказал, что его лаборатория работает на пожертвования и у него нет вакансий для новых сотрудников.
«А что, если я сам достану деньги?» – спросил Грубер.
«Принесете свои деньги?!»
Фейгенбаум не возражал, и Грубер получил финансирование от нескольких компаний, которые он консультировал. В скором времени он руководил проектом Фейгенбаума в области инженерии знаний. Вот так в 1989 г. Грубер оказался в Стэнфордском университете во время взрывного распространения персональных компьютеров и второй зимы искусственного интеллекта. В Стэнфорде Грубер был изолирован от коммерческой гонки. Начав работать в проекте Фейгенбаума, он сразу столкнулся с проблемой получения знаний, необходимых для моделирования работы эксперта. Именно на ней он споткнулся во время работы над диссертацией. Стало также понятно, что для перехода от «строительства» к «производству» систем знаний разработчикам нужны стандартные блоки. Грубер включился в стандартизацию языков и категорий, используемых при разработке искусственного интеллекта. Язык должен быть точным, если разработчики хотят создавать системы, в которых общается множество людей и программ. Модули не смогут работать без стандартизированных определений. Исследователи искусственного интеллекта заимствовали философский термин «онтология» и стали применять его для обозначения набора понятий – событий, объектов, взаимосвязей, которые составляют знания в той или иной области. В соответствии с определением Грубера онтология была «соглашением», общественным договором людей, заинтересованных в обмене информацией или ведении коммерции.
Это была технология, которая идеально сочеталась с новым тогда интернетом. Совершенно неожиданно бессвязный мир множества языков и компьютерных протоколов превратился в электронную Вавилонскую башню. Всемирная паутина предложила универсальный механизм, позволявший легко находить документы через интернет. В основе сети лежала давняя работа Дуга Энгельбарта и Теда Нельсона, которые независимо друг от друга выдвинули идею гипертекстовых ссылок, облегчавших доступ к хранящейся в компьютерных сетях информации. В 1990-х гг. сеть быстро стала средой соединения любого с чем угодно, предоставляя подобный Lego способ связи информации, компьютеров и людей.
Онтология предложила более эффективный способ обмена любыми видами информации, соединив мощь глобальной цифровой библиотеки с возможностью маркировки информационных «объектов». Это позволяло включить семантику, или смысл, в обмен электронной информацией и фактически сделать шаг в направлении искусственного интеллекта. Первоначально онтологиями занималась маленькая группка в сообществе искусственного интеллекта. Грубер одним из первых применил инженерные решения к созданию онтологий. Это вовлекало его в совместную работу с целым рядом программистов, которые могли находиться как в кампусе, так и на другом конце света. Он познакомился с ученым-компьютерщиком Джеем «Марти» Тененбаумом, который ранее руководил исследованиями в области искусственного интеллекта в SRI International, а в тот момент возглавлял одну из первых лабораторий искусственного интеллекта в Кремниевой долине, созданной французским гигантом в области нефтеразведки Schlumberger. Тененбаум сразу разглядел будущее электронной коммерции, предшествовавшей Всемирной паутине. В 1992 г. он основал одну из первых компаний «электронной торговли» Enterprise Integration Technologies (EIT), тогда такая идея была еще мало кому знакомой.
В офисе около того места, где когда-то располагался первый производитель микросхем Долины Fairchild Semiconductor, Тененбаум набросал модель «беспроблемной» электронной торговли. Он предвидел появление автоматизированной экономики в стиле Lego, в которой целые отрасли будут связаны компьютерными сетями и программными системами, осуществляющими обмен товарами и услугами. Работа Грубера в области онтологии отлично подходила к системе торговли Тененбаума, которой требовался общий язык для соединения разрозненных частей. В определенной мере благодаря их сотрудничеству Грубер одним из первых технологов в Кремниевой долине погрузился во Всемирную паутину. Сеть, созданную Тимом Бернерсом-Ли в недрах сообщества физики элементарных частиц в Швейцарии, быстро приняли ученые-компьютерщики. Широкая публика узнала о ней после публикации статьи в New York Times в декабре 1993 г.{189}
Интернет позволил Груберу создать небольшую группу, которая превратилась в живое киберсообщество, связанное посредством электронной почты. Хотя некоторые из его членов встречались друг с другом, они были фактически «виртуальной» организацией. Недостаток заключался в том, что их связь была двухточечной, не позволявшей вести коллективные обсуждения. «Было бы неплохо иметь "живой" накопитель наших сообщений», – подумал Грубер. У него зародилась идея создать общедоступную, постоянную групповую память с возможностью поиска. Сегодня, когда существуют онлайновые конференции, системы поддержки и Google, такая идея кажется тривиальной, но в то время это был прорыв. Именно эта концепция лежала в основе системы NLS Дуга Энгельбарта, но с появлением персонального компьютера его широкое видение отошло на второй план. Xerox PARC, а затем Apple и Microsoft использовали лишь отдельные его идеи, такие как мышь и гипертекст, а более масштабная задача – облегчение работы небольших групп специалистов – была забыта. Грубер создал программу, которая автоматически генерировала обновляемый документ о работе, выполненной группой людей. За пару недель он написал программу под названием Hypermail, которая «живет» на почтовом сервере и генерирует цепочечную копию переписки, которую можно получить через сеть. В результате появился цифровой снимок электронной переписки с постоянными ссылками, который можно было разметить и заархивировать.
Внимание!
Сайт сохраняет куки вашего браузера. Вы сможете в любой момент сделать закладку и продолжить прочтение книги «Homo Roboticus? Люди и машины в поисках взаимопонимания - Джон Маркофф», после закрытия браузера.