Читать книгу "Архитекторы интеллекта. Вся правда об искусственном интеллекте от его создателей - Мартин Форд"
Шрифт:
Интервал:
Закладка:
Дж. П.: Разумеется, каждая машина имеет своего рода внутренний опыт. Она должна иметь некое представление о своем программном обеспечении, но не может полностью быть в курсе своей архитектуры, так как это противоречит доказанной Тьюрингом проблеме остановки. Но машине целесообразно иметь представление о своих важных связях и модулях. Она должна иметь код своих способностей, убеждений, целей и желаний. И это вполне реально. В каком-то смысле машина уже обладает внутренней сущностью, так как имеет представление об окружающей среде, способна реагировать на происходящее и отвечать на гипотетические вопросы.
М. Ф.: А что вы думаете об эмоциональном опыте? Может ли машина чувствовать себя счастливой или по какой-то причине страдать?
Дж. П.: Это напоминает мне книгу Марвина Минского The Emotion Machine («Эмоциональная машина»), в которой он рассказывает, как просто запрограммировать эмоции. В организме присутствуют химические вещества, которые время от времени мешают интеллектуальной деятельности и переопределяют ее. В итоге эмоции можно сравнить с химической машиной, расставляющей приоритеты.
М. Ф.: О чем имеет смысл беспокоиться по мере развития ИИ?
Дж. П.: Мы должны понимать, что именно мы строим. Фактически мы выводим новый вид интеллектуальных животных. Сначала они будут ручными, как куры или собаки, но в конечном итоге обретут свободу воли, и вот тут следует быть очень осторожными. Но так, чтобы не принести ущерб науке и научному любопытству. Это сложный вопрос, а я бы не хотел вдаваться в тонкости регулирования исследований в сфере ИИ. Это будет если не животное, то пригодный к эксплуатации человек без юридических прав и претензий на заработную плату. Мы вместе работаем над созданием действительно интеллектуальных, гибких ИИ-систем. Осталось встроить перенос обучения.
Джефф Дин
“Наш путь кажется мне более органичным, ведь мы работаем над действительно гибкими ИИ-системами для решения новых задач".
Старший научный сотрудник команды GOOGLE BRAIN
К компании Google Джефф Дин присоединился в 1999 г., в самом начале ее истории, и за прошедшие годы разработал и реализовал большую часть ее рекламных, поисковых, индексирующих и обслуживающих систем, а также различные части распределенной вычислительной инфраструктуры, на которой работает большинство ее продуктов. Докторскую степень в области computer science получил в Университете штата Вашингтон. В 1996 г. с Крэйгом Чемберсом работал над методиками оптимизации программ для объектно-ориентированных языков. Член Национальной инженерной академии, ACM и Американской ассоциации развития наук (AAAS).
Мартин Форд: Какие исследования в сфере ИИ ведутся в корпорации Google?
Джефф Дин: Наша цель – прогресс в области машинного обучения. Мы пытаемся создавать более интеллектуальные системы, разрабатываем новые алгоритмы, методы, программную и аппаратную инфраструктуру. Google Brain работает над одним из нескольких ИИ-проектов Google и занимается поиском новых областей применения машинного обучения в сотрудничестве с командами Google Translate, Gmail и др. Я лично обеспечиваю энергичную работу по существующим проектам и ищу новые направления.
М. Ф.: В компании DeepMind основное внимание уделяется разработкам сильного ИИ. Означает ли это, что остальные исследования ИИ в Google ориентированы на более узкие и практические приложения?
Дж. Д.: Да, у DeepMind есть структурированный план и вера в себя, но, конечно, о сильном ИИ думают и остальные группы в Google. Наш путь кажется мне более органичным, ведь мы работаем над действительно гибкими ИИ-системами для решения новых задач.
М. Ф.: Как возник ваш интерес к ИИ? И как складывалась ваша карьера?
Дж. Д.: Мне было 9 лет, когда мой отец собрал первый компьютер. К старшим классам школы я уже научился писать программы, а потом получил степень бакалавра в области computer science и экономики в Университете Миннесоты. Темой моей дипломной работы стало параллельное обучение нейронных сетей. Это был 1990 г., когда этой темой интересовались все. Мне очень нравился предоставляемый этими сетями уровень абстракции. Я получал настоящее удовольствие от работы.
Думаю, это чувство испытывали тогда многие, но у нас не было нужных вычислительных мощностей. Мне казалось, что ускорь 64-битные процессорные машины раз в 60, и мы сможем сделать великие вещи. Практика показала, что требовалась в миллион раз большая скорость. Впрочем, теперь она у нас есть.
Затем в течение года я разрабатывал программное обеспечение для статистического моделирования и прогнозирования пандемии ВИЧ/СПИДа во Всемирной организации здравоохранения. После этого в Вашингтоне получил докторскую степень в области computer science. Там я в основном занимался методами оптимизации программ, написанных на объектно-ориентированных языках, в исследовательской лаборатории компании DEC в Пало-Альто.
В конце концов я присоединился к стартапу Google. Тогда в нем работало всего 25 человек. Начал я с разработки нашей первой рекламной системы. Затем был многолетний труд над поисковыми системами и такими функциями, как сканирование, обработка запросов, индексация, ранжирование и т. п., и позднее – инфраструктурное программное обеспечение в проектах MapReduce, Bigtable и Spanner.
В 2011 г. я стал работать над системами, ориентированными на машинное обучение, потому что меня заинтересовало, как можно использовать огромные объемы вычислений, которые применялись для тренировки очень больших и мощных нейронных сетей.
М. Ф.: Расскажите историю проекта Google Brain. Какую роль он играет в Google?
Дж. Д.: Однажды мы разговорились на кухне с Эндрю Ыном, который в то время был консультантом компании Google X, и я узнал, что его ученики в Стэнфорде уже давно интересуются возможностями нейронных сетей и даже начали решать с их помощью различные проблемы. Меня это заинтересовало, так как с нейронными сетями я работал 20 лет назад, когда писал дипломную работу. В результате у нас родился перспективный план: воспользоваться как можно большим количеством вычислений для обучения нейронных сетей.
Мы решили две проблемы. Во-первых, обучение без учителя на примерах изображений. Мы взяли 10 млн случайных кадров из различных видеороликов YouTube и попытались обучить очень большую сеть. Может быть, вы видели знаменитую визуализацию кошки?
М. Ф.: Да, она наделала много шума.
Дж. Д.: Мы поняли, что при обучении масштабируемых моделей на больших объемах данных происходит что-то интересное.
М. Ф.: Как я понимаю, самое интересное было то, что нейросеть сама извлекла концепцию кота из неструктурированных и немаркированных данных?
Внимание!
Сайт сохраняет куки вашего браузера. Вы сможете в любой момент сделать закладку и продолжить прочтение книги «Архитекторы интеллекта. Вся правда об искусственном интеллекте от его создателей - Мартин Форд», после закрытия браузера.