Homo Roboticus? Люди и машины в поисках взаимопонимания Маркофф Джон

Закончив колледж, он съездил в Европу, провел некоторое время в армейском резерве, а затем вернулся в Стэнфорд, чтобы стать геофизиком. Ему давно не давала покоя идея, что магнитные силы играют какую-то роль в возникновении землетрясений и могут помочь предсказывать их. В 1962 г. он начал работать в Varian Associates, одной из первых компаний Кремниевой долины, выпускавшей магнитометры. Его задачей был поиск новых применений для этих приборов, позволявших обнаруживать незначительные изменения в магнитном поле Земли. Varian идеально соответствовала всестороннему интеллекту Брейнера. Как раз в то время высокочувствительные магнитометры стали портативными и открылись широкие перспективы для их применения в самых разных областях – от разведки нефти до обеспечения безопасности в аэропортах. Годы спустя Брейнер станет эдаким высокотехнологичным Индианой Джонсом, использующим технологические достижения для исследования археологических объектов. В руках Брейнера магнитометры Varian будут находить жертв лавин, клады, пропавшие подводные лодки и даже погребенные города. Первый эксперимент в полевых условиях он провел в районе Стэнфорда, измерив электромагнитный импульс 1,4-мегатонного ядерного взрыва на высоте 250 км над землей. Секретные испытания, известные как Starfish Prime, дали новые представления о воздействии ядерных взрывов на расположенную на земле электронику.

Работая над докторской диссертацией в 1967 г., Брейнер начал выяснять, можно ли использовать незначительные изменения магнитного поля в недрах земли для предсказания землетрясений. Он разместил группу магнитометров на грузовиках вдоль 200-километрового участка разлома Сан-Андреас и использовал телефонные линии для передачи данных в лабораторию в старом домике в кампусе Стэнфорда. Там он установил перьевой самописец для регистрации сигналов магнитометров. Это было громоздкое устройство, которое проталкивало, а не протягивало бумажную ленту под пятью цветными перьями. Чтобы менять ленту и отмечать время, был нанят подросток из местной школы, но устройство постоянно зажевывало бумагу. Тогда Брейнер приспособил для записи новый цифровой принтер Hewlett-Packard, и школьник, менявший ленту за доллар в день, стал одной из первых жертв автоматизации.

Позже Брейнера пригласила Hughes Corp. с целью разработки глубоководного морского магнитометра для судна Glomar Explorer. По официальной версии, он предназначался для поиска полезных ископаемых – марганцевых конкреций на океаническом дне на глубине 3000–3500 м. Десятилетие спустя выплыла информация, что реально это делалось в рамках операции ЦРУ по поиску и подъему затонувшей советской подводной лодки со дна Тихого океана. В 1968 г. после убийства Роберта Кеннеди советник Белого дома по науке попросил Брейнера порекомендовать технические средства для обнаружения спрятанного оружия. Тот явился в Исполнительное управление президента с относительно простой системой из четырех магнитометров, ставшей основой для современных металлодетекторов, которые широко используются в аэропортах и общественных зданиях и по сей день{113}.

Брейнеру все же удалось обнаружить связанное с землетрясениями изменение магнитного поля вдоль разлома, но сигнал был трудно различим на фоне геомагнитной активности, и его гипотеза не получила широкого признания. Он не позволил отсутствию научного подтверждения стать препятствием на своем пути. В Varian ему платили за поиск новых сфер коммерческого применения магнитометров, и в 1969 г. он вместе с пятью коллегами из Varian основали Geometrics, компанию, которая использовала авиационные магнитометры для поиска нефтяных месторождений.

В течение семи лет Брейнер руководил компанией по разведке нефти, а затем продал ее Edgerton, Germeshausen, and Grier (EG&G) и проработал еще семь лет в их филиале, прежде чем уйти в 1983 г. К тому времени технологии искусственного интеллекта, начало которым положили SAIL Джона Маккарти и работа Фейгенбаума и Ледерберга по сбору и организации знаний, начали завоевывать Кремниевую долину. Businessweek в июле 1984 г. с энтузиазмом провозглашал: «Искусственный интеллект уже здесь!» Через два месяца в вечерних новостях канала CBS Дэн Разер представил хвалебный репортаж об успехах SRI в разработке экспертных систем для поиска залежей полезных ископаемых. Охваченный энтузиазмом Брейнер стал частью волны ориентированных на технологии предпринимателей, которые верили, что пришло время коммерциализации отрасли.

Вслед за Dendral, первой экспертной системой, такие системы стали появляться одна за другой. В Mycin, также разработанную в Стэнфорде, был заложен «механизм построения заключений» на основе логики «если… то» и «базы знаний» примерно из шести сотен правил выявления кровяных инфекций. В Питтсбургском университете в 1970-х гг. осуществлялась программа Internist-I, еще одна из попыток решить проблему диагностики и лечения болезней. В 1977 г. в SRI Питер Харт, начавший свою карьеру в области искусственного интеллекта с робота Shakey, и Ричард Дуда, еще один из первых исследователей искусственного интеллекта, создали систему Prospector, чтобы помочь в поиске месторождений полезных ископаемых. Эта работа активно освещалась телеканалом CBS. А в 1982 г. Япония объявила программу по созданию компьютера пятого поколения. Открыто ориентированная на искусственный интеллект, она подстегнула конкуренцию и в конечном итоге бум в сфере искусственного интеллекта. В результате возник рынок, предлагавший новоявленным кандидатам естественных наук неслыханные $30 000 в год сразу после защиты.

Джинн был окончательно выпущен из бутылки. Разработка экспертных систем стала дисциплиной, названной «инженерия знаний»: идея заключалась в том, что можно собрать и упорядочить знания ученых, инженеров или менеджеров и применить их для управления предприятием. Компьютер фактически превращался в признанного авторитета. В принципе эта технология могла использоваться для расширения возможностей человека, но производители программного обеспечения в 1980-х гг. продавали ее компаниям под флагом снижения затрат. Как средство повышения производительности она чаще всего предполагала вытеснение людей.

Брейнер искал отрасль, где легко создать базу знаний, и остановился на коммерческом кредитовании и страховом андеррайтинге. В то время опасения в отношении автоматизации были еще не так сильны, и он не рассматривал проблему с этой точки зрения. Компьютерный мир делился на сравнительно дешевые персональные компьютеры и более дорогие «рабочие станции» – чаще всего мощные компьютеры для автоматизированного проектирования. Две компании, Symbolics и Lisp Machines, Inc., отпочковавшиеся от Лаборатории искусственного интеллекта Массачусетского технологического института, занимались специализированными компьютерами для работы на языке Lisp, предназначенном для создания приложений искусственного интеллекта.

Брейнер основал собственный стартап Syntelligence, который вместе с Teknowledge и Intellicorp вошел в тройку ведущих компаний в области искусственного интеллекта в Кремниевой долине в 1980-х гг. Неустанные поиски талантов привели к тому, что вскоре у него стали работать Харт и Дуда из SRI. Компания создала собственный язык программирования Syntel для усовершенствованной рабочей станции, которую использовали инженеры-программисты компании. Были написаны также две программы Underwrighting Advisor и Lending Advisor, предназначенные для работы на IBM PC. Брейнер позиционировал компанию как информационную службу общего пользования, а не как разработчика программ для систем искусственного интеллекта. «В каждой организации обычно есть человек, к которому все идут за советом, – сказал он репортеру The New York Times, писавшему о развитии коммерческих экспертных систем. – Его обычно продвигают по службе, и он перестает использовать свой опыт. Мы пытаемся сохранить эти знания на случай, если он увольняется, умирает или уходит на пенсию, и сделать их доступными множеству других людей». Статья о возможности наделить машину человеческим мышлением вышла на первой полосе газеты в 1984 г.{114}

Предлагая свои пакеты экспертных программ по кредитованию и страхованию, Брейнер напирал на значительное стабильное снижение затрат клиентов. Идея автоматизации работы специалистов была достаточно привлекательной, чтобы получить заказы от банков и страховых компаний и инвестиции от венчурных компаний. AIG, St. Paul и Fireman's Fund, а также Wells Fargo и Wachovia выложили авансом за программы $6 млн. Брейнер развивал проект почти полдесятилетия – штат компании превысил 100 человек, а выручка поднялась до $10 млн в год. Этого, однако, было мало для инвесторов. В 1983 г. пятилетние прогнозы строились из расчета на доход $50 млн в год. Когда надежды на быстрый рост коммерческого рынка программ для систем искусственного интеллекта не реализовались, у Брейнера возникли серьезные разногласия с членом совета директоров венчурным капиталистом Пьером Ламондом, ветераном полупроводниковой индустрии без опыта в области программного обеспечения. В конце концов Брейнер проиграл, и Ламонд пригласил стороннего менеджера, который перенес штаб-квартиру компании в Техас, где он жил.

Сама Syntelligence столкнулась с явлением, известным как «зима искусственного интеллекта». В начале 1980-х гг. работавшие в этой области компании стали одна за другой приходить в упадок из-за финансовых проблем или возвращаться к своим корням, к экспериментальной или консалтинговой деятельности. Сжатие рынка стало атрибутом сферы искусственного интеллекта вместе с повторяющимся циклом «бум – крах», обусловленным раздуванием перспектив научных достижений и неизбежным последующим разочарованием в результатах. Поколение истинно верующих, зачарованных технократической и не в меру оптимистической литературой 1960-х гг. по искусственному интеллекту, определенно сыграло роль в подготовке краха. И этот цикл растянулся на десятилетия, хотя индустрия искусственного интеллекта не прекратила развития{115}. Сегодня цикл вполне может повториться, если верить тем, кто возвещает новую волну технологий на грани «думающих машин».

Первая зима искусственного интеллекта в действительности наступила за 10 лет до этого в Европе. Сэр Майкл Джеймс Лайтхилл, британский математик, провел в 1973 г. исследование, показавшее, что отрасль не реализует предсказания, включая давнее обещание SAIL создать функционирующий искусственный интеллект через 10 лет. Отчет Лайтхилла «Искусственный интеллект: Обзорный анализ» (Artificial Intelligence: A General Survey) не оказал серьезного влияния на Соединенные Штаты, но привел к сокращению финансирования в Англии и уходу британских ученых из отрасли. В дополнение к отчету BBC организовала телевизионные дебаты о будущем искусственного интеллекта, где объектам критики Лайтхилла дали возможность высказаться. На это мероприятие приехал Джон Маккарти, но не смог сказать ничего убедительного в защиту своей отрасли.

Десятилетие спустя зима искусственного интеллекта пришла в США. Она началась в 1984 г., когда Брейнер перед уходом сумел поднять продажи Syntelligence до $10 млн. Предупреждения об «иррациональном оптимизме» высказывались на протяжении нескольких лет с того момента, как Роджер Шенк и Марвин Мински заявили на технической конференции, что появляющиеся коммерческие экспертные системы не вносят ничего особо нового по сравнению с тем, что предлагалось двумя десятилетиями ранее{116}. Именно в 1984 г. идеи Дуга Энгельбарта и Алана Кея по усилению интеллекта обрели материальную форму для каждого офисного работника. В поисках маркетингового образа, показывающего ценность выводимых на рынок персональных компьютеров Macintosh, Стив Джобс выбрал идеальную аналогию – «велосипед для разума».

Выпертый из своей компании Брейнер начал следующий проект – стартап, разрабатывающий программное обеспечение для Macintosh компании Apple. В 1970-х и 1980-х гг. по этому пути шли многие в Кремниевой долине.

В 1960-х гг. информация о работах, которые без лишнего шума велись в Лаборатории искусственного интеллекта Массачусетского технологического института, Стэнфордской лаборатории искусственного интеллекта и в Стэнфордском исследовательском институте, начала проникать во внешний мир. Литературный образ робота и искусственного интеллекта тогда уже существовал в легенде о пражском големе, в книге Мэри Шелли «Франкенштейн» и в пьесе Карела Чапека «R. U. R.» – все они ставили фундаментальный вопрос о влиянии роботов на жизнь людей. Но, когда Америка готовилась послать людей на Луну, появилась новая насыщенная техническими идеями и в целом оптимистичная научная фантастика Айзека Азимова, Роберта Хайнлайна и Артура Кларка. Свихнувшийся разумный компьютер HAL в «Космической одиссее 2001» Кларка не только оказал серьезное влияние на массовую культуру, но и изменил жизнь людей. Джерри Каплан, например, еще до того, как стал аспирантом-компьютерщиком в Пенсильванском университете, знал, чем будет заниматься. Киноверсия «Космической одиссеи 2001» вышла на экраны весной 1968 г., и за лето Каплан посмотрел ее шесть раз. Вместе с двумя друзьями он возвращался в кинотеатр снова и снова. Один из друзей сказал: «Я буду делать фильмы» – и стал режиссером в Голливуде. Другой друг пошел в дантисты, Каплана же притянула к себе сфера искусственного интеллекта.

«Я хочу создавать это», – сказал Каплан своим друзьям, имея в виду HAL. Как и Брейнер, он стал участником первой волны попыток коммерциализировать искусственный интеллект, и так же, как Брейнер, когда они не увенчались успехом, обратился к технологиям расширения возможностей человека.

Во время учебы в магистратуре Каплан прочитал о работе Терри Винограда над программой SHRDLU для взаимодействия с компьютерами на естественном языке. Она дала ему представление о том, что можно сделать в мире искусственного интеллекта и в каком направлении двигаться. Как многие другие честолюбивые компьютерщики в то время, он сосредоточится на понимании естественного языка. Талантливый математик, он был одним из представителей нового поколения компьютерных энтузиастов, которые не замыкались на своем деле, а обладали гораздо более широким мироощущением.

После получения в Чикагском университете степени по философии науки он последовал за своей подругой в Филадельфию. Дядя взял его на работу на склад своей компании по оптовой торговле лекарствами, рассчитывая, что когда-нибудь тот продолжит дело. Семейный бизнес нагонял на Каплана тоску, ему отчаянно хотелось заняться чем-то другим, он вспомнил о курсе программирования в Чикаго, о своей одержимости «Космической одиссеей» и поступил в аспирантуру Пенсильванского университета по специальности «информатика». Там он учился у Аравинда Кришны Джоши, одного из первых специалистов по компьютерной лингвистике. Даже несмотря на свое гуманитарное прошлое, Каплан быстро стал звездой. Он пять лет учился по программе, добиваясь отличных оценок по всем предметам, и написал диссертацию на тему создания интерфейса на естественном языке для баз данных.

В качестве новоиспеченного доктора философии Каплан пробовал читать лекции в Стэнфорде и Массачусетском технологическом институте, посещал SRI и провел целую неделю на собеседованиях в Bell Labs. И компьютерная, и телекоммуникационная индустрия нуждались в докторах философии в области информатики, и во время первого визита в Bell Labs ему сказали, что намерены взять на работу 250 докторов философии, но не собираются брать тех, кто ниже среднего уровня. Каплан не мог не заметить, что это больше общего количества докторов философии, которые защищаются в США за год. Он выбрал Стэнфорд, где Эд Фейгенбаум предложил ему работу в качестве научного сотрудника в Лаборатории инженерии знаний. Стэнфорд не отличался такой интеллектуальной выдержанностью, как Пенсильванский университет, но это был технологический рай. Кремниевая долина уже существовала, полупроводниковая индустрия состязалась с Японией, а Apple Computer была самой быстрорастущей компанией страны.

Там бесплатно кормили на корпоративных и академических мероприятиях каждый вечер и не было недостатка в общении с женщинами. Каплан купил дом в Лос-Транкос-Вудс в нескольких километрах от Стэнфорда, недалеко от SAIL, которая как раз переезжала в новое здание в центре стэнфордского кампуса.

К моменту его прихода в Стэнфорд в 1979 г. первый золотой век искусственного интеллекта находился на пике – Дуглас Хофштадтер, автор книги «Гёдель, Эшер, Бах: Эта бесконечная гирлянда» (Gdel, Escher, Bach: An Eternal Golden Braid), Родни Брукс, Дэвид Шо, который в будущем возьмет разработки в сфере искусственного интеллекта и трансформирует их в многомиллиардный хедж-фонд на Уолл-стрит, – все были там. Обретали очертания коммерческие силы, которые приведут к появлению первой волны компаний вроде Intellicorp, Syntelligence и Teknowledge. Если Пенсильванский университет был подобен башне из слоновой кости, то в Стэнфорде стены между академическим и коммерческим мирами исчезали. На фоне всеобщего оживления стартапы возникали один за другим. Курт Уиддоуз, коллега Каплана, прихватил с собой программное обеспечение для суперкомпьютера S1 и стал соучредителем Valid Logic Systems, одной из первых компаний по автоматизации проектирования электроники. Они использовали недавно появившиеся рабочие станции Stanford University Network (SUN). Сидевший в соседней комнате Энди Бехтольшайм, который занимался аппаратной частью SUN, вскоре стал соучредителем Sun Microsystems и, таким образом, коммерциализировал свою разработку.

Каплан быстро подключился к коммерческим проектам. Они витали в воздухе. По вечерам он консультировал разработчиков программного обеспечения для первого цифрового музыкального синтезатора Synergy. Многие его функции стали впоследствии стандартными для современных синтезаторов. Synergy использовался для создания саундтрека к фильму «Трон» (Tron). Как и все в Стэнфорде, Каплан делал деньги на стороне. Создание компаний было обычным делом. В цокольном этаже работал Леонард Босак, который занимался вопросом взаимодействия компьютеров и в конце концов вместе со своей женой Сэнди Лернер основал Cisco Systems, выпускавшую первые сетевые маршрутизаторы.

Каплан работал в должности научного сотрудника, что было превосходно. Она считалась эквивалентом преподавательской, но без неприятной необходимости преподавать. Впрочем, существовала также и отрицательная сторона. Для преподавательского состава исследователи были людьми второго сорта. С Капланом обращались как с поденщиком, хотя он мог написать программу и проделать серьезную техническую работу. Его роль была подобна роли Скотти, умеющему все инженеру на космическом корабле Enterprise в сериале «Звездный путь». Он был тем, кто заставлял вещи работать. В сферу искусственного интеллекта в то время вкладывались огромные средства. Отчасти это были деньги, выделявшиеся на реализацию рейгановской Стратегической оборонной инициативы, но финансировались и невоенные разработки. Деловая Америка игралась с идеей экспертных систем. В результате бума появились 40 стартапов, а объем продаж связанных с искусственным интеллектом аппаратных и программных средств в 1986 г. достиг $425 млн. Каплан всего два года проработал научным сотрудником в Стэнфорде, а потом получил сразу два предложения от стартапов в сфере искусственного интеллекта. Эд Фейгенбаум решил платить стэнфордским компьютерщикам за то, что они и так делали в университете, в одном из своих стартапов Teknowledge. Новая компания быстро стала лидером консультирования по экспертным системам и разрабатывала также продукты на заказ. Другой стартап назывался Symantec. Несколько десятилетий спустя он стал гигантской компанией по компьютерной безопасности, но начиналось все с базы данных по искусственному интеллекту, пересекавшейся с областью интересов Каплана.

Трудоспособность Каплана в те времена казалась безграничной. Он не был большим любителем вечеринок, не любил, когда ему мешали, и смотрел на выходные как на возможность спокойно поработать. И тут к нему обращается уважаемый исследователь из SRI Гари Хендрикс с просьбой помочь в создании демоверсии программы Q&A, первой базы данных на естественном языке. Идея заключалась в том, чтобы не имеющие специальной подготовки пользователи могли делать поисковые запросы в виде обычных предложений. В оплату предлагали не деньги, а пакет акций, если проект пойдет успешно.

Специализацией Каплана были интерфейсы на естественном языке, которые позволяли вводить с клавиатуры вопросы для экспертной системы. Хендриксу же требовалась простая база данных для демонстрации. За рождественские каникулы в конце 1980 г. Каплан сделал программу. Первоначально она работала на компьютере Apple II. Плата за нее была условной, и Каплан богачом не стал. Поначалу Symantec не имела коммерческих успехов, и венчурные капиталисты навязали ей поглощение, финансовый маневр, в результате которого основатели компании теряют стоимость своих акций, но получают новые инвестиции. В общем, тот небольшой пакет акций, который получил Каплан, обесценился.

В конечном итоге он оставил Стэнфорд и перешел в Teknowledge, поскольку восхищался Ли Хехтом, физиком из Чикагского университета и профессором школы бизнеса, который стал генеральным директором Teknowledge и опекуном двух десятков беженцев из Стэнфорда. «Наши основатели построили больше экспертных систем, чем кто-либо другой», – сказал Хехт в интервью Popular Science в 1982 г.{117} Teknowledge располагалась в конце Юниверсити-авеню, сразу за кампусом Стэнфорда, но вскоре переехала в более привлекательное место дальше по улице – в многоэтажное здание в центре Пало-Альто. В начале 1980-х гг. офис был выполнен в модернистском стиле с акцентом на черных тонах.

Шикарный офис недвусмысленно указывал на то, что новые программы в области искусственного интеллекта не будут дешевыми. Чтобы сформулировать единственное правило для экспертной системы, интервьюеру требовалось провести со специалистом не менее часа, а работоспособная экспертная система должна была включать не менее 500 правил. Доведенная до ума система могла стоить $4 млн, но Хехт, как и Брейнер, верил, что сохранение знаний даст компаниям значительную экономию со временем. Отлаженная система могла сэкономить производителю до $100 млн в год, по словам Хехта. Он заявил, что прототип их экспертной системы для нефтяной компании будет экономить до $1000 на скважину в сутки. Хехт также утверждал, что узкое место исчезнет, когда компьютеры начнут автоматически проводить интервью с экспертами{118}. Он видел в Каплане больше, чем программиста, и обещал научить его управлять компанией, если тот перейдет в Teknowledge. Каплан ухватился за эту возможность. Его офис находился рядом с офисом Хехта, и он вознамерился создать консультационную компанию следующего поколения, миссией которой будет замена труда специалистов программой.

Хотя Каплан понятия не имел об искусстве продажи высокотехнологичных услуг, его назначили ответственным за маркетинг. Для начала было подготовлено описание услуг компании. Опираясь на представления из своего академического прошлого, Каплан скомпоновал рекламный листок для привлечения крпоративных заказчиков на цикл семинаров по вопросам создания экспертных систем, гвоздем которых был Фейгенбаум. Они разослали 5000 рекламных листков. Обычно на такую рассылку откликаются 2 % получателей. Однако вместо сотен ответов было получено всего три, причем один пришел от парня, который думал, что они учат искусственному осеменению. Это был сильный удар для группы энтузиастов, уверенных, что они вот-вот перевернут мир. Как оказалось, за стенами университета никто и не слышал об искусственном интеллекте. В конечном итоге все же удалось собрать небольшую группу в основном крупных и ориентированных на военные заказы компаний. Хехт, однако, гордо заявил, что «поступили запросы более чем от 50 крупнейших компаний со всего мира», а Teknowledge смогла в начале 1982 г. за два месяца получить $1 млн{119}.

Это действительно было грандиозное начинание. Они писали программы на Lisp на фантастических рабочих станциях Xerox Star за $20 000. Беспокоило лишь то, что продвижение продукта лежало на плечах горстки маркетологов во главе с Капланом. Teknowledge придерживалась позиции: «Мы умные, мы великие, нам должны давать деньги». Это было совершенно неуместно, и, кроме того, технология в действительности не работала. Так или иначе, несмотря на первые сложности, они все-таки привлекли внимание. Однажды визит нанес даже король Швеции. В соответствии с протоколом его приезд был обставлен как полагается. Сначала служба безопасности обследовала офис, включая ванную. Потом появилась передовая группа встречающих короля. Каплан затаив дыхание стоял у двери, когда невысокий, ничем не выделяющийся джентльмен в стандартной одежде Кремниевой долины – повседневно-деловой – вошел без сопровождающих и наивно спросил молодого руководителя Teknowledge: «Где мне сесть?» Каплан взволнованно ответил: «Сейчас очень неподходящее время, мы ожидаем прибытия короля Швеции». В ответ прозвучало: «Я и есть король Швеции». Король оказался технически грамотным: он понимал, что они пытаются сделать, гораздо лучше, чем большинство потенциальных заказчиков.

Как бы то ни было, но Каплан извлек из визита свою выгоду. Его пригласили на вечерний прием в честь короля в Богемском клубе в Сан-Франциско. Там он разговорился с красивой шведкой. Они проболтали почти час – Каплан вообразил, что это королева. Но его собеседница оказалась стюардессой шведской авиакомпании, доставившей королевскую свиту в Соединенные Штаты. Ошибся, однако, не только он – стюардесса приняла его за Стива Джобса. У истории был счастливый конец. Молодые люди встречались на протяжении восьми лет.

Teknowledge не так повезло – ей мешал синдром «самого умного из присутствующих». В компании были отличные разработчики систем искусственного интеллекта, но они, овладев магией новой сферы, хотели делиться ею за плату, которая выходила за разумные пределы. Однако системы искусственного интеллекта того времени немногим превосходили программы на основе логики «если… то», разве что устанавливались на чрезмерно дорогих рабочих станциях с очень большими дисплеями и привлекательным графическим интерфейсом. Это было скорее пускание пыли в глаза, чем кладезь знаний.

Каплан стал для компании чем-то вроде троянского коня. В 1981 г. IBM выпустила первый массовый персональный компьютер, резко снизила его стоимость и таким образом сделала доступным. Проповедуемое Дугом Энгельбартом и Аланом Кеем усиление интеллекта стало проявляться повсеместно. Компьютеры могли использоваться для расширения возможностей или замены людей, а снижающиеся цены давали возможность разработчикам программного обеспечения выбрать любой путь. Компьютеры вырвались из стеклянных стен корпоративных центров обработки данных и появились в сметах на закупку офисного оборудования.

Каплан быстро понял значение этих изменений. Ларри Теслер, бывший исследователь из SAIL, участвовавший в разработке Lisa и Makintosh для Стива Джобса и помогавший Джону Скалли создать Newton, также оценил их. Он пытался убедить коллег по Xerox PARC, что дешевые PC изменят мир, но тогда, в 1975 г., никто его не слушал. Шесть лет спустя многие все еще не понимали последствий падения цен на микропроцессоры. Экспертная система Teknowledge к тому времени уже существовала, но требовала слишком дорогой рабочей станции стоимостью около $17 000, а полная установка могла обойтись в $50 000–100 000. Каплан видел, что PC уже достаточно мощные, чтобы справиться с дорогим программным обеспечением Teknowledge. С деловой точки зрения без хитростей с рабочими станциями их продукт становился тем, чем был на самом деле, – пакетом программ, которые должны продаваться по цене программного обеспечения для PC.

В Teknowledge и слушать не хотели подобную ересь. Поэтому Каплан поступил так же, как и несколькими годами ранее, когда помогал Symantec в свободное от работы в Стэнфорде время. Было Рождество, и, пока все остальные отдыхали, он укрылся в своем коттедже и взялся за адаптацию программы Teknowledge к работе на PC. Каплан использовал Turbo Pascal, быстрый как молния язык программирования, который сделал его версию экспертной системы быстрее исходного продукта для рабочей станции. Он закончил работу над программой за праздники, продемонстрировал Wine Adviser, демоверсию системы Teknowledge, на своем «игрушечном» персональном компьютере и в буквальном смысле убил официальное программное обеспечение, функционировавшее на рабочей станции Xerox Star.

Началось светопреставление – сравнительная дешевизна программного обеспечения для персональных компьютеров разрушила не только бизнес-модель Teknowledge, но и представление о месте компании под солнцем! Каплана возненавидели. Ему, однако, удалось убедить Ли Хехта заняться выпуском продукта для PC. Но это было безумством – продавать продукт за $80, а не за $80 000. Каплан превратился в изменника и не сомневался, что ему вот-вот укажут на дверь. В это время появилась Энн Уинблад, которая тогда работала аналитиком по технологическим компаниям на Уолл-стрит, а позже стала известным венчурным капиталистом Кремниевой долины, и взгляды Каплана на изменения в компьютерном мире зацепили ее.

«Я знаю, с кем тебе нужно познакомиться», – сказала она ему.

Этим человеком оказался Митч Капор, основатель и директор Lotus Development Corporation, поставщика электронных таблиц 1-2-3. Каплан встретился с Капором и заинтересовал его своим видением массового использования искусственного интеллекта. Основатель Lotus с энтузиазмом воспринял идею: «У меня есть деньги, не хотите ли вы предложить свой будущий продукт мне?» – спросил он.

Поначалу Каплан хотел сделать недорогую версию экспертной системы Teknowledge под названием ABC наподобие программы 1-2-3. Идея, однако, не вызвала восторга. Так или иначе, вскоре после этого он летел на личном реактивном самолете Капора. Когда Каплан увидел, как основатель Lotus, обложившись заметками на бумаге, вводит информацию с клавиатуры в громоздкий компьютер Compaq размером со швейную машину, у него возникла новая идея. Он предложил программу для ввода заметок в произвольной форме, которая выполняет роль календаря и ежедневника. Капору идея понравилась, и совместно с Эдом Белавом, еще одним разработчиком программного обеспечения Lotus, они обговорили основные моменты.

Каплан вновь уединился в своем коттедже, на этот раз на полтора года, для работы над программой с участием Белава. Капор помогал с оттачиванием общего замысла. Lotus Agenda была первым представителем пакетных программ нового поколения, так называемых персональных информационных менеджеров, которые в некотором роде предвещали появление Всемирной паутины. Информацию можно было сохранять в произвольной форме, и она автоматически распределялась по категориям. Программу стали описывать как «электронную таблицу для слов», она была классическим примером нового поколения программных средств, которые расширяли возможности пользователей в духе Энгельбарта.

Представленный в 1988 г. пакет получил хвалебные отзывы у отраслевых аналитиков вроде Эстер Дайсон и постепенно стал предметом культа. Зима искусственного интеллекта в Америке уже началась, и большиство компаний новой волны в этой сфере вскоре пришли в упадок. Каплан одним из первых заметил зловещие предзнаменования. Как и Брейнер, он быстро превратился из рыцаря искусственного интеллекта в поборника расширения возможностей человека. PC были самым мощным инструментом усиления интеллекта в истории. Становилось ясно, что человека так же легко включить в компьютерную систему, как и исключить из нее. Когда в сфере искусственного интеллекта возникли коммерческие проблемы, персональные компьютеры, а вместе с ними и усиление интеллекта вырвались вперед. В конце 1970-х гг. и в начале 1980-х гг. в Америке наблюдался взрывной рост индустрии персональных компьютеров. Идея о том, что компьютер может быть и «усилителем фантазии» дома, и средством повышения производительности в офисе, в мгновение ока вытеснила представление о компьютере как о безликом бюрократическом инструменте госучреждений и компаний. К 1982 г. персональные компьютеры стали таким культурным явлением, что журнал Time поместил PC на обложку в качестве «человека года».

Разработчики сами отдали предпочтение усилению интеллекта. Каплан основал компанию Go Corp. и создал первый компьютер с рукописным вводом, который опередил iPhone и iPad более чем на десятилетие. Подобно Шелдону Брейнеру, который отошел от искусственного интеллекта к 1980-м гг., он перешел на сторону ориентированных на человека систем в наступающей эпохе post-PC.

Попытки создать работоспособную систему искусственного интеллекта с самого начала сопровождались ложными надеждами и ожесточенными техническими и философскими спорами. В 1958 г., через два года после Дартмутской летней конференции по искусственному интеллекту, New York Times опубликовала на 25-й странице полученное по телеграфу информационное сообщение агентства UPI. Оно вышло под заголовком «Новое устройство для ВМС учится в процессе работы: психолог показывает прообраз компьютера, который сможет читать и становиться умнее»{120}.

Речь шла о проведенной Фрэнком Розенблаттом, психологом Корнеллского университета, демонстрации прообраза компьютера, который, по расчетам руководства ВМС, однажды научится «ходить, говорить, видеть, писать, воспроизводить и осознавать себя». В действительности это была лишь модель, которая функционировала на принадлежавшей Бюро погоды вычислительной машине IBM 704 и могла с полусотни попыток отличить право и лево. В военно-морском ведомстве, похоже, всерьез надеялось за год превратить это в «думающую машину» за $100 000.

Д-р Розенблатт сказал репортерам, что это первое устройство, думающее, «как человеческий мозг», и что поначалу оно будет делать ошибки, но с опытом станет умнее. Он предположил, что одним из применений нового механического мозга может быть замена человека в космических исследованиях. Заметка заключала, что первый персептрон, модель биологических нейронов, будет содержать около 1000 электронных «связанных клеток», принимающих электрические сигналы от 400 фотоэлементов – подобных глазу сканирующих устройств. Для сравнения отмечалось, что человеческий мозг содержит 10 млрд чувствительных клеток и 100 млн связей с глазами.

Первая работа по искусственным нейронным сетям появилась в 1940-х гг., и в 1949 г. на нее обратил внимание студент-математик из Гарварда Марвин Мински. Он пошел дальше и создал первые электронные обучающиеся сети – одну на последнем курсе Гарварда, а вторую, названную «Стохастическим нейронным аналоговым усиленным калькулятором», или SNARC, когда был аспирантом в Принстоне. Впоследствии он написал докторскую диссертацию по нейронным сетям. Эти математические структуры представляют собой сети узлов, или «нейронов», которые взаимосвязаны численными величинами, выполняющими роль «весов» или «векторов». Их можно обучать, создавая различные образы, например изображения или звуки, которые впоследствии они распознают сами.

В 1960-х гг. возникло несколько конкурирующих направлений в создании думающих машин, но верх взял подход на основе логики и правил, которому благоволил Джон Маккарти. Вместе с тем некоторые группы продолжали экспериментировать с аналоговыми подходами на основе ранних идей о нейронных сетях. По иронии судьбы именно Мински, один из 10 участников Дартмутской конференции, в 1969 г. спровоцировал легендарную дискуссию, представив в совместной с Сеймуром Пейпертом книге «Персептроны» (Perceptrons) анализ, который, по широко распространенному мнению, задержал исследования нейронных сетей на многие годы. Считается, что критика со стороны этих двух специалистов по искусственному интеллекту из Массачусетского технологического института надолго заморозила новую область исследований.

Это лишь один из примеров яростных интеллектуальных сражений в сообществе искусственного интеллекта в 1960-е гг. Мински и Пейперт потом настаивали, что столь резкая оценка несправедлива и что их книга содержала значительно более взвешенный анализ нейронных сетей, чем говорили. Спор еще больше осложнило то, что Розенблатт, одна из основных фигур в этой области, два года спустя погиб в результате несчастного случая, оставив после себя вакуум в сфере исследования нейронных сетей.

Поначалу исследования нейронных сетей велись и в Стэнфордском университете, а также под руководством Чарли Розена в SRI, но стэнфордская группа переключилась на телекоммуникации, а Розен переориентировался в работе с Shakey на доминирующий подход к искусственному интеллекту. Интерес к нейронным сетям возродился только в 1978 г. в связи с работами Терри Сейновски, докторанта нейробиологии в Гарварде. Сейновски оставил физику, которой занимался раньше, и обратился к нейробиологии. После летнего курса в Вудс-Хоуле, штат Массачусетс, он увлекся тайнами мозга. В том году британский психолог с ученой степенью Джеффри Хинтон учился в Калифорнийском университете в Сан-Диего под руководством Дэвида Румельхарта. Один из его старших коллег вместе с основателем отделения когнитивной психологии Дональдом Норманом создал группу, занимавшуюся вопросами параллельной распределенной обработки.

Хинтон был праправнуком логика Джорджа Буля и приехал в Соединенные Штаты в поисках спасения от зимы искусственного интеллекта в Англии. Отчет Лайтхилла[12] доказывал, что большая часть исследований в области искусственного интеллекта не оправдала ожиданий, исключением стала только нейроинформатика. В телевизионной дискуссии «Лайтхилл – BBC» стороны выдвигали аргументы, опираясь на текущие данные об эффективности компьютеров, и никто не принимал во внимание закон Мура об ускорении роста быстродействия вычислительной техники.

Во время учебы в аспирантуре Хинтона сильно задели нападки Мински и Пейперта на нейронные сети. В Англии стоило ему сказать, что он занимается искусственными нейронными сетями, в ответ раздавалось: «Разве ты не знаешь, что от них нет толку?» Его консультант рекомендовал ему забыть о своем увлечении и прочитать диссертацию Терри Винограда. Все это впоследствии стало символической логикой. Но Хинтон выбрал другой путь. Он работал над концепцией, названной им позднее «инженерией на основе нейронауки». Хинтон не ударился в крайность, характерную для некоторых в новой области биологических компьютеров. На его взгляд, рабское копирование биологии было бы ошибкой. Споры по этому вопросу не утихли и десятилетия спустя. В 2014 г., когда Европейский союз выделил швейцарскому исследователю Генри Маркраму $1 млрд для создания модели человеческого мозга в мельчайших деталях, Хинтон не сомневался – проект обречен на неудачу.

В 1982 г. Хинтон организовал летний семинар по параллельным моделям ассоциативной памяти, в котором должен был участвовать Терри Сейновски. Молодого физика интересовали возможности моделирования мозга с использованием новых схем. Это была первая научная конференция, организованная Хинтоном. Он понимал, что соберет публику, которая встречалась уже не раз, и что эти, на его взгляд, «пожилые профессора за 40» непременно затянут старую песню. Тем не менее рекламный листок был разослан по департаментам вычислительной техники и психологии. В кчестве приманки листок обещал оплатить расходы тем, у кого есть новые идеи. Как и следовало ожидать, большинство откликнувшихся занимались решением проблем традиционными методами. Но одно из предложений выделялось на общем фоне. Оно поступило от молодого ученого, заявлявшего, что он разгадал «машинный код мозга».

Примерно тогда же Хинтон оказался на конференции, в которой участвовал известный исследователь машинного зрения из Массачусетского технологического института Дэвид Марр, и поинтересовался у него, в своем ли уме этот парень. Марр ответил, что знает его, что у него светлая голова и что не имеет представления, сошел ли тот с ума. Было ясно одно, что Сейновски делает нечто новое в области когнитивных исследований.

На семинаре Хинтон и Сейновски встретились впервые. В Калифорнийском университете уже предложили новый подход к созданию модели работы мозга. Так называемая параллельная распределенная обработка была альтернативой символьному подходу, который тогда доминировал в области искусственного интеллекта и когнитивных наук. Двое исследователей быстро поняли, что смотрят на проблему одинаково. Они видели силу нового подхода на основе сетей датчиков, или «нейронов», взаимосвязанных представляющей силу связей матрицей параметров. Чтобы сеть распознавала образ при таком подходе, нужно было представить его в виде графа весовых коэффициентов. Этот подход оказался несравненно эффективней, чем первоначальная символьная модель искусственного интеллекта.

Все изменилось в 1982 г., когда бывший научный руководитель Сейновски по физике Джон Хопфилд создал то, что получило название нейронной сети Хопфилда. Подход Хопфилда отличался от прежних моделей нейронных сетей, созданных разработчиками первых персептронов, тем, что позволял отдельным нейронам независимо менять свои параметры. Свежий взгляд на идею нейронных сетей вдохновил Хинтона и Сейновски на тесное сотрудничество.

Молодые ученые к этому времени получили свои первые преподавательские должности: Хинтон – в Университете Карнеги – Меллона, Сейновски – в Университете Джона Хопкинса, но они достаточно крепко сдружились, чтобы четырехчасовая поездка не была препятствием для встреч по выходным. Было понятно, что найден способ превращения первоначальной модели нейронных сетей в более мощную обучающуюся систему. Они знали, что люди учатся путем наблюдений и обобщений, и сконцентрировались на имитировании этого процесса. Новый вид многослойной сети назвали «машиной Больцмана» в честь австрийского физика Людвига Больцмана. В эту модель они заложили более эффективный подход к машинному обучению и добились самого значительного прогресса со времени первого однослойного алгоритма обучения, разработанного Розенблаттом.

Политический спор вокруг персептронов миновал Сейновски. Как студент-физик, он был далек от мира искусственного интеллекта в конце 1960-х гг., когда Мински и Пейперт заварили бучу. Но он прочел книгу «Персептроны», и она понравилась ему прекрасными геометрическими построениями. Тогда он пропустил мимо ушей их вывод о том, что персептрон не удастся применить к миру многоуровневых систем. Теперь появилась возможность доказать, что они ошибались.

Хинтон и Сейновски создали альтернативную модель, но им нужно было доказать ее эффективность по сравнению с популярными в то время системами, основанными на правилах. Чтобы продемонстрировать преимущества новой технологии, Сейновски с помощью аспиранта в течение лета занимался проблемами языка, обучая свою нейронную сеть произносить английские фразы. В то время у него не было опыта в лингвистике, поэтому он пошел в школьную библиотеку и взял учебник с изложением правил произношения. Нужно было знать весь этот невероятно сложный набор правил и исключений, чтобы правильно говорить по-английски.

В разгар работы по созданию нейронной сети, способной освоить правильное произношение, в Балтимор приехал Хинтон. Он был настроен скептически.

«Вряд ли из этого что-то выйдет, – сказал он. – Английский – невероятно сложный язык, и простая сеть не освоит его».

Друзья решили начать с упрощенной версии языка. Они вновь отправились в библиотеку и нашли книжку для детей с очень небольшим набором слов. Теперь сеть была настроена на усвоение языка из детской книги. В течение часа после того, как система начала работать, исследователей одолевали сомнения. Сначала она генерировала невнятные звуки, похожие на лепет младенца, но по мере обучения их качество улучшалось. Наконец пара слов прозвучала правильно, и процесс продолжался до тех пор, пока речь не стала идеальной. Машина запоминала и общие правила, и исключения.

Исследователи вернулись в библиотеку и взяли другое учебное пособие, где на одной стороне страницы приводилась транскрипция рассказа пятиклассника о делах в школе и о поездке к бабушке, а на другой – правильное звучание каждого слова, транскрибированное фонологом. Это было то, что нужно для обучения, и информацию пропустили через нейронную сеть. Объем текстов был относительно небольшим, но система начала говорить, как пятиклассник. Исследователи были поражены и раззадорены.

Они взяли словарь на 20 000 слов и решили посмотреть, как далеко можно зайти с их нейронной сетью. На этот раз программу запустили на неделю на довольно мощном для того времени мини-компьютере VAX компании Digital Equipment Corp. Она училась, училась и училась и в конце концов стала произносить слова, которые раньше не видела. Результаты были удивительно хорошими.

Программа получила имя Nettalk. Она состояла из 300 смоделированных элементов, которые разработчики называли нейронами. Они были организованы в виде трех слоев – входного для считывания слов, выходного для генерирования речи и «скрытого», связывавшего первые два. Нейроны соединялись друг с другом с помощью 18 000 «синапсов» – связей, имевших численные значения, которые могли рассматриваться как веса. Если такие простые сети могли «учиться» слышать, видеть, говорить и в целом повторять многое из того, что делают люди, они, очевидно, были перспективным новым направлением и в сфере искусственного интеллекта, и в сфере усиления интеллекта.

После успеха с Nettalk пути Сейновски и Хинтона разошлись. Сейновски переехал в Калифорнию и стал работать в Институте Солка, где сосредоточился на теоретических проблемах нейробиологии. Занимаясь исследованиями мозга, он уверовал в силу разнообразия как базового принципа биологии и, таким образом, фундаментально отошел от пути, по которому шло развитие современных цифровых вычислений. Хинтон получил место в отделении информатики Торонтского университета и за следующие два десятилетия усовершенствовал машину Больцмана. К первоначальной контролируемой модели он добавил возможность неконтролируемого (автоматического) обучения. Интернет стал божьим даром, открыв доступ к огромным массивам изображений, видео– и аудиозаписей. Разработки двух исследователей в конечном итоге открыли новые возможности таким компаниям, как Google, Microsoft и Apple, горевшим желанием создать интернет-сервисы на основе распознавания речи и образов.

Полный разворот судьбы персептрона в какой-то мере связан и с правильно организованной пиар-кампанией, продолжавшейся не один год. Еще до первой встречи Сейновски и Хинтона в Сан-Диего пренебрежительным отзывом Сеймура Пейперта о персептроне заинтересовался способный молодой французский студент Ян Лекун. Увидев его, Лекун направился в библиотеку и проштудировал все что можно о способных обучаться машинах. Сын авиаинженера, он с детства возился с авиационной аппаратурой и был помешан на электронике еще до поступления в колледж. Лекун изучал астрофизику, но больше все же интересовался тонкостями программирования. Он прочитал всю литературу о персептроне, начиная с 1950-х гг., и пришел к выводу, что эту тему забросили. На начало 1980-х гг. пришелся расцвет экспертных систем, и никто не писал о нейронных сетях.

В Европе Лекун был одиноким рыцарем. На последнем курсе он изучал электротехнику и начал работу над диссертацией под руководством человека, который не имел представления о его теме. Вскоре после поступления в аспирантуру ему попалась малоизвестная статья Хинтона и Сейновски о машине Больцмана. «Я должен поговорить с этими ребятами! Похоже, только они что-то понимают», – подумал он.

По счастливой случайности им удалось встретиться зимой 1985 г. во французских Альпах на научной конференции по вопросу соединения идей физики и нейронауки. Сеть Хопфилда, служившая первой моделью памяти человека, вызвала новый интерес в научном сообществе. Хотя Сейновски участвовал в конференции, он пропустил выступление Лекуна. Молодой французский ученый впервые делал доклад на английском и страшно волновался в немалой мере потому, что присутствовавший на конференции физик из Bell Laboratories сопровождал едкими замечаниями каждое выступление. Сидевшие рядом с Лекуном участники сказали ему, что это стиль Bell Labs – или идеи не на должном уровне, или для ученых лаборатории они уже не новость. Как ни странно, но после его выступления на ломаном английском ученый из Bell Labs встал и выразил одобрение. Через год Bell Labs предложила Лекуну работу.

На конференции Лекун все же поймал Сейновски, и ученые поделились своими соображениями. Разговор привел к появлению небольшого братства исследователей, которые намеревались создать новую модель искусственного интеллекта. Лекун завершил работу над диссертацией по подходу к обучению нейронных сетей, известному как «обратное распространение ошибки». Его вклад сделал возможной автоматическую «настройку» сети на более точное распознавание образов.

После завершения учебы Лекун стал искать во Франции организации, использующие аналогичные подходы к искусственному интеллекту. Найти удалось лишь небольшую лабораторию Министерства науки с профессором, работавшим в смежной области, но Лекун получил финансирование и место в ней. Его новый профессор сказал: «Я не представляю, чем ты занимаешься, но у тебя, похоже, светлая голова, поэтому я подпишу бумаги». Но Лекун там не задержался. Сначала он перешел в занимавшуюся нейронными сетями группу Джеффа Хинтона в Торонтском университете, а когда поступило предложение от Bell Labs, переехал в Нью-Джерси и продолжил совершенствовать свой подход, известный как сверточные нейронные сети, первоначально ориентированные на распознавание рукописных символов для автоматизированной сортировки почты. Родившийся во Франции канадец Йошуа Бенджио, получивший образование в Массачусетском технологическом институте яркий специалист по информатике, присоединился к нему в Bell Labs и работал над программным обеспечением для распознавания символов, а позже над созданием технологии машинного зрения, которая будет использоваться компанией NCR для автоматической обработки значительной части банковских чеков, циркулирующих в мире.

Несмотря на успехи разработчиков нейронных сетей, мейнстрим компьютерной науки не замечал их. Воспринимая себя как трех мушкетеров, Хинтон, Лекун и Бенджио решили изменить ситуацию. В 2004 г. они, как выразился Лекун, организовали «заговор» с целью повышения популярности сетей и одновременно развернули кампанию по ребрендингу, предлагавшую более привлекательные концепции технологии, такие как «глубинное обучение» и «глубокие сети доверия». К этому времени Лекун перебрался в Нью-Йоркский университет в какой-то мере для более тесного общения с нейробиологами и исследователями, применяющими алгоритмы машинного обучения к проблемам зрения.

Хинтон обратился в Канадский институт перспективных исследований за помощью в организации исследований в своей области и проведении ежегодных конференций. Проект, известный как «Нейрокомпьютеры и адаптивное восприятие», позволил ему отыскать самых перспективных исследователей в разных областях – от нейронауки до электротехники – и создать сообщество людей, заинтересованных в развитии нейросетей.

В этот раз на их стороне был технический прогресс – ускорение роста мощности компьютеров позволило строить нейронные сети огромных масштабов, способные обрабатывать массивы данных на порядки больше, чем раньше. Процесс занял почти десятилетие, но зато теперь возможности и ценность нейронных сетей были бесспорными. Помимо недостатка быстродействия компьютеров развитие нейронных сетей сдерживалось отсутствием больших массивов данных, необходимых для обучения. Ситуация быстро изменилась с появлением глобального интернета, а вместе с ним новой информационно-технологической концепции – облачных вычислений, а также возможности соединения этого ресурса с миллиардами мобильных передающих и вычислительных систем в виде смартфонов. Теперь нейронные сети можно было легко обучать на базе миллионов цифровых изображений или аудиозаписей, доступных в интернете.

Успех технологии стал очевидным, и Хинтон начал получать приглашения от компьютерных компаний, искавших пути повышения точности ориентированных на потребителя интеллектуальных сервисов – распознавания речи, машинного зрения, распознавания лиц, перевода и диалоговых систем. Казалось, что список был бесконечен. В качестве консультанта Хинтон внедрил нейронные сети глубинного обучения в Microsoft, и правильность такого подхода подтвердилась в 2012 г., когда директор по разработкам Microsoft Ричард Рашид выступил перед большой аудиторией в Тяньцзине, Китай. Рашид говорил по-английски, делая паузу после каждого предложения, а программа сразу произносила его на китайском голосом лектора. В конце выступления наступила тишина, а затем раздались оглушительные аплодисменты.

Программа работала не идеально, но за счет алгоритма глубинного обучения, разработанного на основе исследований Хинтона, количество ошибок распознавания было снижено более чем на 30 %. В следующем году ручеек интереса к нейронным сетям превратился в поток. Доступность данных в интернете и дешевой рабочей силы за счет краудсорсинга обеспечила и вычисления, и человеческие ресурсы для целей обучения.

Microsoft была не одинокой. Новые нейросетевые и другие технологии машинного обучения резко повысили интерес к искусственному интеллекту в Кремниевой долине и не только в ней. Соединение нового подхода к искусственному интеллекту с интернетом открывало путь к созданию новых сервисов на основе машинного зрения или распознавания речи и получения прямого доступа к глобальной аудитории через десятки миллионов смартфонов.

В 2010 г. Себастьян Трун пришел в Google, чтобы создать X Laboratory, своего рода аналог Исследовательского центра Xerox в Пало-Альто. У лаборатории был большой портфель научно-исследовательских проектов – от работы Труна над беспилотными автомобилями до развития нейронных сетей. В широком смысле их определяли как «мозговые» проекты, возрождавшие новую волну интереса к системам искусственного интеллекта.

Проект «Человеческий мозг» первоначально возглавлял Эндрю Ын, коллега Труна по возрожденной Стэнфордской лаборатории искусственного интеллекта. Ын был экспертом по машинному обучению и знатоком некоторых методов глубинного обучения нейронных сетей, предложенных Хинтоном и Лекуном. В 2011 г. он начал заниматься в Google созданием системы машинного зрения, и в следующем году проект дал такие результаты, что исследователи Google решили представить их в докладе об эксперименте по неконтролируемому обучению с использованием видео из YouTube. Обучение на 10 млн цифровых изображений, найденных на YouTube, прошло намного лучше, чем все предыдущие попытки, – точность распознавания 20 000 объектов возросла примерно в два раза. Система также научилась распознавать кошек, что не удивительно, учитывая изобилие изображений кошек на YouTube. «Мозг» Google смонтировал сказочное цифровое изображение кошки, используя иерархию ячеек памяти для последовательного отбора общих особенностей на основе просмотра миллионов изображений. Ученые описывали этот механизм как кибернетический аналог процесса, происходящего в зрительной зоне коры головного мозга. Эксперимент стал возможным благодаря огромным вычислительным ресурсам Google, позволившим исследователям выделить для решения задачи кластер из 16 000 процессоров, что, конечно, ничтожно мало по сравнению с миллиардами нейронов мозга, значительная доля которых задействована в нашей зрительной системе.

Вопрос о том, идет ли Google по пути создания подлинного искусственного «мозга», становится все более спорным. Методы глубинного обучения, без сомнения, позволили добиться многого в распознавании образов и речи. В Кремниевой долине растет число тех, кто полагает, что мы вновь на пути к «сильному искусственному интеллекту» – созданию обладающей самосознанием машины с интеллектом, равным или превосходящим человеческий.

Рэй Курцвейл, исследователь искусственного интеллекта и страстный проповедник «технологического бессмертия», пришел в Google в 2013 г. как продолжатель работы Ына в области мозга вскоре после публикации книги «Эволюция разума», в которой предлагался рецепт создания работающего искусственного интеллекта. Курцвейл всегда был одним из самых откровенных сторонников идеи сингулярности. Как и Моравек, он уверен в том, ускорение роста вычислительной мощности неизбежно приведет к появлению самостоятельного сверхчеловеческого машинного интеллекта: по его оценке, около 2023 г. В Кремниевой долине эта идея материализовалась в форме Университета сингулярности и Института сингулярности – организаций, которые занимаются последствиями экспоненциального роста.

К Курцвейлу примыкает разношерстная группа ученых и инженеров, считающих, что, стоит лишь разгадать механизм функционирования биологического нейрона человека и создание искусственного интеллекта станет вопросом масштабирования. Успешный инженер из Кремниевой долины и соавтор книги «Об интеллекте» Джефф Хокинс, основавший с Донной Дубински компанию Palm Computing, утверждал, что путь к интеллекту на уровне человека лежит в эмуляции и масштабировании подобных коре головного мозга схем, способных распознавать образы. В 2005 г. Хокинс создал Numenta, одну из многих компаний, работающих с технологиями распознавания образов. Теория Хокинса перекликается с рецептом Курцвейла из «Эволюции разума». Аналогичным путем идут и Дилип Джордж, получивший образование в Стэнфорде исследователь искусственного интеллекта, который работал с Хокинсом в Numenta, а затем создал собственную компанию Vicarious для разработки «следующего поколения алгоритмов искусственного интеллекта», и швейцарский исследователь Анри Маркрам, убедивший Европейский союз выделить на его проект по созданию точной копии человеческого мозга €1 млрд.

В 2013 г. охота на таланты, которая и раньше не прекращалась, достигла нового размаха. Хинтон перешел в Google, поскольку ресурсы, доступные в Маунтин-Вью, затмевали все, чем он располагал в Торонтском университете. Компьютеры теперь были несравненно более мощными, чем во времена, когда Сейновски и Хинтон создали машину Больцмана, значительно больше стало и данных, пригодных для обучения нейронных сетей. На повестке стояла проблема управлении нейронной сетью, в которой количество параметров могло превышать миллиард. То, что было кошмаром для рядового статистика, породило бурнорастущую индустрию «больших данных», которая не пасовала перед необходимостью отслеживать и накапливать информацию практически по всем аспектам поведения людей, их взаимодействия и мышления.

В Google Хинтон быстро добился прорыва в создании более мощных и эффективных в обучении сетей, когда понял, как сделать, чтобы параметры не мешали друг другу. Вместо обработки сразу всего изображения в новой модели выбиралось подмножество, обрабатывалась часть изображения и обновлялись веса связей. Затем выбиралось другое случайное подмножество, и изображение обрабатывалось снова. Это позволяло использовать случайность для увеличения влияния каждого подмножества. Идея, возможно, и имела биологические корни, но не была слепым копированием. По словам Сейновски, Хинтон – пример исследователя искусственного интеллекта, который уделяет внимание биологии, но не замыкается на ней.

В 2012 г. сети Хинтона, проходившие обучение на огромной рендер-ферме в Google, успешно распознавали отдельные объекты, но не справлялись с «интерпретацией сцен». Например, сети не могли понять предложение: «Кошка сидит на коврике, а человек дразнит ее игрушкой на нитке». Для достижения заветной цели машинному зрению нужно то, что исследователи искусственного интеллекта называют «семантическим пониманием», т. е. способность интерпретировать сцену подобно естественному языку. В 1970-х гг. на проблему интерпретации сцен оказывали сильное влияние идеи Ноама Хомского о генеративной грамматике как контексте для объектов и структуре для понимания их связи в сцене. Но в течение многих десятилетий исследования не давали результатов.

Однако в конце 2014 г. сообщество нейронных сетей стало делать успехи и в этой области. Исследовательские группы по всей стране сообщали о достижениях в объединении возможностей двух типов нейронных сетей – для распознавания естественного языка и для распознавания цифровых изображений. Они разработали программы, которые могли генерировать фразы на английском, описывавшие изображения с высоким уровнем абстракции{121}. Это помогает улучшать результаты приложений для поиска изображений в интернете. Новый подход, помимо прочего, открывает путь к созданию класса программ, которые могут взаимодействовать с людьми на более высоком уровне понимания.

Несмотря на значительный прогресс в сфере сетей глубинного обучения, для Хинтона все только начинается. Не так давно он сказал, что считает себя исследователем, который высадился на новый континент, где все очень интересно, но прошел вглубь лишь на сотню метров – там все так же интересно, но донимают комары. В конце концов это новый континент, и исследователи пока что не представляют реальных возможностей.

В конце 2013 г. Лекун пошел по стопам Хинтона, оставил науку и взялся за создание Лаборатории искусственного интеллекта в компании Facebook в Нью-Йорке. Этот шаг стал еще одним свидетельством возрождения интереса компаний к искусственному интеллекту. Зима искусственного интеллекта осталась лишь в воспоминаниях, по всем признакам пришла весна.

Решение Facebook присоединиться к погоне за искусственным интеллектом было неожиданным. Все началось с посещения Марком Цукербергом, соучредителем и руководителем Facebook, далекой от мира сего технической конференции под названием «Нейронные системы обработки информации» в отеле Lake Tahoe в конце 2013 г. Конференция всегда была сухим академическим мероприятием, но появление Цукерберга для ответов на вопросы явно меняло ситуацию. Мало того, что исследователи не привыкли к таким высоким гостям, сюрреализм происходящего усиливали сопровождавшие Цукерберга охранники в форме. Знаменитый генеральный директор приковал к себе внимание всех присутствовавших, а заседания нескольких других секций пришлось отложить, когда в переполненном помещении стали показывать видео. «Тон быстро изменился: маститые профессора стали простыми исследователями, пробиравшимися на заседание секции по глубинному обучению, чтобы послушать важную персону»{122}, – написал в блоге Алекс Рубинштейн, специалист по машинному обучению, участник конференции.

После этого случая в крошечном сообществе исследователей забеспокоились о последствиях коммерциализации искусственного интеллекта для академической культуры. Но поворачивать назад было уже поздно. Отрасль оставила в прошлом интеллектуальные споры 1950–1960-х гг. о реализуемости искусственного интеллекта и правильном пути. Вероятностные математические методы вдохнули в нее новую жизнь и превратили из предмета академического интереса в силу, меняющую многие аспекты современного мира.

Это также реально поставило разработчиков перед выбором – включать или не включать людей в автоматизированные системы, которые будут производить продукты питания и товары, предоставлять нам услуги, перевозить и развлекать нас. Вопрос был не столько техническим, сколько философским и этическим. Взрывной рост вычислительной мощности и ее повсеместная доступность через беспроводные сети вновь подняли проблему, к которой так неодинаково подходили Маккарти и Энгельбарт на заре компьютерной эры.

За кем в будущем останется принятие важных решений – за людьми или способными обучаться алгоритмами? Сегодняшний компьютерный мир делится на тех, кто ориентируется на создание интеллектуальных машин, и тех, кто думает, как расширить возможности человека с помощью этих же машин. Вряд ли можно сомневаться в том, что эти противоположные подходы ведут к созданию совершенно разных миров.

Глава 5

Развитие идей

Еще в молодости, во время службы в ВМС США в 1950-х гг., Роберт Тейлор приобрел приличный летный опыт, хотя и не имел права управлять самолетом. Он частенько играл роль второго пилота у настоящих летчиков, которым требовались не только часы налета, но и время для подготовки к экзаменам. Они брали Тейлора с собой в учебные полеты, и после взлета он управлял самолетом (осторожно), пока настоящие пилоты зубрили свои задания на заднем сиденье. Ему даже доверяли заход на посадку по приборам, когда самолет направляют по радио, а пилот сидит в специальном шлеме, закрывающем обзор.

Вот почему в начале 1960-х гг. молодой руководитель программы NASA Тейлор чувствовал себя уверенно, когда его пригласили принять участие в испытательном полете в аэрокосмической лаборатории Корнеллского университета. На него надели неудобный противоперегрузочный костюм и усадили на переднее сиденье учебного реактивного самолета Lockheed T-33, а профессиональный пилот устроился позади него. Они взлетели, набрали максимальную высоту почти 15 000 м и Тейлору разрешили попрактиковаться в управлении самолетом. Через некоторое время пилот сказал: «А теперь попробуем что-нибудь поинтереснее. Сможешь перейти в пике?» Тейлор подал ручку управления вперед, чтобы самолет пошел вниз, а потом потянул ее назад и замер – самолет перешел в более крутое пике. Ощущение было как при спуске на американских горках. Он потянул ручку сильнее, но самолет продолжал падать почти вертикально.

Наконец Тейлор сказал сидевшему сзади пилоту: «Все, сдаюсь, лучше возьми управление на себя!» Пилот засмеялся, выровнял самолет и сказал: «Попробуем еще раз». Они попробовали еще раз, но теперь в ответ на движение ручки вперед самолет пошел вверх. Чем больше Тейлор подавал ручку вперед, тем круче становился подъем. На сей раз он запаниковал, и снова пилот выровнял самолет.

Тейлору следовало бы догадаться. Реакция самолета была такой странной, поскольку он сидел за штурвалом лабораторного образца, на котором исследователи из ВВС экспериментировали с системами управления. Тейлора пригласили в Корнелл по той причине, что он, как руководитель программы NASA, по собственной инициативе выделил $100 000 исследовательской группе авиабазы Райт-Паттерсон.

Сначала в NASA, а затем в DARPA Тейлор готовил почву для появления систем, предназначенных и для расширения возможностей людей, и для их замены. NASA исполнилось три года, когда в 1961 г. президент Кеннеди объявил об амбициозной цели – доставить человека на Луну и обратно в течение десятилетия. Агентство столкнулось с уникальной задачей: определить принципы взаимодействия людей с машинами, причем не только в летательных аппаратах, но и во всех автоматизированных системах – от настольных компьютеров до сегодняшних мобильных роботов.

Термин «киборг», т. е. «кибернетический организм», был введен в 1960 г. медиками-исследователями, ломавшими головы над расширением возможностей людей при подготовке к освоению космоса{123}. В их воображении появилось новое существо – получеловек-полумашина, способное выживать в суровых условиях.

В отличие от этого организация Тейлора финансировала разработку электронных систем, которые тесно взаимодействовали с людьми, но не переходили границу, разделявшую человека и машину.

В начале 1960-х гг. NASA представляло собой государственное ведомство, расколотое на две части в вопросе о роли людей в космических полетах. Тогда впервые появилась возможность всерьез задуматься о полностью автоматизированных космических полетах. Многих очень беспокоило очевидное направление развития – передача управления машинам и превращение людей в пассажиров. Именно таким путем в то время шла советская космонавтика. Американская программа опиралась на другой подход, о чем ясно говорил ряд инцидентов, в которых вмешательство астронавтов в процесс доказывало важность сохранения того, что в NASA называли «человек в контуре управления». Например, Уолли Ширра стал героем после того, как во время запуска Gemini VI он в нарушение правил NASA не нажал кнопку аварийного прекращения предстартовых операций{124}.

Дебаты в NASA о необходимости включения человека в контур управления в 1950-х и 1960-х гг. превратились в ожесточенные сражения. Тейлор, пришедший в агентство в 1961 г., обнаружил, что для местной инженерной культуры характерно почитание раздела математики, известного как теория управления, – наследия кибернетики Норберта Винера. Инженеры NASA разрабатывали системы управления летательными аппаратами и для авиации, и для космоса. Они были настолько сложными, что казались инженерам прекрасными, можно сказать, по определению. Тейлор быстро понял, что разработчики зачарованы эстетикой управления и уверены в необходимости дальнейшей автоматизации систем, поскольку люди недостаточно быстры и надежны, чтобы совладать с ними.

Проблема раскола технической культуры казалась практически непреодолимой. В вопросе о роли людей в космических полетах NASA делилось на два лагеря. Спор проник даже в высшие эшелоны руководства, и было легко предсказать, на какую сторону встанет каждый из менеджеров. Бывшие пилоты самолетов выступали за сохранение человека в системе, а специалисты по теории управления выбирали полную автоматизацию.

Как руководитель программы Тейлор отвечал в 1961 г. за финансирование исследований в нескольких областях, одна из которых называлась «системы управления пилотируемых аппаратов». Его коллега по отделу финансирования отвечал за «системы автоматического управления». Они были в хороших отношениях, но постоянно занимались перетягиванием бюджетного одеяла. Тейлор понимал аргументы своих коллег, поддерживавших автоматизированное управление, хотя и отвечал за отстаивание интересов сторонников систем с участием человека. Его выручала поддержка астронавтов, имевших огромное влияние. Отряд астронавтов NASA состоял главным образом из летчиков-испытателей. Они были гордостью космического агентства и бесценными союзниками Тейлора. Тейлор финансировал создание тренажеров для отработки маневров на орбите, которые широко использовались при подготовке астронавтов с первых дней программы Mercury, и много раз обсуждал с астронавтами достоинства и недостатки различных сред виртуального обучения. Астронавты прекрасно знали о спорах вокруг места людей в космических программах, и их очень волновал вопрос, смогут ли они играть активную роль в космических системах или будут мало чем отличаться от собачек и обезьянок, которых берут с собой в поездку.

В политическом сражении вокруг человека в контуре управления фигурировали два противопоставляемых друг другу сюжета: один – успех посадки астронавтов-героев на поверхность Луны, другой – призрак катастрофы с гибелью астронавтов и, как следствие, ликвидацией агентства. Проблема была, по крайней мере на время, снята, когда в ходе первой высадки человека на Луну Нил Армстронг взял управление на себя после сбоя компьютера и благополучно осуществил прилунение Apollo 11. Посадка на Луну и другие подвиги, такие как решение Уолли Ширры не прерывать полет Gemini, определенно ставили человека выше машин, которые могли давать сбои. Представление астронавтов как современных Льюисов и Кларков[13] было с самого начала неотъемлемой частью духа NASA, что резко контрастировало с решением СССР включить женщин в отряд космонавтов{125}. На американских представлениях об управляемых человеком системах долгое время сказывались субъективные различия подходов США и СССР к аэронавтике и космонавтике. Космические корабли «Восток» были более автоматизированными, поэтому советские космонавты играли роль скорее пассажиров, а не пилотов. Но первоначальная преданность Америки пилотируемым космическим полетам сформировалась, когда аэронавигационная техника переживала период становления. За следующие полвека компьютеры и автоматизированные системы стали значительно более надежными.

Для Тейлора баталии вокруг проблемы человека в контуре управления стали опытом, определившим его позицию и в NASA, и в DARPA, где он руководил проектами и финансировал технологические прорывы в области компьютеров, робототехники и искусственного интеллекта. Во время работы в NASA Тейлор пересекся с Джозефом Ликлайдером, который интересовался психологией и информационной технологией и предвидел появление интерактивных компьютерных систем. В своей основополагающей статье «Человеко-машинный симбиоз» (Man-Computer Symbiosis) 1960 г. Ликлайдер предсказал наступление эры полного вытеснения людей автоматизированными системами. На его взгляд, ей должен предшествовать переходный период продолжительностью от 15 до 500 лет, период сотрудничества людей и компьютеров. Он полагал, что это будет «самое творческое и увлекательное [время] в истории человечества».

Тейлор пришел в ARPA в 1965 г. как протеже Ликлайдера. Он занялся финансированием ARPAnet, первой общенациональной ориентированной на исследования компьютерной сети. В 1968 г. эти два человека в соавторстве написали продолжение статьи Ликлайдера о симбиозе, получившее название «Компьютер как коммуникационное устройство» (Computer as a Communication Device). В ней Ликлайдер и Тейлор, пожалуй впервые обрисовали влияние компьютерных сетей на общество.

Несмотря на десятилетия исследований взаимодействия человека с машиной в кабине самолета, спор так и остался неразрешенным и вновь разгорелся с появлением автономной системы управления в поездах и автомобилях. Если Google лидирует в исследованиях в сфере беспилотных автомобилей, то традиционная автомобильная промышленность внедряет интеллектуальные системы, которые могут взять на себя управление в некоторых четко определенных условиях, например при движении в пробках, но отдают контроль человеку в слишком сложных или опасных для автопилота ситуациях. Сидящему за рулем человеку, занимающемуся чтением электронной почты и т. п., может потребоваться несколько секунд, чтобы «сориентироваться в обстановке» и возобновить управление автомобилем. Исследователи Google, надо думать, уже столкнулись с ограничениями возможностей беспилотного движения. В настоящее время все больше специалистов соглашаются с тем, что проблема «передачи управления» – возврат управления автомобилем человеку в аварийной ситуации – возможно, неразрешима. Если это подтвердится, то развитие автомобилей пойдет по пути расширения возможностей, а не полной автоматизации. Применение полностью беспилотного транспорта может быть ограничено определенными случаями, например движение с небольшой скоростью в городских условиях и движение по автострадам.

Так или иначе споры в NASA были предвестником нарождающегося мира автономных машин. В течение первых 50 лет существования интерактивных систем, начиная с середины 1960-х гг., компьютеры в основном расширяли возможности людей, а не заменяли их. Технологии, которые стали фирменным знаком Кремниевой долины, – персональные компьютеры и интернет – усиливали человеческий интеллект, хотя вряд ли кто усомнится в том, что каждый «усиленный» человек заменял нескольких своих коллег. Сегодня у разработчиков систем есть выбор. По мере того как технологии искусственного интеллекта (зрение, речь и построение логических выводов) становятся совершеннее, появляется все больше возможностей как включать, так и исключать человека из контура управления.

На заре компьютерной эры Джон Маккарти и Дуг Энгельбарт, финансируемые сначала Джозефом Ликлайдером, а с 1965 г. Бобом Тейлором, работали всего в нескольких километрах друг от друга, но с таким же успехом могли находиться в разных вселенных. Обоих финансировало ARPA, однако они практически не контактировали друг с другом. Маккарти был блестящим, хотя и несколько сумасбродным, математиком, а Энгельбарт – мальчиком с фермы в Орегоне и мечтателем.

Эффект противоборства их новаторских исследований был неожиданным. Когда Маккарти в середине 1960-х гг. создавал в Стэнфорде Лабораторию искусственного интеллекта, его работа, сконцентрированная на таких амбициозных направлениях, как искусственный интеллект и доказательство правильности программ с использованием формальной логики, находилась в самом сердце компьютерной науки. Энгельбарт нацеливался на создание «интегрированной среды» для усиления интеллекта человека. Первоначально это была менее отчетливая концепция, находящаяся в стороне от господствующего течения в академических исследованиях, однако на протяжении первых трех десятилетий существования интерактивных систем идеи Энгельбарта оказывали большее влияние на мир. Появление современных персональных компьютеров, а позднее технологий совместного использования информации вроде Всемирной паутины в определенной мере связано с исследованиями Энгельбарта.

С той поры сторонники Энгельбарта неустанно преобразовывали мир. Они расширяли возможности человека во всех областях современной жизни. В наши дни персональные компьютеры, превратившие в смартфоны, не носят с собой разве что их принципиальные противники. Смартфоны практически по определению образуют обширную распределенную вычислительную сеть, которую соединяет беспроводной интернет. Их используют и как искусственную память. Сегодня многие буквально не могут поддержать беседу или найти дорогу в городе, не обратившись к ней.

Если исследования Энгельбарта напрямую вели к PC и интернету, то лаборатория Маккарти была теснее всего связана с двумя другими технологиями – робототехникой и искусственным интеллектом. Какого-то разового решающего прорыва не было. Снижение стоимости вычислительных систем (обработки данных и хранения информации), постепенный переход от символьной логики искусственного интеллекта первого поколения к более утилитарным статистическим алгоритмам и машинному обучению второго поколения и удешевление датчиков позволяют сейчас инженерам и программистам создавать автоматизированные системы, которые видят, говорят, слышат и перемещаются в пространстве.

Баланс, однако, изменяется. Появляются компьютерные технологии, способные не только заменять, но и превосходить людей. В то же время за полстолетия усиление интеллекта и искусственный интеллект – две области, ставшие продолжением первоначальных работ Энгельбарта и Маккарти, – практически не сблизились. Хотя компьютерные и робототехнические системы вышли из лабораторий и прочно вплелись в ткань современной жизни, взгляды представителей двух сообществ по большей части так и остаются несовместимыми.

Сообщество взаимодействия человека и компьютера продолжает обсуждать широкий круг вопросов – от окон на экране и мышей до автономных агентов, но в рамках философской концепции Энгельбарта, предполагающей использование компьютеров для расширения возможностей человека. Сообщество искусственного интеллекта говорит о производительности и экономических целях, оперируя уравнениями и алгоритмами и мало задумываясь о судьбе людей. В одних случаях результаты такого подхода очевидны, взять хотя бы производственных роботов, прямо вытесняющих живой труд. В других случаях прямое влияние новых технологий на занятость заметить труднее. Уинстон Черчилль сказал: «Сначала мы строим здания, а потом они строят нас». Сегодняшние системы стали гигантскими вычислительными комплексами, определяющими характер нашего взаимодействия с обществом – от функционирования зданий до структуры организаций, будь то правительства, компании или церкви.

По мере того как созданные сообществами искусственного интеллекта и усиления интеллекта технологии изменяют мир, формируются два представления о будущем. В одном мире люди мирно живут и процветают вместе с машинами – роботы заботятся о престарелых, автомобили ездят сами, а однообразная и тяжелая работа исчезает, рождаются новые Афины, где люди занимаются наукой и искусством, наслаждаются жизнью. Будет замечательно, если информационная эра окажется именно такой, но можно ли считать, что это решенное дело? Не менее вероятен вариант, в котором эти могущественные технологии, вместо того чтобы освободить человечество, облегчат дальнейшую концентрацию богатства, породят масштабные волны технологической безработицы, обеспечат тотальный надзор, от которого невозможно укрыться, приведут к появлению нового поколения автономного супероружия.

Когда Эд Фейгенбаум закончил говорить, в зале воцарилась тишина. Ни вежливых аплодисментов, ни гула неодобрения. Только тишина. Потом участники конференции один за другим вышли, оставив пионера искусственного интеллекта на подиуме в одиночестве.

После избрания Барака Обамы президентом в 2008 г. казалось, что план администрации Буша по исследованию космоса, гвоздем которого было создание обитаемой базы на Луне, может быть заменен еще более смелой программой, включающей полеты к астероидам и даже высадку людей на марсианских лунах Фобосе и Деймосе{126}. В числе более близких целей значилась отправка астронавтов к точкам Лагранжа в 1,5 млн км от Земли, где гравитация Земли и Солнца взаимно компенсируется, создавая условия для долговременного размещения аппаратов типа космического телескопа Hubble следующего поколения.

Освоение Солнечной системы с участием человека было идеей фикс Скотта Хаббарда, главы Исследовательского центра Эймса NASA в Маунтин-Вью, штат Калифорния. Его активно поддерживало Планетарное общество, некоммерческая организация, выступавшая за исследование космоса и развитие науки. В результате NASA организовало конференцию, посвященную возобновлению исследований Солнечной системы с участием человека. Среди ее участников было немало имевших отношение к космосу знаменитостей, включая астронавта Базза Олдрина, второго побывавшего на Луне человека, и астрофизика Нила Тайсона. Одна из секций посвящалась роли роботов, которые, по задумке организаторов конференции, должны были предстать в виде интеллектуальных систем, помогающих людям во время долгих полетов в другие миры.

Фейгенбаум был учеником одного из основоположников индустрии искусственного интеллекта Герберта Саймона и возглавлял в Стэнфорде разработку первых экспертных систем. Он верил в потенциал искусственного интеллекта и робототехники, и его страшно раздражало услышанное как-то выступление специалиста по геологии Марса, который утверждал, что всего несколько минут присутствия человека на Марсе дадут больше научной информации, чем любой автоматический аппарат принесет за все время своего существования. Фейгенбаум очень хорошо разбирался в конструкции космических систем. Когда-то он был руководителем исследовательских работ в военно-воздушных силах и приобщился к дебатам о человеке в контуре управления еще во времена обсуждения космической программы.

Фейгенбаум вышел на подиум полный решимости бросить вызов. Используя простой набор слайдов, он обрисовал альтернативу пилотируемому полету к Марсу. В его презентациях редко встречались надписи прописными буквами, но не в этот раз:

ПОЧТИ ВСЕ, ЧТО НАМ ИЗВЕСТНО О СОЛНЕЧНОЙ СИСТЕМЕ И ПРОСТРАНСТВЕ ЗА ЕЕ ПРЕДЕЛАМИ, ЛЮДИ УЗНАЛИ, НЕ ПОКИДАЯ ЗЕМЛЮ, С ПОМОЩЬЮ АГЕНТОВ – ТЕХНИЧЕСКИХ СРЕДСТВ В ОТКРЫТОМ КОСМОСЕ ИЛИ НА ОРБИТЕ{127}.

Сама мысль об отправке людей к другой планете, когда роботы могут сделать все не хуже, а может быть, и лучше, с меньшими затратами и без риска для чьей-то жизни, казалась Фейгенбауму абсурдной. С его точки зрения, системы искусственного интеллекта и роботы в широком смысле настолько быстро расширяют свои возможности, что старая идея о человеке в контуре управления потеряла и притягательную силу, и ценность. Все коэффициенты на машинной стороне уравнения изменились. Ему хотелось заставить слушателей мыслить категориями агентов, сменить тему и представить себе людей, исследующих Солнечную систему с помощью более чувствительных средств восприятия. Но это шло вразрез с тем, что хотела услышать аудитория. Когда зал опустел, к столу подошла женщина-ученый, которая работала в Центре космических полетов Годдарда NASA, и тихо сказала, что благодарна Фейгенбауму за выступление. У себя на работе она не могла бы высказаться в таком духе.

История Фейгенбаума подчеркивает, что в реальности нет единственно «правильного» подхода к выбору между искусственным интеллектом и усилением интеллекта. Для одних полет людей в космос является заветной мечтой. Для других, таких как Фейгенбаум, это пустая трата ресурсов. Интеллектуальные машины отлично подходят для враждебной внеземной среды, и их разработка позволяет совершенствовать технологии, которые могут приносить пользу и на Земле. Спор с его участием также показывает, что легкого пути к единению двух лагерей нет.

Хотя сферы искусственного интеллекта и взаимодействия человека с компьютерами мало где пересекаются, есть люди, которые жили в обоих мирах, и исследователи, которые переходили из одного лагеря в другой. Специалист по когнитивной психологии из Microsoft Джонатан Грудин первым отметил, что популярность этих областей растет и падает в противофазе. Когда вперед выходит искусственный интеллект, взаимодействие человека с компьютерами отступает на второй план, и наоборот.

Грудин считает себя оптимистом. Он пишет, что верит в возможность великого сближения двух направлений в будущем. Пока же отношения между ними остаются неконструктивными, и взаимодействие человека с компьютерами, пионером которого был Энгельбарт и за которое выступают энтузиасты вроде Грудина и его наставника Дональда Нормана, является, пожалуй, самым существенным противовесом технологиям искусственного интеллекта с их двойным потенциалом – возможностью освобождения или порабощения человечества.

Если Грудин на протяжении своей карьеры становился то на одну, то на другую сторону, то Терри Виноград стал первым крупным специалистом, дезертировавшим из мира искусственного интеллекта. Он решил уйти из этой области, создав одну из основополагающих программ для ранних систем искусственного интеллекта, и посвятить себя антропоцентрическим компьютерным системам, или усилению интеллекта.

Интерес Винограда к компьютерам зародился, когда он в молодости изучал математику в Колледже Колорадо, после того как преподаватель медицины обратился на его кафедру за помощью в расчетах для лучевой терапии{128}. Медицинский центр располагал мини-компьютером размером с пианино CDC 160A компании Control Data, одной из первых разработок Сеймура Крэя. Одномоментно на нем мог работать один человек, загружая написанные на ФОРТРАНе программы с помощью перфоленты, похожей на телеграфную ленту. В один из первых дней работы Винограда на машине было довольно жарко, поэтому позади стола с компьютерным терминалом поставили вентилятор. Виноград заправлял перфоленту в компьютер, когда неожиданно ее затянуло в этот вентилятор{129}.

Наряду с компьютерами Винограда заинтересовали первые публикации об искусственном интеллекте. Для талантливого математика, занимающегося лингвистикой, очевидным местом для последипломного образования был Массачусетский технологический институт. Виноград оказался там в разгар войны во Вьетнаме и обнаружил, что между вотчинами Марвина Мински и Ноама Хомского, лидера в сфере искусственного интеллекта и лидера в сфере лингвистики, образовалась глубокая пропасть. Раскол был настолько серьезен, что, стоило Винограду на вечеринках со студентами Хомского заикнуться о своей принадлежности к Лаборатории искусственного интеллекта, как они отворачивались и уходили.

Виноград попытался навести мосты, прослушав курс Хомского, но получил тройку за доклад, в котором высказывался в пользу искусственного интеллекта. Несмотря на конфликт, это было отличное время для исследований в области искусственного интеллекта. Война во Вьетнаме заставила Пентагон раскошелиться, и ARPA фактически подписывало незаполненные чеки исследователям в крупнейших научно-исследовательских лабораториях. Как и в Стэнфорде, в Массачусетском технологическом институте ясно представляли, что следует понимать под «серьезным» исследованием в информатике. Как-то к ним заехал Дуг Энгельбарт и показал фильм о своей системе NLS. Исследователи из Лаборатории искусственного интеллекта старались преуменьшить его достижения. Как же иначе, ведь они создавали системы, способности которых скоро сравняются со способностями людей, а Энгельбарт показывал систему машинного редактирования, которая годилась разве что для сортировки списков покупок в магазине.

В то время Виноград принадлежал к мейнстриму компьютерного мира, и, поскольку духу времени отвечал искусственный интеллект, он следовал в этом направлении. Большинство верило, что очень скоро машины будут видеть, слышать, говорить, ходить и выполнять другие свойственные человеку действия. Мински предложил Винограду продолжить лингвистические исследования – ему очень хотелось доказать, что его студенты не хуже в «языке», чем студенты Хомского. Эта тема вполне устраивала Винограда, и он с интересом занялся исследованием языка, используя компьютер для моделирования.

Подростком Виноград жил в штате Колорадо и, как многие его сверстники, читал журнал Mad. Фривольный и зачастую инфантильный сатирический журнал сыграл определенную роль в выборе названия SHRDLU для программы, написанной им во время учебы в аспирантуре в конце 1960-х гг. Эта программа «понимала» естественный язык, отвечала на команды и стала одним из самых больших достижений в сфере искусственного интеллекта.

Виноград намеревался сделать систему, которая могла бы отвечать на вводимые с клавиатуры команды на естественном языке и выполнять полезные операции. Тогда уже ясно обозначилась волна первых экспериментов по созданию диалоговых программ. Программу Eliza, написанную ученым-компьютерщиком из Массачусетского технологического института Джозефом Вейценбаумом в 1964 и 1965 гг., назвали в честь Элизы Дулитл, которая училась правильно говорить по-английски в «Пигмалионе» Бернарда Шоу и в мюзикле «Моя прекрасная леди». Eliza была прорывным экспериментом в исследовании взаимодействия человека с машинами: она позволяла пользователям разговаривать с компьютером, как с человеком. Чтобы обойтись без реальных знаний, Eliza имитировала роджерианский подход в психологии и часто преобразовывала фразы пользователей в вопросы. Беседа была в основном односторонней, поскольку Eliza могла отвечать лишь на определенные ключевые слова и фразы. Этот подход приводил к крайне нелогичным выводам и странным отклонениям. Так, на фразу пользователя, где фигурировали слова «их мать», Eliza отвечала вопросом: «Вы имеете в виду свою мать?» Неожиданно для Вейценбаума пользователи Eliza настолько увлекались беседами с программой, что даже рассказывали глубоко личные детали. Это было удивительное откровение, касающееся не машин, а человеческой природы. Как оказалось, люди склонны очеловечивать практически все, с чем они взаимодействуют, от неодушевленных объектов до программ, имитирующих человеческий интеллект.

Может ли случиться так, что в кибербудущем все более изолированным друг от друга людям останется лишь общаться с суррогатным компьютерным интеллектом? Каким будет этот мир? Возможно, таким, какой показан в фильме 2013 г. «Она», где застенчивый парень общается с искусственным интеллектом. Сегодня все еще не ясно, станет ли появление киберпространства огромным шагом вперед для человечества, как рисуют киберутописты, например поэт Джон Барлоу в своей опубликованной в журнале Wired в 1996 г. «Декларации независимости киберпространства» (A Declaration of the Independence of Cyberspace). Или это будет намного более холодный мир, описанный Шерри Теркл в книге «Одинокие вместе: Почему мы ожидаем от технологий большего, чем друг от друга» (Alone Together: Why We Expect More from Technology and Less from Each Other)? По Барлоу, киберпространство станет утопическим миром без преступлений и деградации «реального мира». Теркл описывает мир, в котором компьютерные сети все более и более разделяют людей, оставляя их в одиночестве и изоляции. На взгляд Вейценбаума, вычислительные системы могут существенно уменьшать общение людей. Почти в том же ключе, что и марксистский философ Герберт Маркузе, клеймивший развитое индустриальное общество, он опасается, что грядущая информационная эра породит «одномерного человека».

После создания Eliza группа ученых Массачусетского технологического института, включая основоположника теории информации Клода Шеннона, собралась в Конкорде, штат Массачусетс, чтобы обсудить социальные последствия этого явления{130}. Привлекательность взаимодействия с Eliza беспокоила Вейценбаума, который усматривал в чрезмерной ориентации на технологии признаки морального падения общества. Корни такого взгляда восходят ко временам его детства в нацистской Германии. В 1976 г. он изложил гуманистическую критику компьютерной технологии в книге «Возможности вычислительных машин и человеческий разум: От суждений к вычислениям» (Computer Power and Human Reason: From Judgment to Calculation). В ней не было доводов против возможности создания искусственного интеллекта, она предъявляла страстные обвинения автоматизированным системам, которые принимают решения вместо человека. Автор утверждал, что компьютеры являются консервативной силой в обществе, поддерживают бюрократию и превращают мир в тесное и бесплодное место, ограничивая потенциал человеческих отношений.

Критика Вейценбаума так и не нашла отклика в Соединенных Штатах. Годы спустя его идеи получат большее понимание в Европе, куда он переедет в конце жизни, но тогда в США, где внедрялись новые компьютерные технологии, было больше оптимизма в отношении искусственного интеллекта.

В конце 1960-х гг. аспирант Виноград попал в тепличную атмосферу Лаборатории искусственного интеллекта Массачусетского технологического института, места рождения культуры программистов-фанатиков, которая привела к появлению PC и идеологии «свободы обмена информацией», а позже движения 1990-х гг. за открытую среду. Многие в лаборатории строили карьеру на вере в то, что дружелюбные и автономные интеллектуальные машины скоро станут реальностью. Eliza, а позднее и SHRDLU Винограда стали прямыми предшественниками более сложных электронных личных помощников, появившихся в последующие десятилетия. В Массачусетском технологическом институте уже предпринимались попытки строить микромиры или «блочные миры» – ограниченные смоделированные среды, в которых исследователи могли создавать программы, способные судить об окружающей обстановке и планировать действия. Иногда использовались даже реальные манипуляторы и блоки. Когда Виноград начал работать над своим проектом, уже создавалась система заказа авиабилетов, но это не очень интересовало его. Он собирался построить собственную ограниченную среду для исследований и рационализации и выбрал для нее форму виртуального компьютерного мира.

Виноград создал компьютерную модель мира, населенного цветными блоками, которые можно было исследовать и которыми можно было управлять с помощью языка программирования под названием Micro-Planner, основанного на работах аспиранта Массачусетского технологического института Карла Хьюитта. Учитывая сравнительно невысокий уровень развития вычислительной техники в то время, во многом приходилось полагаться на воображение. Наглядного графического представления мира блоков не было. Пользователь просто сидел у терминала Teletype и вводил вопросы с клавиатуры, а компьютер отвечал на естественном языке. Виноград выбрал название SHRDLU потому, что ничего лучше не пришло в голову. Позже он сказал, что последовательность букв SHRDLU, наверное, сидела у него в подсознании. Последовательность «etaoin shrdlu» – самые ходовые в английском языке буквы – располагается на левой стороне клавиатуры линотипа, как «1qaz 2wsx» в пишущей машинке. Эта последовательность символов время от времени мелькала в шутку в журнале Mad как якобы случайно проскочившая при печати строка. У линотипа, который отливает всю строку из расплавленного металла, не было клавиши Backspace. Поскольку завершить отливку строки с ошибкой быстрее, чем заниматься исправлением, наборщики обычно «заполняли» оставшуюся часть строки бессмысленным набором символов и удаляли всю строку, когда она застывала, а если забывали это сделать, то уповали на то, что корректор выловит ее{131}.

В то время Винограда мало заботили этические последствия создания системы обработки естественного языка, которая могла «понимать» и отвечать в виртуальном мире. В SHRDLU «понимание» означало, что программа анализировала структуру введенных вопросов и пыталась ответить на них и отреагировать на команды. Это была одна из первых попыток справиться с неоднозначностью – проблемой обработки естественного языка, сложной для решения даже сегодня. Например, к чему относится местоимение «он» в предложении «стакан поставили на стол, и он сломался», к стакану или столу? Без контекста ни человек, ни искусственный интеллект не могут этого определить.

Система Винограда опиралась на общие знания о своем микромире при ответе и реагировании на вопросы. В диссертации Виноград приводил следующий пример диалога:

Человек: Подними большой красный блок.

Компьютер: ОК.

Человек: Возьми пирамиду.

Компьютер: Я не понимаю, какую пирамиду вы имеете в виду.

Человек (передумав): Найди блок, который выше того, что ты держишь, и положи его в коробку.

Компьютер: Я полагаю, что «его» означает блок, который выше, чем тот, который держу я.

Компьютер: ОК.

Человек: Что в коробке?

Компьютер: Синяя пирамида и синий блок.

Человек: На чем стоит пирамида?

Компьютер: Коробка.

Человек: Сколько блоков не в коробке?

Компьютер: Четыре.

Человек: Есть ли среди них более узкий, чем тот, который я велел взять?

Компьютер: Да, красный куб{132}.

В 1970 г. после завершения работы программа SHRDLU стала одной из самых успешных демонстраций потенциала искусственного интеллекта, возможно, слишком успешной. Годы спустя это детище Винограда обвинили в том, что оно способствовало появлению слишком оптимистического представления о возможности «масштабирования» подобных программ для решения проблем реального мира. Например, в 1980–1990-х гг. сообщество искусственного интеллекта в целом верило, что можно создать машину с умственными способностями по крайней мере ребенка детсадовского возраста путем простого накопления практических правил.

Впрочем, критика оптимистов искусственного интеллекта началась еще до того, как Виноград создал SHRDLU. Если выступления Вейценбаума касались этической стороны создания интеллектуальных машин, то вопрос принципиальной возможности таких машин вызывал более горячие споры. Сеймур Пейперт, научный руководитель Винограда, спорил с Хьюбертом Дрейфусом, философом и последователем Хайдеггера[14]. Дрейфус всего через десятилетие после того, как Маккарти ввел термин «искусственный интеллект» в употребление, высмеял это направление в статье «Алхимия и искусственный интеллект» (Alchemy and Artificial Intelligence), изданной в 1965 г. RAND Corporation{133}. (В его честь в ремейке 2014 г. кинофильма «Робокоп» (RoboCop) вымышленного американского сенатора, сторонника закона о запрете роботов-полицейских, назвали Хьюбертом Дрейфусом.)

Конфликт у Дрейфуса с исследователями искусственного интеллекта возник в начале 1960-х гг., когда они появились на его курсе по философии Хайдеггера и уничижительно отозвались о философах из-за того, что те так и не поняли интеллект человека, хотя изучали его на протяжении столетий{134}. Это неуважение он не забыл и на четыре десятилетия стал самым непримиримым критиком искусственного интеллекта. Его главный аргумент прозвучал в выпаде против двух исследователей искусственного интеллекта из Стэнфорда: «Фейгенбаум и Фельдман утверждают, что ощутимый прогресс действительно достигнут, но определяют его очень осмотрительно как „приближение к конечной цели“. С таким определением первый человек, который взобрался на дерево, мог говорить об ощутимом прогрессе на пути к полету на Луну»{135}. Три года спустя Пейперт дал ответ на это в статье «Искусственный интеллект Хьюберта Дрейфуса – собрание ошибок» (Artificial Intelligence of Hubert L. Dreyfus, A Budget of Fallacies). «Беспокоит не то, что Дрейфус вводит метафизику в область техники, а то, что его высказывания безответственны, – писал он. – Его факты почти всегда неправильны; его представление о программировании настолько ограниченно, что он относит к невозможным программы, которые может написать новичок; а его невосприимчивость к логике позволяет принимать собственную неспособность представить, как можно реализовать конкретный алгоритм, за основание считать, что никакой алгоритм не может достичь нужной цели»{136}.

Виноград в конечном счете полностью разошелся с Пейпертом, но произошло это через много лет. Он приехал в Стэнфорд как преподаватель в 1973 г., когда его жена, врач, приняла предложение стать ординатором в районе залива Сан-Франциско. Это случилось всего через два года после того, как Intel представила первый коммерческий микропроцессор 4004, а журналист Дон Хефлер в своем бюллетене Microelectronics News ввел в употребление название «Кремниевая долина США». Виноград еще несколько лет развивал идею понимания машиной естественного языка в ключе SHRDLU. Сначала он проводил почти половину своего времени в Исследовательском центре компании Xerox в Пало-Альто, работая с Дэнни Боброу, другим исследователем, интересовавшимся проблемой понимания естественного языка. В марте 1975 г. Xerox открыла новое красивое здание неподалеку от Стэнфорда, так как это обеспечивало компании легкий доступ к лучшим программистам. Позже Виноград говорил друзьям: «Вы ведь знаете все разработки PARC в области PC? Так вот, я работал совсем не над этим».

Виноград работал над углублением и развитием исследования, которым он занимался в Массачусетском технологическом институте и которое принесет плоды лишь четыре десятилетия спустя. В 1970-х гг. эта задача казалась невыполнимой, и многие задавались вопросом, сможет ли наука когда-нибудь разобраться, как люди понимают язык. После того как Виноград потратил на проблему компьютерной обработки языка полдесятилетия, его стал одолевать скептицизм в отношении возможности реального развития искусственного интеллекта. Он отошел от этой сферы не только из-за незначительности успехов, но и в какой-то мере под влиянием нового друга, чилийского политического беженца по имени Фернандо Флорес, а также знакомства с группой философов из Беркли во главе с Дрейфусом, намеревавшейся разоблачить рекламную шумиху вокруг нарождающейся индустрии искусственного интеллекта. Истинный технократ, Флорес был министром финансов в правительстве Альенде и чудом спасся из своего офиса во дворце при бомбардировке во время мятежа. Прежде чем попасть в Соединенные Штаты, он провел три года в тюрьме, но его выпустили в результате кампании, развернутой Amnesty International. Стэнфорд назначил Флореса консультантом по информатике, но он уехал из Пало-Альто работать над докторской диссертацией в Беркли под руководством квартета настроенных против искусственного интеллекта философов: Хьюберта и Стюарта Дрейфусов, Джона Сирла и Энн Маркуссен.

Виноград считал Флореса одним из самых ярких интеллектуалов, которых он когда-либо встречал. Виноград вспоминал: «Мы начали разговаривать, он дал мне книгу по философии науки и сказал: "Вы должны прочитать это". Я прочитал ее, мы начали обсуждать эту тему, решили написать работу по ней, получилась монография, которая превратилась в книгу. Это был процесс пробуждения интереса к нему и осознания того, что наши разговоры интеллектуально обогащают»{137}. Из бесед с Флоресом молодой программист понял причину своей неудовлетворенности тем, что воспринимал как «идеологию» искусственного интеллекта. Флорес был согласен с харизматичным Вернером Эрхардом, организация которого «Учебные семинары Эрхарда» (Erhard Seminars Training – EST) имела в 1970-е гг. множество последователей в районе залива Сан-Франциско. (В Стэнфордском научно-исследовательском институте Энгельбарт отправил весь штат своей лаборатории на тренинг в EST и вошел в совет директоров организации.)

Хотя компьютерный мир в то время был крошечным, противоречия подходов Маккарти и Мински, с одной стороны, и Энгельбарта – с другой, были очень осязаемыми. PARC работала над персональным компьютером; Стэнфордская лаборатория искусственного интеллекта занималась всем – от манипуляторов и мобильных роботов до программ для игры в шахматы. В недавно переименованном Стэнфордском исследовательском институте (который стали называть SRI из-за антивоенных протестов студентов) исследователи работали над широким спектром проектов – от системы NLS Энгельбарта и робота Shakey до распознавания речи и «умного» оружия. Виноград приезжал в Беркли для неофициальных встреч за ланчем с философами Сирлом и Дрейфусом, их аспирантами и Фернандо Флоресом. Хьюберт Дрейфус выступал против оптимистических предсказаний исследователей искусственного интеллекта, а Джон Сирл шел дальше и ставил один из самых острых философских вопросов XX в.: действительно ли возможно построить думающую машину?

Умевший привлечь внимание блестящий лектор Сирл никогда не уклонялся от спора. До того как заняться преподаванием философии, он был политическим активистом. Во время учебы в Висконсинском университете в 1950-х гг. он состоял в организации «Студенты против Джозефа Маккарти[15]», а в 1964 г. стал первым штатным сотрудником Беркли, который присоединился к «Движению за свободу слова». Еще когда Сирл был молодым философом, его привлекала междисциплинарная область – когнитивистика. В то время считалось, что биологический разум является аналогом оживляющего машины программного обеспечения. В этом случае понимание процессов мышления человека становилось просто вопросом разгадывания программы, заложенной в миллиардах переплетенных нейронов человеческого мозга.

Фонд Слоуна направил Сирла в Йельский университет, чтобы обсудить тему искусственного интеллекта. В самолете тот начал читать книгу об искусственном интеллекте, написанную Роджером Шанком и Робертом Абелсоном, ведущими исследователями Йеля во второй половине 1970-х гг. В их книге «Сценарии, планы, цели и понимание» (Scripts, Plans, Goals and Understanding){138} говорилось, что программы искусственного интеллекта могли «понимать» истории, составленные их разработчиками. Например, разработчики могли предложить компьютеру простую историю, описывающую, как человек идет в ресторан, заказывает гамбургер, а затем убегает, не заплатив за него. В ответ на вопрос программа делала вывод, что человек не съел гамбургер. «Здесь что-то не так, – подумал Сирл. – Получается, что мне предлагают историю на китайском языке со множеством правил расстановки символов, я не понимаю ни слова по-китайски, но все равно могу дать правильный ответ»{139}. На его взгляд, из этого не следовало, что компьютер способен понимать что-либо в результате простого умения интерпретировать набор правил.

Так, по пути в Йель у него родился аргумент против разумных машин, названный «китайской комнатой». Сирл исходил из того, что никаких смоделированных «мозгов в коробке» существовать не может. Его аргумент отличался от критики Дрейфуса, который утверждал, что невозможно добиться от программ искусственного интеллекта эффективности, сопоставимой с человеком. Сирл просто указывал, что компьютер всего лишь очень быстрое средство перебора символов, использующее ряд синтаксических правил. Чего ему не хватает, так это способности биологического разума интерпретировать семантику. Биологические корни семантики, постижения смысла, остаются загадкой. Аргумент Сирла приводил представителей сообщества искусственного интеллекта в бешенство в какой-то мере потому, что связывал их доводы с теологическим представлением о разуме как о сущности за пределами физического, биологического мира. По мнению Сирла, умственная деятельность полностью определяется биологическими процессами в мозге и реализуется в нем, и думающая машина должна копировать, а не моделировать эти процессы. В тот момент Сирл полагал, что его возражение восприняли и на дискуссию не потребуются недели, не говоря уже о десятилетиях. Но все произошло с точностью до наоборот. Реакцией на первую статью Сирла стали 30 опровержений. И даже три десятилетия спустя дискуссия далека от завершения. Число публикаций с критикой его идеи достигло к настоящему моменту нескольких сотен. Сирл по-прежнему здравствует и продолжает защищать свою позицию.

Нужно также заметить, что дискуссии за ланчем о возможности создания интеллектуальных и предположительно обладающих самосознанием машин велись на фоне наращивания военного потенциала при Рейгане. Война во Вьетнаме закончилась, но активные группы политически несогласных еще сохранялись по всей стране. Философы собирались на перекрестке через дорогу от университетского городка в Беркли. Виноград и Дэнни Боброу из Xerox PARC стали постоянными участниками этих дискуссий, и Виноград заметил, что они шли вразрез с его представлениями о философских основах искусственного интеллекта.

В конечном итоге Виноград отошел от искусственного интеллекта как «религии» и уверовал в то, что в человеческом интеллекте нет ничего мистического. В принципе, если бы удалось понять, как работает мозг, можно было бы создать машину с искусственным интеллектом, но невозможно построить такую машину с помощью символической логики, которая доминировала в 1970-х и 1980-х гг. Интерес Винограда к искусственному интеллекту был двойственным: он служил и в качестве модели для понимания языка и человеческого мозга, и как система, способная выполнять полезные задачи. Но в этот момент он пошел за Энгельбартом. Философски и политически антропоцентрические компьютерные системы больше соответствовали его мировоззрению. Интеллектуальное единство Винограда и Флореса привело к рождению книги с критикой искусственного интеллекта «О понимании компьютеров и мыслительного процесса: Новая основа для разработки» (Understanding Computers and Cognition: A New Foundation for Design). Так или иначе книга касалась философского аспекта, а не науки, и Винограду все еще предстояло определиться, чем заниматься. В конце концов он оставил работу над созданием более умных машин и сосредоточился на использовании компьютеров для расширения возможностей людей. Виноград преодолел пропасть и переключился с разработки систем, вытесняющих людей, на создание технологий, улучшающих взаимодействие людей с компьютерами.

Хотя впоследствии Виноград утверждал, что политика не играла особой роли в его переходе в другой лагерь, политический климат того времени, без сомнения, повлиял на решение многих ученых оставить сферу искусственного интеллекта. В 1975–1985 гг. исследования в области искусственного интеллекта в основном финансировались Министерством обороны. Некоторых известных ученых, включая Винограда, беспокоило увеличение доли военных разработок в сфере компьютерных технологий. В глазах поколения, которое выросло на фильме «Доктор Стрейнджлав»[16] (Dr Strangelove), программа «звездных войн» правительства Рейгана была опасным балансированием на грани войны. Именно в таком морально-этическом и интеллектуальном контексте Виноград решил покинуть область, которую помогал создавать. Он называл себя «продуктом 1960-х гг.»{140} и в период отхода от разработки искусственного интеллекта играл вместе с исследователями из Xerox PARC и Стэнфорда ключевую роль в создании национальной организации компьютерщиков, обеспокоенных гонкой вооружений под флагом «звездных войн». Они очень не хотели, чтобы военная верхушка толкала страну к ядерной конфронтации с Советским Союзом. Во время учебы в аспирантуре Виноград активно выступал против войны во Вьетнаме, в Бостоне он входил в группу «Программисты за мир», а в 1981 г. включился в создание национальной организации специалистов-компьютерщиков, выступавших против ядерного оружия.

Выступавшие против Стратегической оборонной инициативы специалисты полагали, что могут более эффективно бороться против ядерных вооружений. В конечном итоге они превратились из «публики» в «профессионалов» и в 1981 г. основали новую организацию, названную Ассоциацией компьютерных профессионалов за социальную ответственность. Виноград провел первое организационное собрание в большой аудитории в Стэнфорде. Присутствовавшие вспоминали, что, в отличие от многих политических встреч антивоенной эры, пронизанных агрессией и спорами, собрание вызывало чувство необычайного единения и общности цели. Виноград показал себя умелым политическим организатором.

В очерке 1984 г. по вопросу о том, должны ли ученые-компьютерщики принимать финансирование от военных, Виноград подчеркивал, что в прошлом он избегал обращения к военным за финансированием, но не афишировал это решение и постепенно стал воспринимать его как принятие более широкой ответственности. Конечно, учился он в финансируемой Пентагоном лаборатории Массачусетского технологического института. Участие в создании Ассоциации компьютерных профессионалов за социальную ответственность было первым в ряду событий, которые в конечном счете привели к «дезертирству» Винограда из сообщества искусственного интеллекта и переключению внимания с создания интеллектуальных машин на расширение возможностей людей.

Косвенно это движение оказало значительное влияние на мир. Виноград имел достаточный авторитет в сообществе искусственного интеллекта, и если бы он выбрал более типичную академическую карьеру, то вполне мог бы создать империю на основе своих научных интересов. Его, однако, не привлекало создание крупной исследовательской лаборатории или руководство группой научных сотрудников со степенью. Он хотел прямого взаимодействия со своими студентами.

Одним из них был Ларри Пейдж, нахальный молодой человек с широким кругом идей относительно темы диссертации. Пейдж с подачи Винограда остановился на идее доступа к ресурсам всей сети и улучшения организации и поиска информации. Он начал с поиска знаний по существующим в сети гиперссылкам. В 1998 г. Виноград и Пейдж в соавторстве с Сергеем Брином, аспирантом Стэнфорда и близким другом Пейджа, и консультантом Брина, специалистом по сбору данных Радживом Мотвани, опубликовали статью под названием «Что можно сделать с сетью в кармане?»{141}. В ней они описали прототип поисковой системы Google.

Пейдж рассматривал и другие, более традиционные для искусственного интеллекта идеи, включая автомобили с автопилотом, однако при поддержке Винограда стал заниматься получением знаний о поведении и логике человека с помощью ссылок, создаваемых миллионами пользователей интернета. Он использовал эту информацию, чтобы значительно улучшить качество результатов, выдаваемых поисковой системой. Эта работа привела к появлению самого существенного инструмента «усиления» в истории человечества. В сентябре того же года Пейдж и Брин ушли из Стэнфорда и основали Google Inc. со скромной целью «организации мировых знаний и превращений их в общедоступный ресурс».

К концу 1990-х гг. Виноград полагал, что сообщества искусственного интеллекта и взаимодействия человека с компьютерами придерживались принципиально разных взглядов на взаимодействие компьютеров и людей. По его словам, проще всего было бы признать оба лагеря одинаково «правыми» и исходить из того, что в мире есть проблемы, которые можно решить с помощью любого из подходов. Но такой ответ вуалировал бы тот факт, что эти подходы рождают разные структуры, определяющие характер систем. Виноград пришел к убеждению, что подходы к созданию автоматизированных систем влияют и на то, как мы понимаем людей, и на то, насколько технологии полезны им.

Подход сторонников искусственного интеллекта, который Виноград считает «рационалистическим», рассматривает людей как машины. Люди рождаются с внутренними механизмами, очень похожими на компьютеры. «Ключевые предпосылки рационалистического подхода заключаются в том, что существенные аспекты мышления можно выразить в формальном символическом представлении, – писал он. – Опираясь на эту логику, мы можем создавать интеллектуальные программы и разрабатывать системы, которые оптимизируют взаимодействие людей»{142}. Рациональному подходу искусственного интеллекта противостоит метод усиления интеллекта, который Виноград называет «проектированием». Этот подход более распространен в сообществе взаимодействия человека с компьютерами, в котором разработчики сосредотачиваются не на моделировании отдельного человеческого интеллекта, а на использовании взаимоотношений человека с окружающей средой в качестве отправной точки для исследований как в случае людей, так и в случае машин. Описываемая как антропоцентрическая, эта философская школа отказывается от формального планирования в пользу итеративного подхода к разработке, идею которого хорошо сформулировал дизайнер и основатель компании IDEO Дэвид Келли: «Грамотный метод проб и ошибок выигрывает у планирования, осуществляемого безупречным интеллектом»{143}. Примененное впервые психологами и специалистами по компьютерной технологии Дональдом Норманом в Калифорнийском университете в Сан-Диего и Беном Шнейдерманом в Мэрилендском университете, антропоцентрическое проектирование стало популярным подходом, который сильно отличался от разрекламированной в 1980-х гг. рационалистической модели искусственного интеллекта.

Пережив неудачи 1980-х гг., сообщество искусственного интеллекта в 1990-е гг. тоже резко изменилось. Оно практически отказалось от первоначального формального, рационалистского подхода «сверху вниз» – «старого доброго искусственного интеллекта» – в пользу статистических, «снизу вверх», «конструктивистских» подходов вроде тех, что проповедуют робототехники во главе с Родом Бруксом. Однако два сообщества так и остались разделенными, стремящимися к несовместимым целям – замене людей и расширением их возможностей.

Порвав с сообществом искусственного интеллекта, Виноград примкнул к группе ученых и инженеров, которые сделали шаг назад и переосмыслили взаимоотношения между людьми и создаваемыми ими умными машинами. Его концепция машинного интеллекта изменилась. Задавая вопрос, действительно ли люди такие же «думающие машины», как и те автоматы, над которыми бились исследователи искусственного интеллекта, он отвечал, что сама его постановка приводит нас, осознанно или нет, к наделению машины собственными чертами, а это имеет большее отношение к концепции человеческого интеллекта, чем к машинам, которые мы пытаемся понять. Виноград пришел к убеждению, что интеллект – продукт социального характера и что мы принижаем человеческую природу, упрощая и искажая с помощью машинного моделирования свою сущность.

Исследователи из двух лагерей редко общались друг с другом, но иногда на технических конференциях устраивали жаркие споры. В 1990-х гг. Бен Шнейдерман, ученый-компьютерщик из Мэрилендского университета, был страстным защитником идеи антропоцентрического проектирования с использованием метода, получившего название «непосредственное управление». В 1980-е гг. с появлением Macintosh компании Apple и операционной системы Windows компании Microsoft непосредственное управление стало обычным в интерфейсах пользователей компьютеров. Например, вместо ввода команд с клавиатуры пользователи могли изменять вид изображения на мониторе, захватывая его мышью и перемещая.

Шнейдерман, как ведущий специалист в этой сфере, в 1990-х гг. регулярно консультировал компании вроде Apple по вопросам проектирования компьютерных интерфейсов. Шнейдерман считал себя противником искусственного интеллекта и называл в числе людей, оказавших на него влияние, Маршалла Маклюэна. Побывав на лекции Маклюэна в культурном центре Ninety-Second Street Y в Нью-Йорке во время учебы в колледже, он решил заняться исследованиями в пограничной области между точными и гуманитарными науками. По возвращении домой он напечатал визитную карточку с названием своей работы «Общая эклектика» и подзаголовком «Прогресс – не самый важный наш продукт»{144}.

Его порадовало то, что Терри Виноград перешел в лагерь сторонников антропоцентрического подхода. Когда Шнейдерман в 1970-х гг. прочитал диссертацию Винограда, она вызвала у него решительное неприятие – он даже посвятил SHRDLU критическую главу в своей книге «Психология программирования» (Software Psychology), вышедшей в 1980 г. Несколько лет спустя, когда Виноград и Флорес выпустили книгу «О понимании компьютеров и мыслительного процесса», где подчеркивали, что компьютеры не способны «понять» естественный язык, он позвонил Винограду и сказал: «Вы были моим противником, но я вижу, что все изменилось». Виноград засмеялся и заметил, что «Психология программирования» входит в список обязательной литературы на курсе, который он читает. Они стали добрыми друзьями.

В своих лекциях и публикациях Шнейдерман не стеснялся в выражениях, критикуя мир искусственного интеллекта. Он утверждал, что технологии искусственного интеллекта не только бесплодны, но и этически ущербны, поскольку не нацелены на помощь людям. По его словам, автономные системы создавали серьезные морально-этические проблемы, связанные с ответственностью за их действия, проблемы, на которые не обращали внимания специалисты по компьютерам. Полемический задор не был чем-то новым для Шнейдермана – он и прежде участвовал в громких скандалах на технических конференциях вокруг уместности разработки анимированных помощников типа Microsoft Clippy, Office Assistant и Bob, так и не принятых пользователями попыток Microsoft создать более «дружественные» интерфейсы.

В начале 1990-х гг. антропоморфные интерфейсы стали чем-то вроде хобби у компьютерщиков. Вдохновленные в какой-то мере широко известным видеороликом компании Apple о Knowledge Navigator, разработчики компьютерных интерфейсов вводили в системы полезных и болтливых мультипликационных персонажей. Банки экспериментировали с анимационными персонажами, взаимодействовавшими с клиентами на дисплеях банкоматов, а автопроизводители начали проектировать автомобили с синтезаторами речи, предупреждавшими водителей, например, о том, что не закрыта дверь. Первоначальное страстное увлечение резко прекратилось после досадного провала Microsoft Bob. Хотя программа была разработана при помощи специалистов по пользовательским интерфейсам Стэнфордского университета, ее повсеместно высмеивали как глупую идею.

С чем была связана проблема Microsoft Bob – с самой идеей «социального» интерфейса или же со способом ее реализации? Неудачная попытка Microsoft опиралась на работу исследователей из Стэнфорда Клиффорда Насса и Байрона Ривза, которые обнаружили, что пользователи хорошо реагируют на компьютерные интерфейсы, имитирующие взаимодействие с человеком. Эти два исследователя одновременно пришли в 1986 г. на кафедру коммуникаций Стэнфорда. Ривз раньше читал курс по коммуникации в Висконсинском университете, а Насс изучал математику в Принстоне и работал в IBM и Intel до того, как переключиться на социологию.

Социолог Насс в сотрудничестве с Ривзом провели ряд экспериментов и на их основе разработали теорию коммуникации, названную ими «медиауравнением». Свою книгу «Медиауравнение: Почему мы обращаемся с компьютерами, телевизорами и новыми СМИ как с реальными людьми и местами» (The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places) они посвятили исследованию склонности людей взаимодействовать с техническими устройствами – компьютерами, телевизорами и электронными медиа – таким же «социальным» образом, как и в случае взаимодействия друг с другом. После выхода в свет «Медиауравнения» Microsoft пригласила Ривза и Насса в качестве консультантов, которые проповедовали разработку узнаваемых социальных и естественных интерфейсов. Это расширяло идею, лежавшую в основе графического интерфейса Apple для Macintosh, истоки которого, как и истоки Windows, восходили к первому персональному компьютеру Alto в Xerox PARC. В обоих случаях целью было облегчение взаимодействия с компьютером за счет графической среды, имитирующей работу за столом или в офисе. Но интерфейс Microsoft Bob принял карикатурную, упрощенную до абсурда форму, которую продвинутые пользователи посчитали оскорбительной и отвергли.

Несколько десятилетий спустя успех Siri компании Apple доказал правоту исследования Насса и Ривза и позволил предположить, что причина провала Microsoft Bob кроется в реализации системы, а не в самом подходе. Siri облегчает работу в условиях, когда ввод с клавиатуры сложен или небезопасен, например на ходу или во время управления автомобилем. Microsoft Bob и Clippy тормозили взаимодействие пользователей с программой и создавали впечатление снисходительного отношения. Как выразился ветеран руководства Microsoft Тэнди Трауэр, «это все равно что предлагать учиться ездить на велосипеде, усаживая на трехколесную машину»{145}. Трауэр заметил, что Microsoft неправильно поняла идеи, предложенные социологами из Стэнфорда. «Исследования Насса и Ривза предполагают, что пользователь тем больше ожидает свойственного человеку поведения, чем больше персонажи походят на человека, – писал он. – Персонаж, похожий на Эйнштейна, чихал, когда его просили уйти. Конечно, брызги на пользователей не летели, но если почитать Насса и Ривза, то станет ясно, что это социально неприемлемое и грубое поведение. Пусть это всего лишь глупые картинки на экране, но большинство тем не менее отрицательно реагирует на такое поведение»{146}.

Программные агенты появились в самом начале эры искусственного интеллекта, когда Оливер Селфридж и его студент Марвин Мински, оба участники Дартмутской конференции по искусственному интеллекту, предложили подход к распознаванию образов под названием «Пандемониум», в котором совместно действующие программы, названные «демонами», или «интеллектуальными агентами», параллельно работают, поддерживая функцию машинного зрения. Поначалу программные агенты были просто компьютерными программами. Однако за два десятилетия ученые-компьютерщики, писатели-фантасты и режиссеры расширили эту идею. Она превратилась во впечатляющее видение взаимосвязанного компьютеризированного мира, в котором программы взаимодействуют для достижения общей цели. Программы собирают информацию, выполняют задачи и взаимодействуют с пользователями как живые слуги. Но разве в этом нет чего-то фаустовского? Шнейдермана беспокоило то, что передача компьютерам выполняемых людьми задач создаст больше проблем, чем решит. Именно это беспокойство лежало в основе его выступлений против разработчиков систем искусственного интеллекта.

Еще до первых столкновений Шнейдерман пытался разрядить напряженность, подарив плюшевого медведя Пэтти Маес, которая недавно стала матерью. На двух технических конференциях в 1997 г. он решительно выступил против Маес в вопросе искусственного интеллекта и программных агентов. Маес работала в Медиалаборатории Массачусетского технологического института под руководством ее основателя Николаса Негропонте и занималась созданием программных агентов для выполнения полезных задач от имени пользователя компьютера. Агенты были лишь одним из направлений развития вычислительной техники в лаборатории Негропонте, которая начиналась как «Группа архитектурных машин» (ArcMac) и выпестовала целый ряд поколений исследователей, преданных неписаной заповеди «Добейся результата или умри». Группа ArcMac и ее продолжение, Медиалаборатория, сыграли заметную роль в рождении многих идей, реализованных впоследствии в продуктах и Apple, и Microsoft.

В 1960-е и 1970-е гг. Негропонте, по образованию архитектор, обозначил путь от концепции партнерства человека с машиной до тогда еще смутного видения «архитектуры без архитекторов» в своих книгах «Архитектурная машина» (The Architecture Machine) и «Машины мягкой архитектуры» (Soft Architecture Machines).

В книге 1995 г. «Цифровой мир» (Being Digital) Негропонте, близкий друг Мински и Пейперта, описал свое представление о будущем взаимодействии человека и компьютера: «То, что мы сегодня называем "интерфейсами на основе агентов", станет доминирующим средством общения между компьютерами и людьми»{147}. В 1995 г. Маес с небольшой группой партнеров по Медиалаборатории основала консультативную службу в области музыки Agents, Inc. В конечном счете компания была продана Microsoft, которая использовала разработанные в Agents технологии обеспечения конфиденциальности, но не нашла коммерческого применения идеям в сфере программных агентов.

Сначала организаторы конференции хотели, чтобы Шнейдерман и Маес провели дебаты о возможности создания искусственного интеллекта, но Шнейдерман отказался, и тему изменили. Было решено обсудить два разных подхода – программные агенты, которые действуют от имени пользователя, и программные средства, которые расширяют возможности самого пользователя.

Дебаты состоялись в марте 1997 г. на организованной Ассоциацией по вычислительной технике конференции «Взаимодействие людей и компьютеров» в Атланте. Это событие заняло важное место среди других неотложных вопросов типа «Почему мы не летаем на личных вертолетах?» и «Единственный хороший компьютер – невидимый компьютер?». Перед собранием лучших разработчиков компьютерных интерфейсов два докладчика на протяжении часа приводили аргументы за и против инструментов, которые расширяют возможности человека и которые работают более или менее независимо от него.

«Я полагаю, что "интеллектуальные автономные агенты" – это подкоп под сферу ответственности человека, – сказал Шнейдерман. – Я могу продемонстрировать кучу статей в массовой прессе, где компьютер представлен как активная и ответственная сторона. Мы должны разъяснить, что причиной ошибок являются программисты и операторы»{148}.

Маес подошла к ответу прагматически. Исследование Шнейдермана в традиции Энгельбарта было нацелено на создание сложных систем, дающих пользователям огромные возможности, но требующих серьезной подготовки. «На мой взгляд, есть пределы тому, что можно сделать с помощью визуализации и непосредственного управления в компьютерной среде, которая все усложняется, – отвечала она. – Нельзя просто добавлять и добавлять всплывающие окна и кнопки. Есть и другие ограничения, поскольку пользователи – не специалисты по компьютерам. Я считаю, что необходимо частично или полностью передавать определенные задачи агентам, которые будут действовать от нашего имени или как минимум предлагать нам решения»{149}.

Пожалуй, самым веским аргументом Маес было то, что люди не обязательно хотят контролировать и отвечать за все на свете. «Уверена, пользователи иногда не прочь прибегнуть к помощи агента, который предложит им фильм, и не перебирать 4000 всплывающих окон в поисках того, что захочется посмотреть», – возражала она. Спор не принес явной победы никому, но Джонатан Грудин, который сидел в зале, оценил смелость Пэтти Маес, которая решилась на дебаты во время конференции «Взаимодействие людей и компьютеров», т. е. на территории Шнейдермана. Это событие произошло за полтора десятилетия до того, как Apple представила программу Siri и таким образом успешно привнесла элемент искусственного интеллекта во взаимодействие человека и компьютера. Годы спустя Шнейдерман признал, что в некоторых случаях использование синтезатора и распознавания речи может быть уместно. Вместе с тем он остался критиком основополагающей идеи программных агентов и не упускал случая подчеркнуть, что попытки внедрить распознавание речи в системы управления самолетом на протяжении многих десятилетий так и не увенчались успехом.

Когда в 2010 г. появилась Siri, шумиха вокруг «интернета вещей» приближалась к своему пику. Поначалу это была следующая после PC прорывная идея Xerox PARC. В конце 1980-х гг. Марк Вейзер из PARC предсказал, что по мере уменьшения стоимости, размера и энергопотребления микропроцессоров компьютерный интеллект можно будет встраивать в предметы повседневного пользования. Он назвал это UbiComp – «вездесущей компьютеризацией». По его словам, компьютеры растворятся в окружающих нас предметах подобно электродвигателям, шкивам и ремням, которые сейчас «невидимы». У входа в офис Вейзера красовалась надпись «UBICOMP СТАНОВИТСЯ ВСЕ РЕАЛЬНЕЕ». (Популярное определение слова «вездесущий» – «заметный только в случае отсутствия».)

Кто сумел в очередной раз успешнее других использовать результаты исследований PARC, так это Стив Джобс. В 1980-е гг. он заимствовал у PARC идею настольного компьютера и сделал Lisa, а затем Macintosh, а чуть больше десятилетия спустя первым успешно довел концепцию вездесущей компьютеризации до широкой потребительской аудитории. Представленный в октябре 2001 г. iPod был аудиоплеером, переосмысленным в ключе вездесущей компьютеризации, а iPhone – цифровым преображением телефона. Джобс также понял, что, в отличие от глухих Clippy и Bob в настольных компьютерах, помощник в мобильном телефоне должен слышать пользователя.

Так или иначе Шнейдерман продолжал считать, что он победил в дебатах и что с программными агентами покончено.

Глава 6

Сотрудничество

Гуманоид в отреставрированном кирпичном здании в Бостоне повернул голову. Робот представлял собой лишь сооружение из пластмассовых деталей, двигателей и проводов, увенчанное подвижным жидкокристаллическим экраном с карикатурными глазами и бровями. Но его реакция была узнаваемой и вызывала небольшой шок у каждого, кто приближался к нему. Наш разум обладает удивительной способностью находить человеческие качества даже в куче электронных блоков, датчиков и проводов.

Робот Baxter, созданный для работы бок о бок с людьми, был с помпой представлен публике осенью 2012 г. Baxter довольно громоздок и не особенно ловок. У него нет ни колес, ни ног, он стоит на жестком неподвижном основании. Его руки – захваты, способные аккуратно взять и положить предмет. Кроме этого Baxter мало что может, но тем не менее он открывает новую главу в развитии робототехники. Это один из первых примеров реализации идеи Энди Рубина, в соответствии с которой персональные компьютеры должны получить ноги и начать двигаться. Baxter – дитя Родни Брукса, путь которого к созданию робота-помощника начинается у истоков разработок в сфере искусственного интеллекта.

Страницы: «« 123456 »»

Читать бесплатно другие книги:

Книга посвящена одному из основателей российской конструкторской школы авиационного двигателестроени...
«Когда все потеряно, остается надежда», – утверждает герой одного из рассказов Рэя Брэдбери. И эти с...
Эта книга впервые вышла в 1930 году и пережила большое количество изданий. Она является одним из осн...
Николай Михайлович Амосов – врач с мировым именем, известный своими операциями на сердце и уникальны...
Тайное мировое правительство – строго законспирированное преступное сообщество международных, преиму...
Из 2020 - в 1988. Обычный офисный сотрудник, пишущий вечерами фантастику, в необычных обстоятельства...