Дополненная реальность. Все, что вы хотели узнать о технологии будущего Папагианнис Хелен
Азума поясняет, что «Воспоминание» схоже с «Усилением», но опирается на гораздо более личные переживания. «Геттисберг имеет важнейшее значение. Всем известна его роль и место в истории. Но мое восприятие Стэнфорда будет отличаться от вашего, и мои воспоминания о конкретном месте будут отличаться от ваших», – сказал он. Стратегия «Воспоминания» сочетает воспоминания и истории с реальным местом, где они происходили.
Азума привел пример своей свадьбы, фотографии и видеозапись которой у него сохранились. Но что если он сможет просмотреть их снова и в реальном размере, используя AR-технологию на том месте, где все происходило? «Это было бы очень волнительно!» – воскликнул он. Эффект был бы мощным, потому что это личное трогающее событие, имеющее большое значение, сочеталось бы с тем местом, где оно произошло, создавая яркое чувство контекстуального присутствия.
Азума подчеркнул: «Не все истории должны обязательно быть написаны профессиональными рассказчиками и ориентированы на массовую аудиторию. Иногда самые важные истории для нас – личные, которые мы хотим разделить только с семьей или близким кругом друзей». Я считаю, что для нас очень важно понимать это, поскольку мы строим будущее AR, в котором реальность будет тесно переплетена с личными переживаниями.
Улучшение среды и возвышение над старым
Каждая новая среда основана на достижениях, использованных для создания среды предыдущего поколения. Болтер и Грайзин называют это «переработкой среды». Технология AR основывается на переработанных принципах создания кино и специальных эффектов, а среда, которая придет на смену AR, будет, в свою очередь, базироваться на принципах дополненной реальности. (Мы еще не знаем, что это будет за новая среда, и давайте не будем пока волноваться об этом, но если вам интересно мое мнение, я думаю, что эта новая среда будет еще на шаг ближе к объединению человеческого мозга и компьютера, целью которого станет усиление восприятия мира всеми нашими чувствами.) Вызов, который стоит перед новой средой, заключается в том, что она неизбежно повторяет характеристики предыдущей. Существует риск того, что при создании такой среды мы неизбежно будем в большей степени фокусироваться на параметрах среды предыдущего поколения, а не строить что-то по-настоящему новое.
Итак, каким образом можно развивать среду, не повторяя при этом того, что было раньше? Это период, когда параметры новой среды податливы к изменениям, как «мокрая глина». Это не только отличная возможность для творческих людей принять участие в чем-то грандиозном, это переломное время, и мы должны действовать прямо сейчас. Язык новой среды не формируется за одну ночь, прекрасным примером этого является долгая история стилистического развития кино. «Когда Эдисон снимал свои первые фильмы в 1890-х годах, у него уже в значительной степени были технологии, необходимые для создания художественных фильмов уровня голливудского кино, – говорит Кен Перлин из Лаборатории исследований средств информации Нью-Йоркского Университета[122]. – Но потребовались десятилетия, чтобы выработать ракурс съемки крупного плана, среднего плана и техники монтажа. И дело не в том, что раньше не было соответствующих технологий».
Вот вопрос об AR, которым я часто задаюсь: «Двигает ли технология вперед возможности повествования, или, наоборот, повествование стимулирует развитие технологии?» Я считаю, что в случае с дополненной реальностью верны оба утверждения. Во время первой волны AR технология была главным триггером развития, но теперь, во время второй волны, мы наблюдаем смещение в сторону важности создаваемого контента. Это требует создания уникальных характеристик AR как среды, где технология может влиять на повествование. В этот период формирования мы также можем влиять на то, как развивается технология, определяя, как и что мы можем сделать, используя ее возможности.
Теоретик медиа Стивен Хольцман утверждает, что подходы к перепрофилированию «не опираются на уникальные свойства» среды и что «именно эти уникальные качества, в конечном итоге, будут определять совершенно новые языки выражения»[123]. Он описывает перепрофилирование как «переходный шаг», который обеспечит «устойчивое положение на незнакомой территории». Однако Хольцман подчеркивает, что мы должны «превзойти старое», чтобы открыть нечто новое, ибо «подобно дорожному знаку, переработка – это маркер, указывающий на то, что грядут большие перемены». И эти значительные изменения, на самом деле, будут поворотными для AR, особенно сейчас, во время второго этапа. Мы можем охарактеризовать первую волну AR как «переходный период», в котором присутствуют такие проекты, как 2D-видео, наложенное, например, поверх дополненных книг и газет. Во второй волне AR начинают в полной мере использоваться специфические свойства среды AR, а именно – ее контекст. Я считаю, что первая волна AR была необходима как первый шаг для перехода ко второй волне и построения новых выразительных средств.
Особенность медиа
В статье «Кино как образец генеалогии медиа» теоретики медиа Андре Годро и Филипп Марион комментируют присущие кино «существенные» качества: «Технология записи и показа лежит в основе кино. Наиболее важное свойство повествования заключается в том, как много можно создать с помощью движущихся на экране изображений»[124]. В начале моей работы в сфере AR я считала, что, как и кино, дополненная реальность изначально обладает потенциалом к повествованию, представляя время иначе и накладывая или проецируя двигающиеся или неподвижные изображения на реальную физическую среду. Первые созданные мной прототипы и художественные работы в AR были сосредоточены на кинематографических опытах с использованием видео, что было уникально для того времени, поскольку другие разработчики концентрировались на создании трехмерных моделей.
Я все еще считаю, что дополненная реальность обладает изначальным повествовательным потенциалом; я уверена, что эта технология пойдет дальше наложения, свойственного первой волне. Возможности дополненной реальности шире простой проекции изображений; акцент здесь сдвигается в сторону информирования пользователей в режиме реального времени, моментального перевода на другой язык, погружения, сенсорной интеграции и, в целом, нового понимания нашего мира. Как уже говорилось в предыдущих главах, основным направлением развития второй волны AR является восприятие и погружение с использованием большого количества датчиков и возможностей для распознавания. Окружающая пользователя среда будет постоянно анализироваться для создания наилучшего контекстного контента (в отличие от стандартного контента, изначально одинакового для каждого человека).
В статье «Видео: от технологии к среде» Ивонн Спилманн рассуждает о том, как среда развивается «с появлением новой технологии и посредством формулирования определенного медиаязыка» и «эстетической лексики», характерной для медиа[125]. Рассуждая о видео, она отмечает: «После того, как такой набор мультимедийных средств выражения получен, видео становится средой, которую можно отличить от других уже существующих медиа». Спил– манн объясняет, какие технические характеристики видео имеются у других форм медиа, например у телевидения, и как оно основывается на этих качествах, а также чем видеоизображения отличаются от других форм медиа. Это важные вопросы, которыми необходимо задаваться в процессе перестроения AR: как дополненную реальность можно отличить от других форм медиа благодаря ее специфике и новым возможностям выражения?
Давайте рассмотрим, чем AR похожа на фильм как среду. Из общих черт первой волны AR и фильмов можно выделить применение мультимедийных компонентов, таких как анимационный дизайн, звук и запись, как форму презентации, использующую монтаж и художественные решения для рассказа вымышленных или реальных, фантастических или документальных историй. Дополненная реальность похожа на фильмы тем, что может динамически и в реальном времени использовать любые поверхности или элементы окружения (если позволяет технология) в качестве экрана. Использование AR не просто отличается, но сознательно формируется не по тем же принципам, что создание фильмов, позволяя рассказывать истории в новом пространственно-временном формате: интеграция в реальном времени in situ (досл. «локально на месте») и контекстуальная значимость являются основными приоритетами этой технологии.
Это не означает, что дополненная реальность должна существовать или будет существовать отдельно от других сред: она может пересекаться с другими средами, и они заинтересованы в этом. Возьмем, например, объявление о партнерстве в июне 2016 года между компаниями Lucasfilm Industrial Light&Magic Experience Lab (ILMxLAB) и Magic Leap. ILMxLAB была основана в 2015 году с целью создания продуктов на платформах VR и AR. Совместно они разрабатывают контент в серии «Звездные войны», используя новую технологию Magic Leap. Рони Эйбовиц, президент Magic Leap, говорит[126]: «Мы провели эксперименты, в ходе которых пытались сделать смешанную реальность не чем-то новым и непонятным, а инструментом, с помощью которого режиссеры и другие творческие люди могут создавать новые интересные проекты, выводящие на новый уровень и дополняющие такие вселенные, как «Звездные войн ы». Джон Гаэта, исполнительный креативный директор ILMxLAB, комментирует:
Суть в возможностях повествования и в том, куда это все приведет. Мы понимаем, что новые платформы позволят создать интересные проекты. Речь идет о том, чтобы поместить вас в центр создаваемой вселенной, и формировать повествование вокруг вас и для вас. Это новый формат, который мы собираемся исследовать в нашей лаборатории.
Еще один взгляд на AR – это рассматривать данную технологию как сочетание предшествующих медиаформатов. Интернет – это среда связи, представляющая собой набор других медиа (аудио, видео, обмен текстовыми сообщениями), но у него также есть свои собственные стилистические особенности и качества. Например, тексты, ориентированные на веб, обычно короче, хотя и статьи из обычных газет могут быть адаптированы под онлайн-формат. Дополненная реальность похожа на интернет в том смысле, что тоже объединяет различные медиа-форматы и сводит их вместе по-новому. В видеоролике HoloLens и проморолике от Magic Leap использовались плоские AR-поверхности для создания экранов, на которых отображался интерфейс электронной почт ы и даже показывались фильмы. Это пример заимствования AR из предыдущих сред.
Так используются привычные и известные возможности медиа более раннего поколения, но, скорее всего, их необходимо будет переосмыслить с учетом новых возможностей. Старые правила не только больше не применяются в новом формате, они действительно не работают. И поскольку все это совершенно новое, мы сами должны сформулировать эти новые правила.
Принципы повествования: начало
Итак, какие принципы и стили начинают формироваться в AR-повествовании и в каком направлении движется эта технология? За последние 12 лет я наблюдала разные подходы, о которых пойдет речь дальше. Стоит, прежде всего, отметить, что новый визуальный язык, или «то, как это выглядит», – это только одна часть дополненной реальности. Как было сказано в предыдущих главах, AR не ограничивается только визуальными эффектами, и мы также увидим, как развиваются стили и сенсорные технологии применительно к запаху, вкусу, прикосновениям, звуку и к сочетанию разных типов этих чувств. В данной главе мы сосредоточимся на визуальной составляющей, поскольку большинство примеров использования AR на сегодняшний день именно такие.
1. Виртуальная примерочная
Виртуальная примерочная делает вас частью повествования. Независимо от того, надеваете ли вы виртуальную маску, наносите краску на лицо или примеряете предмет одежды, использование приложений такого типа создает иллюзию того, что вы превращаетесь в кого-то другого. В 2013 году компания Дисней в сотрудничестве с Apache разработали AR проект, в котором вы становитесь Железным Человеком, виртуально примеряя на себя костюм Тони Старка из фильма «Железный Человек-3»[127]. Kinect использовался для измерения пропорций вашего тела и создания идеально подходящего костюма Mk XLII. Затем на экране вы превращались в Железного Человека и могли испытать различные возможности вашего виртуального костюма.
Виртуальная примерочная не ограничивается костюмами персонажей: она используется в розничной торговле, чтобы примерить одежду, очки, украшения или нанести макияж[128]. Это говорит об использовании механизма контекстного повествования, фокусирующегося именно на вас: вы становитесь сюжетом и звездой рассказа. При взаимодействии с виртуальной примерочной, как правило, возникает сильное чувство присутствия, потому что ваше тело становится частью дополненного контента, сопоставленного и движущегося с вами.
Snapchat – это забавное приложение, в котором есть функция «линзы», использующей фронтальную камеру смартфона в сочетании с анимацией для создания эффектов на вашем фото в реальном времени. С помощью линз-фильтров, которые постоянно обновляются, вы можете превратиться в мышь, грызущую кусок сыра, вокруг вашей головы могут летать бабочки, и вы даже можете поменяться лицами с другом. Но потенциал технологии AR для виртуальной примерочной гораздо шире – ее можно применять как еще один способ самовыражения, например в мире моды. Ее возможности позволяют проявить наше творческое начало и креативность в выборе стиля и самовыражении, размывая границы между нашими виртуальными аватарами и физической реальностью. В 2017 году Facebook анонсировала свою AR-платформу AR Studio, которая позволит художникам и разработчикам создавать AR-маски – это тоже может стать следующим шагом в поиске новых форм самовыражения.
2. Портал в стене, полу или столе
Эта разновидность AR-проектов позволяет дополнить ваше физическое пространство виртуальным содержанием с помощью визуальной иллюзии. Общепринятая в AR-играх, это визуальная техника, объединяющая элементы виртуальной реальности с вашим физическим окружением, чтобы усилить чувство присутствия и глубже погрузить вас в историю, которая разворачивается вокруг. Эта техника отсылает нас к эффекту «обмана зрения», встречающемуся, например, на картине «Бегство от критики» Пере Борреля дель Казо[129] (1874), на которой мальчик, кажется, выходит из рамки картины, нарушая воспринимаемые границы реальности и переходя в ваше измерение.
Такой визуальный эффект оптического обмана в AR используется в частности, в игре Kweekies[130]компании Int13 и RoboRaid[131], созданной HoloLens. Kweekies – это мобильное AR-приложение, в котором стол выступает в качестве стартовой площадки, при наведении смартфона на которую появляются виртуальные персонажи. AR-игра RoboRaid – это шутер для HoloLens, в котором вы надеваете AR-очки и защищаете свой дом от вторжения роботов, пробивающихся сквозь стены, и все это сопровождается треском и звуками разрушения, благодаря чему усиливается эффект от игры и возникает иллюзия погружения.
Мы можем рассматривать большинство, если не все разновидности AR как своего рода «спецэффекты», и этот проект – не исключение. «Портал в стене» позволяет достичь большей реалистичности и обостряет чувство присутствия, но в то же время есть риск, что этот прием устареет, как и все прочие диковинки, со временем перестающие удивлять аудиторию. У него есть потенциал перерасти в нечто большее и перейти на новый виток развития – как у проекта inFORM[132], например. Этот проект, созданный разработчиками MIT Media Lab Дэниелом Лейтингером, Шоном Фоллмером, Алексом Олуолом, Акимитсу Хогге и Хироси Исии, представляет собой дисплей, динамически изменяющий форму.
inFORM физически генерирует 3D-контент, чтобы пользователи могли взаимодействовать с цифровой информацией осязаемым образом. В одном из примеров на экране появляется живой человек, и его руки выходят за область экрана (происходит это в реальном времени, благодаря перемещению физических блоков) и перемещают реальный шар по поверхности стола. Разработчики заявляют, что «участники видеоконференции могут принимать участие в ней физически, что усиливает чувство присутствия и дает возможность взаимодействовать в реальности, находясь на расстоянии друг от друга». Таким образом, виртуальные персонажи могут не только пробиваться сквозь физические границы, чтобы появляться в вашем пространстве. Из этого примера видно, как они также могут начать взаимодействовать и даже изменять ваше физическое пространство в реальном времени, выходя за пределы визуальной иллюзии.
3. Призраки
Невидимые человеческому глазу, исчезающие и вновь появляющиеся, игнорирующие правила физики (перемещающиеся и проходящие через объекты), «Призраки» – это отдельный элемент повествования в дополненной реальности. Во времена зарождения технологии, они (как в игре «Охотники за привидениями»[133] от XMG Studio) казались особенно правдоподобными, потому что трекинг и компьютерное зрение не обязательно должны были быть идеально точными, ведь мы знаем, что призраки могут вести себя непредсказуемо и на них не действуют привычные законы физики. Визуальный аспект использования технологии AR, позволяющий увидеть призраков, работает хорошо, благодаря чему дополненная реальность может открыть окно в другое измерение, в мир, недоступный для человеческого глаза.
«Призраки» являются примером фантастического и сюрреалистического в AR. Мы не ограничиваемся воссозданием реальности, так почему бы не использовать AR для представления того, что физически невозможно испытать?
4. Оживающие картинки
«Оживающие картинки» создают волшебную реальность с помощью AR, по аналогии с тем, как в «Гарри Поттере» оживали портреты, на которых изображенные люди перемещались и взаимодействовали внутри картин и с внешним миром. С помощью «Оживающих картинок» в повествовании статичное становится анимированным, наполняется жизнью. Это оживляет то, что должно быть статичным или замороженным во времени, и создает окно в другой мир.
Мы можем увидеть это на примере журналов с дополненной реальностью. Например, неподвижная фотография на обложке журнала превращается с помощью AR в видеоролик фотосессии или интервью с человеком на фотографии. Одним из первых журналов, опробовавших такие возможности, был Esquire[134] в 2009 году с участием актера Роберта Дауни-младшего на обложке. Необходимо было установить специальное AR-приложение на компьютер и направить веб-камеру на изображение в журнале для просмотра AR-содержимого. В этом режиме Роберт Дауни-младший и рекламные объявления по всему журналу оживали благодаря видео и анимации.
В последние несколько лет появилась тенденция оживлять неподвижные фотографии не только с помощью AR. Этот сдвиг в цифровой обработке фотографий размывает границы между анимацией, видео и фотографией. Примером являются синемаграфы (анимированные фотографии, на которых движется только часть изображения), созданные с помощью программного обеспечения, такого как Flixel[135]. Оно оживляет отдельные элементы неподвижной фотографии, такие как волосы модели, развевающиеся на ветру. Также следует упомянуть Apple Live Photos[136], представленные на iPhone 6S в 2015 году, на которых записаны несколько секунд до и после фотоснимка, что обеспечивает возможность воспроизводить короткое видео.
В каждом из этих примеров время словно растягивается, для того, чтобы рассказать историю. Они становятся короткими медиа-файлами, чем-то средним между видеоклипом и мультфильмом, нарисованным в блокноте. Оживающие картинки предоставляют возможность поделиться более развернутой информацией, если пользователь хочет увидеть больше, будь то реклама, искусство или образование.
5. Рентгеновское зрение
Способность супергероя или просто прикол – этот пример использования отсылает нас к очкам с рентгеновским зрением[137], реклама которых размещалась на последней странице комиксов в 1960-е и 1970-е годы; слоган обещал: «Вы можете увидеть кости в руке прямо сквозь одежду!» Идея рентгеновского зрения использовалась в различных AR-приложениях, начиная от Moosejaw X-Ray (2012), позволявшего читателям каталогов увидеть моделей одежды в нижнем белье, и заканчивая приложениями, помогающими изучать анатомию человека, такими как Anatomy 4D[138] компании DAQRI (2009) и созданная HoloLens в сотрудничестве с Case Western Reserve University[139] (2016) программа, помогающая в учебе будущим докторам.
Такое использование дополненной реальности может применяться в музеях и при работе с хрупкими артефактами. В экспозиции «Древние жизни, новые открытия»[140] в Британском музее в Лондоне были представлены интерактивные видеомониторы (без технологии AR), на которых было показано, как выглядят различные слои мумии. При помощи компьютерного томографа в музее были созданы 3D-изображения,показывающих, что скрыто внутри роскошных саркофагов. Этот пример можно было бы улучшить, используя технологию AR, чтобы, взглянув на саркофаг сквозь AR-очки, экран смартфона или планшета (а не на экран над артефактом) вы могли увидеть различные слои мумии и изучить их трехмерные модели.
Независимо от того, позволяет оно рассмотреть слои хрупкого артефакта или видеть сквозь кожу и одежду, «Рентгеновское зрение» в AR символизирует желание превзойти наши природные человеческие способности. Это пример того, как дополненная реальность расширяет воображение и позволяет увидеть невидимое. Эта разновидность AR эффективна не только в рекламе – это также мощный инструмент повествования, помогающий в образовании, позволяющий пользователю безопасно изучать различные объекты, заглядывая внутрь них.
6. 3D-моделирование
Этот стиль повествования касается игр и создания вашей собственной реальности знакомым способом: рисование и раскрашивание своими руками. Scrawl[141] – экспериментальное AR-приложение для рисования на iPhone, созданное компанией String в 2010 году. Приложение позволяет любому, у кого есть iPhone, быстро создать рисунки в AR, не имея при этом каких-то специальных навыков в области программирования, – вы просто рисуете пальцем. Выбирая между различными цветами на палитре и кистями в приложении, вы используете свой палец для рисования трехмерного изображения на экране iPhone. Затем вы можете перемещаться по своему 3D-рисунку, чтобы просмотреть его под разными углами. Scrawl позволяет с легкостью реализовывать наши творческие способности в дополненной реальности, используя одни из лучших инструментов, которые у нас есть – наши пальцы. (В главе 4 мы рассмотрели Konstrukt, приложение дополненного звука для iPhone, разработанное Джеймсом Аллибаном и основанное на технологии AR от String. Вместо того, чтобы рисовать пальцем, в этом приложении, вы можете создать виртуальную скульптуру, произнося слова, насвистывая или просто подув в микрофон устройства.)
Quiver[142] (ранее называвшийся Colar) – это трехмерное AR-приложение для раскрашивания, разработанное в Лаборатории Технологии человеческих интерфейсов в Новой Зеландии (HIT Lab NZ) и коммерциализованное компанией Puteko Limited в 2011 году. Quiver работает следующим образом: сначала вы распечатываете страницу раскраски из приложения или с сайта, затем вы используете любой физический инструмент по вашему выбору: маркеры, краски или карандаши. Когда ваша раскраска будет завершена, вы используете свой телефон или планшет для просмотра двумерной страницы в 3D-режиме с использованием дополненной реальности. Персонаж или объект анимируется именно так, как вы его раскрасили, и может быть рассмотрен на странице под разными углами.
Scrawl и Quiver создают возможности для самовыражения с помощью AR. Это область, которая будет продолжать развиваться, позволяет разработчикам всех типов, не только программистам, творить с помощью AR. Оба приложения используют знакомые способы взаимодействия с миром: рисование и раскрашивание руками, при этом AR раскрывает новые интересные возможности для развития нашего творческого начала и воображения.
Новые направления в повествовании
Теперь давайте взглянем на несколько других подходов к повествованию, которые также формируются на базе AR.
1. Абстрактные и художественные AR-фильтры
Различные фильтры, широко применяющиеся в таких приложениях с возможностью редактирования фотографий, как Instagram, которые художественно изменяют нашу реальность, стали сегодня обычным явлением. Нечто похожее происходит и в дополненной реальности. Истории в AR не ограничиваются точным воспроизведением реальности: абстрактные и художественные фильтры в дополненной реальности дают возможность творчески выразить то, как мы видим мир, в режиме реального времени.
Впервые я столкнулась с использованием абстрактных AR-фильтров в 2005 году на SIGGRAPH, ежегодной конференции по компьютерной графике в Бостоне, на которой присутствовали ученые, инженеры и художники и где демонстрировалось приложение HIT Lab NZ. Демонстрация включала множество художественных фильтров, накладываемых на реальную картинку, от эффекта мозаики до цветовой температуры и гауссовского размытия, применяемого ко всей сцене, состоящей из виртуальных объектов и физической среды. С использованием фильтров было сложно отличать виртуальные элементы от физических, все объединялось в единую картину.
Целью демонстрации было усиление погружения и появление новых режимов выразительности в AR.
Важно отметить, что в демонстрации 2005 года использовались координатные метки (черно-белые изображения, напечатанные на бумаге) для отображения объектов AR. При таком подходе во время использования приложения дополненной реальности видны белые края координатных меток, даже несмотря на виртуальные объекты, показывающиеся поверх них. Применяя эти фильтры в реальном времени ко всему, что попадает в кадр, во время этой демонстрации удалось завуалировать координатные метки и создать общее пространство виртуального и реального, что способствует более глубокому погружению пользователя. Сегодня координатные метки больше не нужны (вместо них можно использовать обычные физические объекты, изображения и местоположение), благодаря чему применение абстрактных и художественных AR-фильтров можно посвятить лишь творческому самовыражению.
Spectacle[143] – довольно свежее приложение, созданное Cubicle Ninjas, которое предлагает 50 различных фильтров для дополнения физического окружения пользователя с помощью сквозной камеры гарнитуры Samsung Gear VR. Оно также позволяет делать фотографии. В отличие от HIT Lab NZ, здесь не добавляется виртуальный контент к отображаемой картинке, а только лишь накладывается определенный фильтр, но это все же намек на то, как будут выглядеть AR-приложения в будущем.
Еще два приложения, не использующие AR, которые применяют абстрактные фильтры, или «изменяют стиль», – это Prisma AI[144] и Artisto[145]. Prisma – это приложение для редактирования фотографий, с помощью которого вы можете сделать фото на камеру или выбрать изображение из вашей библиотеки, а затем применить один из 33 различных фильтров, вдохновленных работами известных художников, таких как Пикассо, Моне, Ван Гог и Кандинский. По словам соучредителя Prisma Алексея Моисеенкова, приложение использует три нейронные сети, каждая из которых выполняет различные задачи: сначала анализируется ваше изображение, потом извлекается художественный стиль, который затем применяется к изображению. Моисеенков утверждает[146]: «Мы не просто накладываем фильтр, как это делает Instagram. Мы создаем фотографию с нуля. Итак, сначала фотографии нет: мы взяли вашу фотографию, а затем выполнили некоторые операции и создали новую фотографию». Artisto – это аналогичное приложение с художественными фильтрами, используемыми для коротких видеоклипов, а не фотографий. Мы также видим применение переноса стиля в приложении Apple Clips и в приложении для камеры Facebook.
Этот тип машинного обучения можно объединить с AR, чтобы превратить реальный мир в произведение искусства, раскрасить нашу реальность, чтобы показать нам этот мир по-новому в реальном времени. В музыкальном фильме 1971 года «Вилли Вонка и шоколадная фабрика», когда семьи впервые вошли в фантастическую реальность шоколадной фабрики, они не могли поверить своим глазам. «Пойдем со мной, и ты окажешься в мире чистого воображения», – пел Вилли Вонка. Абстрактные и художественные AR-фильтры раскрывают дверь в мир фантастической мечты, где нет ограничений действительности.
2. Общее виртуальное пространство
Первая волна AR сосредоточена только на впечатлениях одного пользователя. В текущей второй волне мы начинаем видеть возможность появления нового типа виртуального пространства, когда станет возможным многопользовательский режим. Это расширит AR-возможности в играх, образовании и даже в том, как мы переживаем и рассказываем наши личные истории и воспоминания.
Приложение Inception[147] (2010) от RjDj, разработанное совместно с режиссером Кристофером Ноланом, использовало микрофон и датчики в вашем iPhone для создания различных звуковых AR-ландшафтов, уникальных для вашего контекста, принимающих во внимание ваше местоположение, активность и даже время суток. Имея хотя бы одного друга, запустившего это же приложение на своем устройстве одновременно с вами, достигался новый «сон», или уровень, который вы иначе не могли бы увидеть в одиночку. Если семь человек играли вместе в одном и том же физическом месте, разблокировалось особое достижение и новый уровень. Мне нравится идея собирать людей вместе в одном физическом пространстве, чтобы продолжить рассказ в AR, и я верю, что мы увидим больше примеров этого. Помимо игр, это может использоваться в интерактивном театре или в других мероприятиях в области искусства, где размер аудитории может изменять историю, делая ее каждый раз новой.
Не всегда возможно разделять физическое пространство с другими. Skype[148] для HoloLens и Holoportation от Microsoft Research[149] объединяет людей, находящихся далеко друг от друга, чтобы вместе играть и работать в общем AR-пространстве. Skype для HoloLens дает возможность вашим контактам видеть то, что видите вы, позволяя им рисовать поверх физических объектов вашей реальности. Это создает общую среду, пространство для совместной работы, где вы можете показывать, а не просто рассказывать.
Одна из демонстраций Skype для HoloLens включает в себя инструкции по ремонту выключателя света. Используя HoloLens, вы в реальном времени общаетесь с кем-то в видеочате, и этот человек, используя планшет и видя то же самое, что и вы, дает вам инструкции. Этот человек может рисовать поверх того, что вы видите в своем физическом окружении, используя, например, стрелки и диаграммы, чтобы понятнее разъяснить, как обращаться с электроникой. Видя то же, что и вы, другой человек может направлять вас при выполнении задачи. В дополнение к ремонту, Skype для HoloLens обладает большим потенциалом в сфере образования, т.к. способен помочь в обучении и создании совместной рабочей среды, в которой можно делать зарисовки в реальном времени. Это создает новые возможности для общения и взаимодействия с окружающим миром, при котором какой-то другой человек визуально может взаимодействовать с пространством, в котором вы находитесь. Также это позволяет создать и новую форму творческого игрового пространства, где можно рисовать поверх чужого физического пространства и делиться этим в реальном времени.
Holoportation – это новый тип технологии трехмерного сканирования, который позволяет получать высококачественные трехмерные модели людей в любой точке мира в реальном времени. В сочетании с дисплеями AR, такими как HoloLens, технология Holoportation позволяет вам видеть, слышать и взаимодействовать с удаленными участниками в трехмерном пространстве, как если бы вы находились в одном месте. Шахрам Изади, менеджер по исследованиям в Holoportation, говорит: «Представьте, что вы можете телепортироваться в любое место с кем угодно в любое время». В видеоролике, посвященном этой технологии, Изади показывает, как он виртуально присутствует рядом с коллегой, также носящим устройство HoloLens. Его коллега находится там же, где Изади, и они даже могут «дать пять» друг другу. Изади также показывает, как семьи могут использовать эту технологию, находясь в разных местах, на примере того, как он играет со своей маленькой дочерью, как если бы они находились в одной комнате.
В дополнение к живому трехмерному сканированию, технология имеет возможность записывать и воспроизводить общий виртуальный опыт. «Теперь это почти как перемещение во времени, – говорит Изади, – и если я ношу свое устройство HoloLens, это почти как если бы я оживлял воспоминание в своей памяти, которое я вижу через пару чужих глаз, с разных точек зрения». Он указывает, что, поскольку содержание передается в 3D, его можно уменьшить и поместить на кофейный столик, чтобы было удобнее его просматривать. Изади говорит: «Это волшебный способ оживить запечатленные воспоминания».
Holoportation дополняет человеческую память, расширяя возможности того, как мы вспоминаем и рассказываем истории, в том числе и наши личные. Теперь можно переживать события в виртуальном трехмерном пространстве, выходя за рамки ограничений человеческой памяти, и просматривать их снова под разными углами, что раньше было невозможно. Независимо от того, идет ли речь о семейном празднике, театральном представлении или совместной работе над дизайном, разделяемое AR-пространство формирует основу для нового пространственно-временного измерения.
3. Объекты, рассказывающие истории
Что если объект сможет рассказать вам свою историю? Браузер визуального обнаружения[150] Blippar – это AR-приложение, сочетающее компьютерное зрение, машинное обучение и искусственный интеллект, целью которого является помочь вам узнать больше о мире вокруг вас. Направляя камеру смартфона на предметы из вашей повседневной жизни, такие как пища, цветы и даже домашние животные, приложение идентифицирует то, на что вы смотрите, и предлагает способы дальнейшего взаимодействия с объектом. Это, например, связанные с предметом статьи, видеоролики и близлежащие интересные места, появляющиеся на экране вашего смартфона. Например, если вы направите свой телефон на овощ, который, возможно, не видели раньше, приложение идентифицирует его, скажет вам его название, предложит рецепты его приготовления и даже перечислит места поблизости, где его можно купить. Blippar представляет новый способ поиска информации о нашей физической реальности, используя изображения и объекты вместо слов.
Амбариш Митра, соучредитель и главный исполнительный директор Blippar, ссылается на Blippar как «следующую ступень развития поиска, выходящую за его пределы». Далее он говорит[151]:
Blippar – это занимательное приложение, с помощью которого можно изучать ваше окружение и узнавать малоизвестные факты и истории об обычных вещах.
Визуальный браузер Blippar позволяет узнать больше о том, на что вы смотрите, без необходимости открывать веб-браузер и вводить в поиск название искомого предмета.
Поскольку эта технология улучшается и становится доступной в очках AR, ее применение станет еще более захватывающим и быстрым: нам даже не нужно будет направлять телефон на объект, достаточно будет просто посмотреть и спросить: «Что это?» Объекты смогут даже рассказать свои истории, основываясь на ваших предпочтениях и контексте, и спросят вас: «Хотите ли вы узнать больше?»
Помимо розничной торговли и продуктов, браузер визуального обнаружения Blippar имеет большой потенциал в использовании в процессе обучения, поиска и извлечения информации. В блоге Blippar говорится[152]: «Это как будто положить самый умный глаз в мире в карман вашего ребенка и дать ему возможность обучаться у самого знающего частного репетитора». Колум Эллиотт-Келли, руководитель Blippar Education, объясняет, что Blippar, как «репетитор», обладает знаниями «в масштабах интернета» и может рассказать об окружающем нас мире абсолютно все. При этом Эллиотт-Келли отмечает, что центральное место в успешном образовании, конечно, по-прежнему занимает учитель. «Мы верим в то, что, дополняя человека технологией, мы позволяем преподавателям делать их работу лучше, благодаря чему и ученики смогут учиться лучше. Учитель в сочетании с Blippar может сосредоточиться на обучении в тех областях, где научить может только человек», – говорит он.
Эллиотт-Келли описывает три категории использования браузера визуального обнаружения Blippar в процессе обучения: первое знакомство с темой в классе или во время школьных мероприятий вне класса; превращение реального мира в учебный портал; борьба с неграмотностью и отсутствием доступа к учебным заведениям.
Первая категория – этап знакомства с темой – включает в себя примеры использования, в которых учащиеся направляют устройство с включенным приложением Blippar на предметы в классе или за его пределами. «Способность распознавать любой объект, объединенный с обучающими системами и платформами, контролирующими образовательный процесс, влечет за собой полное перестроение этого процесса, – говорит Эллиотт-Келли. – Учащиеся, например, направляют устройство на розетку, чтобы узнать об электрике, или на местный мост для визуализации инженерных наук, причем контент выбирается, а и иногда даже создается педагогами, при этом весь процесс обучения контролируется».
Во второй категории, для которой реальный мир является обучающим порталом, учащиеся, не находящиеся под формальным руководством педагога, имеют возможность распознавать с помощью Blippar любой предмет, вызывающий их интерес. «Музеи и произведения искусства прекрасно для этого подходят, но, помимо них, в мире есть еще очень много других объектов для неформального изучения. Мы также думаем о возможности анимирования различных предметов, еды, предметов искусства, рабочих инструментов и достопримечательностей», – говорит Эллиотт-Келли. Он также отмечает интерес у Blippar не только к потребителям информации, но и к тем, кто готов ей делиться:
Теоретически, ваша точка зрения на произведение искусства так же интересна и ценна для меня, как и тексты или другие традиционные источники. Итак, когда вы распознали с помощью Blippar произведение искусства и сами узнаете что-то о нем, мы хотели бы, чтобы вы могли также добавлять контент от себя, доступ к которому я получу, когда распознаю тот же предмет позже.
Третья категория направлена на борьбу с неграмотностью и отсутствием доступа, когда у учащихся нет возможности заниматься с преподавателями в школе или дома, либо они не умеют читать. Эллиот-Келли говорит:
Получение достоверной информации по биологии, например, требует умения читать и наличия опытного педагога. Мы хотим разработать такой цифровой контент, который не потребует ни первого, ни второго. В основе лежит та же идея, что и при визуальном распознавании контента с помощью интеллектуальных алгоритмов, управляемых AI, но применяются они для преодоления препятствий, с которыми сталкиваются ученики, не имеющие базовых навыков и доступа.
Идея дополнять контент, а не только знакомиться с ним, является важным фактором в развитии инструментов повествования и обучения в дополненной реальности. Это поддерживает культуру «чтения и записи», в которой мы активно участвуем, делясь историями о мире и с миром. Это способствует получению знаний и обучению людей. Блог TechCrunch охарактеризовал[153] работу Blippar, как «создание Википедии физического мира» со своим собственным визуальным браузером, и если эта модель «вносить и потреблять» заработает, она действительно может стать дополненной Википедией для всего человечества.
4. Галереи действий и 3D AR-стикеры
Actiongram для HoloLens дает вам возможность выбрать из галереи трехмерный анимированный AR-контент, манипулировать им и играть с виртуальными элементами в вашем окружении, а также записывать видео и делиться им. В элементы галереи входят люди (например, актер Джордж Такеи[154]), животные (такие как единорог), другие объекты (например, НЛО) и редактируемый текст. «Мы предоставляем вам огромную коллекцию голографических персонажей и инструментов, и вы можете использовать их, чтобы поместить голограммы в историю, которую хотите рассказать», – говорит[155] Дэйна Циммерман, исполнительный продюсер Microsoft Studios.
Вы становитесь режиссером Actiongram, придумывая историю и используя в ней персонажи и объекты, выбранные вами. Каждая история отличается, и это очень интересный опыт. Ваше воображение – это то, что объединяет виртуальные и физические элементы в историю, которую вы можно записать и затем поделиться.
История, создаваемая вами с помощью Actiongram, сводится не столько к символам или объектам, сколько к контексту, в который вы их помещаете. Подобно игре с куклами или фигурками, вы создаете истории вокруг персонажей в игре. Несмотря на то, что в галерее есть готовая библиотека символов и действий, смысл сводится к тому, что вы смешиваете виртуальные элементы с вашей реальностью.
Одна из любопытных особенностей Actiongram заключается в том, что вам не нужно быть программистом или аниматором для создания и публикации AR-истории. «Actiongram позволяет людям без навыков работы с 3D и визуальными эффектами стать авторами голографических историй», – говорит[156] Кудо Цунода, вице-президент Next Gen Experiences, Windows and Devices Group, принадлежащей компании Microsoft. Actiongram также позволяет размещать AR-контент в реальном мире и записывать сцены, которые в обычной жизни снять невозможно. Цунода объясняет: «Actiongram позволяет людям создавать видеоролики с голограммами и визуальными эффектами, обычно требующими дорогостоящего программного обеспечения и многолетнего опыта работы». Американская группа Miniature Tigers использовала Actiongram для создания музыкального клипа на песню Crying in the Sunshine. «С помощью этой технологии мы сняли клип о герое песни, космонавте. Это было весело и умопомрачительно, иметь возможность «помещать» этого космонавта в космос вместе с нами и снимать его, точно так же, как если бы мы использовали настоящего актера, – говорит[157] Меган Доэрти, одна из создателей видео. – Использовать этот новый инструмент, чтобы донести до слушателей нашу историю, было очень интересно».
Я верю, что Actiongram будет вдохновлять разработчиков AR на создание большего количества AR-библиотек, подобных цифровым стикерам, которые мы используем сегодня в приложениях для обмена сообщениями. Цифровые стикеры (я предполагаю появление трехмерных AR-стикеров в скором времени) – это следующий шаг после эмодзи и способ рассказать короткие выразительные истории с картинками, выходящими за рамки традиционного языка. Я вижу галереи анимированных объектов, которые используются для дополнения общения и расширения возможностей стикеров, популярных сегодня в Facebook или на iPhone. iOS 10 позволяет размещать стикеры прямо в сообщениях, а не посылать его отдельно. Почему бы не разместить трехмерный AR-стикер в реальном мире, чтобы сообщить кому-то, что вы о нем думаете? Отвечайте в своих очках AR на сообщение друга с кивающим трехмерным единорогом на виртуальном стикере или создайте общую дополненную историю вместе с друзьями. Actiongram и трехмерные AR-стикеры становятся современными виртуальными телеграммами.
5. Вы – звезда: D-фотореалистичные персонализированные AR-аватары
Инструменты, такие как Actiongram и 3D AR-стикеры, могут стать еще более привлекательными благодаря персонализированным AR аватарам. Рассмотрим популярность Bitmoji[158], приложения для смартфонов компании Bitstrips (приобретенной Snapchat в 2016 году более чем за 100 миллионов долларов), позволяющего персонализировать ваш двумерный мультяшный аватар и использовать его затем в приложениях-мессенджерах. Создать ваш виртуальный образ в Bitmoji несложно. Выберите один из нескольких вариантов параметров внешнего вида, таких как форма лица, цвет волос, цвет глаз и даже черты лица. После того как вы закончите, ваш аватар появится в различных сценах в наборе цифровых стикеров. Вы можете использовать свой Bitmoji в таких приложениях, как iMessage, Gmail или Snapchat. «Так много информации передается выражением вашего лица, а не только вашими словами», – отмечает[159] соучредитель Bitmoji Ба Блэксток. – С Bitmoji «вы не просто видите текст, вы видите своего друга – это делает ваше сообщение более человечным».
В скором времени на смену двумерным карикатурным аватарам в приложения для обмена сообщениями могут прийти фотореалистичные трехмерные AR-аватары. Лойк Леду, соучредитель и генеральный директор Uraniom[160], хочет помочь вам стать звездой вашей дополненной истории. Uraniom – это веб-платформа с мобильным приложением, помогающим вам создать реалистичный трехмерный аватар, который вы можете использовать в любом приложении AR или VR или в видеоигре. Данный проект появился с целью исправить ситуацию, вызывавшую большое разочарование у геймеров: аватары выглядели ужасно – и Леду понимал, что данная потребность есть не только в игровой индустрии. «Связь с нашими аватарами с помощью устройства, такого как HoloLens, позволяет воссоздать человеческие взаимодействия практически досконально, – говорит Леду. – Используя AR и VR, мы сможем вместе с коллегами, членами семьи или друзьями разделять общие впечатления. Я глубоко убежден, что для того, чтобы воссоздать аутентичные социальные взаимодействия, крайне важно использовать реалистичные, похожие на пользователей аватары».
Создание вашего фотореалистичного трехмерного аватара с Uraniom в настоящее время работает в три этапа[161]. Сначала используется трехмерное сканирующее устройство, такое как Structure Sensor[162], или планшет, оснащенный Intel RealSense. Затем создается учетная запись на платформе Uraniom, куда загружается отсканированный файл. Наконец, вы выбираете игру или приложение, для которого вы хотите создать аватар, и настраиваете его (регулируете размер головы, тон кожи и т.д.). «Мы хотим пересмотреть то, какова ваша виртуальная идентичность, – говорит Леду. Он продолжает: Разумеется, у вас будет аватар, совпадающий с вами внешне, что бывает полезно в определенных ситуациях (например, в деловом сотрудничестве). Но что если вы захотите иметь другой аватар для встречи с вашей семьей или специальный вариант для общения с незнакомцами? Мы хотим, чтобы у вас был полный контроль над вашим цифровым «я», во всех цифровых средах, независимо от устройства или платформы».
Uraniom отличается от Holoportation тем, что голопортация – это живой захват и передача в реальном времени, тогда как с Uraniom ваш индивидуальный трехмерный аватар заранее создан и готов к внедрению в AR-события. Леду считает, что Holoportation – отличный проект, но он видит причины, по которым его трудно будет использовать. «Вам требуется полный захват в режиме реального времени. Для этого требуется соответствующая аппаратура, которая, помимо ее высокой стоимости, может оказаться слишком громоздкой», – говорит Леду, – «Объем трехмерных данных, которые нужно будет передавать в реальном времени, будет очень большим, даже при использовании сжатия. Используя аватар, вам просто нужно переместить точки анимации. Голопортация интересна для взаимодействия в реальном времени, но может быть не лучшим решением для некоторых ситуаций».
Леду рассматривает Uraniom как способ обогатить и усовершенствовать AR-игры. Он поясняет:
Вместо того чтобы взаимодействовать с компьютерным персонажем, что, если тот, с кем вы играете, будет выглядеть как ваш близкий друг? Или если главный злодей в игре будет похож на вашего родственника? Будете ли вы вести себя так же, как со случайными персонажами, генерируемыми компьютером, с персонажами, выглядящими как ваши близкие, как люди, которых вы знаете в реальной жизни? Наверное, нет!
Слова Леду перекликаются с точкой зрения Блэкстока на то, как Bitmoji делает ваш текст более человечным, позволяя видеть лицо вашего знакомого. Аналогичным образом, использование фотореалистичных аватаров – это способ очеловечивания AR.
Я могу представить, как Uraniom можно использовать для создания юмористических фотографий, похожих на популярный веб-сайт Elf Yourself[163], созданный в 2006 году режиссером Джейсоном Зада. Загрузив фотографию себя или друга на этот сайт, вы получаете видео, в котором танцуете в образе рождественского эльфа. Веб-сайт JibJab[164] предлагает аналогичный способ работы с персонализированными электронными открытками, в которых вы или ваш друг становитесь звездой короткого видео. Теперь представьте, что вместо двумерного танцующего эльфа или другого персонажа с вашим лицом, появляется ваш или чей-то еще трехмерный аватар. Такие инструменты, как Uraniom, могли бы сделать это возможным.
Когда мы станем дополненными людьми, будут ли наши аватары соответствовать нашему внешнему виду? Или мы будем выше, красивее, иметь другой цвет глаз, дополняя наш внешний вид, подобно тому, как сегодня мы изменяем себя, становясь на высокие каблуки, делая макияж, надевая цветные контактные линзы или делая пластические операции? Будут ли наши аватары олицетворять наше истинное «я» или мы захотим стать кем-то или даже чем-то еще? Я считаю, что у нас будет библиотека персональных AR-аватаров с несколькими версиями самих себя, возможно, даже одновременно в виртуальном и реальном мирах. В конце концов, контекстуально изменяемый и адаптируемый AR-аватар является следующим шагом в текущей второй волне дополненной реальности.
Глава 7. Аватары и объекты как живые переменные
Вторая волна дополненной реальности основана на контекстуальном понимании и взаимодействует с вашим окружением. Ваша окружающая среда становится отражением ваших желаний, адаптируясь к вашим потребностям. Ваше окружение становится настроенным и отзывчивым, обеспечивая персонализированный, актуальный и значимый опыт. AR – уже не просто технология наложения на реальность, она теперь превращается в реальность. В этой главе рассматривается, как аватары, интеллектуальные агенты, объекты и материалы становятся живыми агентами контекстного изменения: обучение, рост, прогнозирование и изменение формы, направленные на повышение ценности повседневной жизни и расширение нашей человечности новыми способами.
Идеальное селфи
Благодаря достижениям в области AR и искусственного интеллекта (AI – от англ. Artificial Intelligence) мы могли быть ближе, чем когда-либо, к виртуальным аватарам людей, которые не только физически напоминают нас, но и ведут себя подобно нам и действуют от нашего имени. «Идеальное селфи» – это концепция 2014 года художника и исследователя виртуальной реальности Жаклин Форд Мори[165]. Идеальное селфи – это современный агент искусственного интеллекта, который учится тому, как мы себя ведем во время его использования, и даже может стать нашим наследием после смерти. «Если и когда мы выйдем на сцену, где у нас есть аватары, которые учатся у нас, пока мы их используем, и могут заменить нас, когда нас там нет, то почему они не могут продолжать существовать после того, как мы умрем? – задается вопросом Мори. – Представьте, что наши потомки будут иметь возможность беседовать со своими предками, спросить совета или узнать о семейной истории и т.д. Это и есть идеальное селфи».
Мори выделяет пять важных трендов, которые подпитывают концепцию идеального селфи. Первой тенденцией является повышенная точность захвата рабочих данных нашего тела. Она приводит в пример движение Quantified Self[166], которое стало популярным явлением и основано на технологии носимых устройств и датчиках для сбора данных о повседневной жизни. «Этот тренд охватывает все: от значков и браслетов до устройств, которые становятся частью нашей повседневной одежды. В конце концов, мы могли бы увидеть, что они имплантированы в наши тела в лучших традициях трансгуманизма», – говорит Мори.
Вторая тенденция – захват формы нашего тела. «В настоящее время уже существуют продвинутые способы оцифровки не только нашей формы в трех измерениях в мельчайших подробностях, но и сложных компонентов внешности, – говорит Мори. – По меньшей мере, дюжина компаний сейчас занимается созданием аватаров, и найти место, где можно отсканировать все ваше тело, можно сегодня без проблем». Она считает, что мы застанем то время, когда у каждого человека будет трехмерный скан, заменяющий фотоснимки, как основной способ хранить воспоминания. Спрос на более реалистичные изображения аватара будет только расти, и наличие 3D-аватара будет иметь решающее значение.
Реализм «Идеальному селфи» придает возможность использования в виртуальной среде аватаром ваших выражений лица[167] и телодвижений. Такие компании, как High Fidelity[168], создающая платформу VR, позволяющую пользователям создавать виртуальные миры (компания была создана в апреле 2013 года основателем и бывшим генеральным директором Second Life Филиппом Роуздейлом), достигли в этой сфере больших успехов. Quantum Capture[169] и Soul Machines[170] – еще две компании, работающие в этой области и занимающиеся «очеловечиванием» аватаров. Это плавно подводит нас к третьей тенденции, которая заключается в том, что сенсорные устройства позволяют фиксировать наши движения. Она включает в себя технологии захвата движения, начиная от камер определения глубины восприятия, таких как Kinect, используемых с домашними компьютерными играми, до более сложных систем, использующих костюмы для всего тела, как, например, в голливудских фильмах, где актеры играют персонажей, генерируемых компьютером, как в фильме «Аватар».
Четвертая тенденция заключается в том, как отображать сложные данные, собранные в первых трех тенденциях. Концепция Мори для идеального селфи является прообразом современных AR-дисплеев, таких как HoloLens, которые можно использовать для взаимодействия с идеальным селфи. Хотя HoloLens еще не интегрирует данные из наших тел (первая тенденция, которую выделяет Мори), это может однажды произойти. Компания Microsoft получила патент[171] на интегрирование системы датчиков биометрических данных в HoloLens для мониторинга и реагирования на уровень стресса человека на основе определения сердечного ритма, выделения пота, активности мозговых волн и других сигналов тела. Это может помочь настроить ваше идеальное селфи реагировать на то, как ваше тело и мозг реагируют на конкретные ситуации, когда вы носите HoloLens.
Пятая тенденция, которую выделяет Мори, – это возможность проведения телеконференций. Она описывает, что мы уже привыкли к использованию данной технологии при проведении видеоконференции во время переговоров, в работе роботов BEAM[172], Skype и FaceTime на наших компьютерах и смартфонах, благодаря которым мы общаемся, находясь в разных точках мира. В настоящее время технология AR-телеконференции работает с такими системами, как Holoportation и HoloLens Skype (как говорилось в предыдущей главе) и может интегрироваться с «Идеальным селфи».
Мори полагает, что эти пять тенденций позволяют захватывать и проецировать образ человеческого тела в исчерпывающем виде, персонализируя ряд процессов, продиктованных такими потребностями, как, например, быть в двух местах одновременно. Эта цель имеет практическое значение, и Мори приводит пример космонавтов, использующих технологию идеального селфи. «Когда в будущем космонавтам придется находиться в космосе в течение длительного времени, что, как ожидается, может стать реальностью уже в предстоящем десятилетии, у них не будет возможности проводить видеоконференции со своими друзьями и семьей в режиме реального времени, как это происходит сейчас, когда они находятся на Международной космической станции. NASA исследует возможность использования виртуальных миров, чтобы помочь справиться с социальной и психологической изоляцией, с которыми могут столкнуться космонавты, когда они находятся далеко от Земли в трехлетнем полете и сообщения отправляются с 40-минутной задержкой».
Технология идеального селфи также может быть полезна для тех, чья мобильность ограничена, или тех, кто находится в изолированных сообществах. Мори говорит:
Возможность войти в виртуальную среду с помощью своего аватара и встретиться с родственниками или друзьями, находящимися в других частях Земного шара, может способствовать поддержанию отношений между людьми. Ваше цифровое селфи может быть отличной альтернативой, т.к. полностью копирует вас.
Она указывает, что это возможно уже сейчас с использованием стандартного или настроенного аватара, который в реальном времени используется на социальной платформе VR. «В будущем такие трехмерные цифровые селфи научатся вести себя так же, как вы, и будут способны к более сложным взаимодействиям», – добавляет она.
Пройдет время, прежде чем мы достигнем того уровня развития, когда аватар сможет стать нашей подлинной заменой. Чтобы достичь этого, аватар должен будет учиться у нас, чтобы он мог повторять наше поведение, даже когда мы его не используем. По сути, мы будем программировать свою цифровую копию, оснащенную искусственным интеллектом. Один из подходов состоит в записи всех наших действий, чтобы аватар мог записать сценарий и воспроизвести его, когда мы не руководим аватаром. Наши аватары могут также учиться у нас в социальных сетях, в которых мы описываем наши жизненные события. Например, исходя из вашей ленты Facebook, технология сможет распознавать, что вы сделали и что для вас важно. Мори спрашивает: «Что если в конце концов, ваша хроника будет заменена на обучающегося аватара – идеальное селфи? Я думаю, это может произойти в случае, если исследования будут направлены в нужном направлении».
Чтобы идеальное селфи стало реальностью, как того хочет Мори, она говорит, что необходим гораздо более высокий уровень искусственного интеллекта, лежащий в основе этих аватаров, чтобы они действительно анализировали и сохраняли информацию и действия, которые происходят во время их использования. Она считает, что это самая большая сложность. «Мы стремимся создать не просто агент искусственного интеллекта, но технологию, способную расти и развиваться в зависимости от поведения конкретного человека, который использует этот аватар», – говорит Мори.
Искусственный интеллект скоро вернется
Eterni.me – стартап из Массачусетского технологического института, целью которого является попытка сделать вас практически бессмертными. Вебсайт Eterni.me гласит: «Мы создаем ваш виртуальный образ, аватар, который моделирует вашу личность и может взаимодействовать с вами, а также будет делиться информацией и давать советы вашей семье и друзьям, когда вас не станет. Это как Skype-чат из прошлого».
Eterni.me очень сильно напоминает телевизионный сериал «Черное зеркало», в частности, первый эпизод второго сезона «Скоро вернусь», в котором овдовевшая Марта обращается к новейшим технологиям для общения с ее недавно скончавшимся мужем Эшем. Однако она общается не с Эшем, а с его симуляцией, основанной на программе искусственного интеллекта, которая собирает информацию об Эше через профили социальных сетей и архив его переписок в интернете. Марта начинает с текстовой беседы с виртуальным Эшем; затем переходя к разговорам с ним по телефону, после загрузки видеофайлов, из которых искусственный интеллект выделяет и распознает его голос. Eterni.me надеется увековечить вас подобным образом, собирая «почти все, что вы создаете в течение своей жизни, и обрабатывая этот огромный объем информации, используя сложные алгоритмы искусственного интеллекта».
В статье журнала Fast Company об Eterni.me Адель Питерс пишет[173]: «Данный сервис обещает сохранить все, что вы делаете в Интернете, и никогда не забыть этого, но непонятно, захочет ли большинство людей, чтобы вся эта информация хранилась вечно». Отмечая, как наше нынешнее поколение документирует «каждый прием пищи в Instagram и каждую мысль в Twitter», Питерс задается вопросом: «Что мы хотим, чтобы с этой информацией случилось, когда мы умрем?»
Возможно, в будущем будет существовать работа куратора вечных аватаров. В фильме 2004 года «Окончательный монтаж», режиссера Омара Найма с Робином Уильямсом в главной роли, Уильямс играет «монтажера», у которого есть право окончательного редактирования записанных историй людей. Чип, встроенный в ваше тело, записывает все ваши переживания в течение жизни, а работа героя Уильямса состоит в том, чтобы отредактировать все сохраненные воспоминания и произвести одноминутное видео с основными моментами.
Будет ли алгоритм искусственного интеллекта Eterni.me достаточно эффективным для того, чтобы произвести окончательное редактирование, выделяя важнейшие события вашей жизни в том виде, в каком вы хотели бы предстать перед будущими поколениями? В упомянутой выше серии «Черного зеркала» Марта в итоге говорит симуляции Эша: «Ты всего лишь тень. У тебя нет истории. Ты просто бессмысленная имитация того, что он делал, и этого недостаточно».
Мариус Урсаче, основатель Eterni.me, считает, что сбора информации недостаточно. Вам нужно будет взаимодействовать с вашим аватаром, чтобы помочь ему разобраться в информации, тонко настроить его. «Люди будут тренировать свои аватары, пока они еще живы, – говорит Урсаче, – это потому, что у нас нет алгоритмов и искусственного интеллекта, чтобы воссоздать человека или его сознание только из нескольких разбросанных писем или сообщений Facebook. Чтобы аватар был правдоподобным и естественным, потребуются годы сбора данных и тренировки».
Урсаче описывает аватар Eterni.me как вашего персонального биографа:
Он захочет узнать как можно больше о вас, собирая информацию из социальных сетей, электронной почты или смартфона. Он попытается найти смысл и контекст во всем, что вы делаете, и он будет пытаться общаться с вами каждый день, чтобы получить больше информации о вас. Если вы хотите загрузить свои мысли, свою личность и (возможно, в будущем) свое сознание, то сейчас вам это не удастся, так как нет такого кабеля. Вам придется делать это понемногу каждый день, всю оставшуюся жизнь. Десять минут каждый день в совокупности составят до тысячи часов вашей истории. Факт за фактом.
Урсаче сравнивает Eterni.me с тамагочи. Он объясняет[174]: «Вначале у него есть только небольшие всплески интеллекта, но чем больше вы с ним общаетесь, тем больше информации вы ему даете, и тем умнее он становится. Рассматривайте его как своего ребенка, которому предстоит многому научиться, пока он или она не превратятся в прекрасного человека». Это представление об искусственном интеллекте как об эволюционном процессе, в ходе которого вас узнают, и это представление растет, когда вы его используете, находит отражение в частности в фильме режиссера Спайка Джонза «Она» (2013). В фильме перед нами предстает Саманта, первая в мире интеллектуальная операционная система. Там показано, как вскоре будет выглядеть жизнь, в которой устройства будут обучаться и расти вместе с нами.
В дополнение к тому, что умеют делать аватары, интеллектуальные агенты, такие как Саманта, смогут действовать от нашего имени. Эти интеллектуальные агенты будут знать нас очень хорошо, в том числе наш характер, что мы любим, что мы не любим, нашу семью, наших друзей и даже наши жизненные показатели. Футурист Брайан Дэвид Джонсон описывает, как десятилетиями наше взаимодействие с технологией основывалось на модели ввода-вывода, когда человеком подавалась команда и машина ее выполняла: если команда задавалась некорректно, то работа системы нарушалась. Джонсон полагает, что сегодня мы вступает в эру более глубокого взаимодействия с технологией. Компьютер знает вас и все, что вы делаете в конкретный день, и может обработать ваш личный опыт, помогая вам повысить свою продуктивность.
Он говорит, что это «помогает нам быть более человечными», комментируя, как в фильме «Она» Саманта занимается с Теодором, чтобы их отношения больше походили на человеческие. Джонсон утверждает, что технология – это всего лишь инструмент: мы разрабатываем свой инструментарий и дополняем его нашими человечностью и ценностями. У нас есть возможность разрабатывать такие машины, которые будут заботиться о тех, кого мы любим, и позволят проявлять нашу человечность чаще. Он называет это созданием «наших лучших ангелов». Джонсон говорит, что вопрос, на который нам нужно дать ответ: «Для чего мы проводим оптимизацию?» Ответ, как он считает, – это сделать жизнь людей лучше, и я с этим полностью согласна.
Женевьев Белл, директор по взаимодействию и исследованиям компании Intel, описывает компьютеризированный мир, в котором у нас появляются взаимоотношения с технологиями, начинающими о нас заботиться, удовлетворять наши потребности и даже действовать от нашего имени. Прогноз Белл подтверждает Каролина Миланези, вице-президент компании Gartner. «Если с утра на дорогах большие пробки, такая технология разбудит вас раньше, чтобы вы не опоздали на встречу с начальником, или просто направит извинение, если речь идет о встрече с вашим коллегой. Смартфон будет использовать контекстную информацию из вашего календаря, с датчиков, геолокацию и другие персональные данные», – говорит Миланези[175].
В компании Gartner считают, что система будет выполнять основные функции «автоматически», помогая решать типовые задачи, требующие значительных затрат времени, такие как привязка событий ко времени, отмечание в календаре важных дат или ответ на электронные сообщения. Постепенно мы будем привыкать к тому, что ряд задач будет выполнять смартфон, и ожидается, что потребители привыкн ут к приложениям и услугам смартфонов, которые будут контролировать разные аспекты их жизни. Миланези говорит: «Телефоны станут нашими секретными цифровыми агентами, но только если мы будем готовы предоставить им требуемую информацию». Бэлл считает, что мы выйдем за рамки «взаимодействия» с технологией, чтобы войти в доверительные «отношения» с нашими устройствами. Она также полагает, что через десять лет наши устройства будут воспринимать нас совсем по-другому, интуитивно понимая, кто мы.
В Gartner это называют эпохой сознательных вычислений и выделяют четыре этапа: «синхронизируй меня», «увидь меня», «узнай меня» и «будь мной». В то время как «синхронизируй меня» и «увидь меня» уже существуют в настоящее время, этапы «узнай меня» и «будь мной» ожидают нас впереди, как в случае с Самантой в фильме «Она». «Синхронизируй меня» предполагает хранение копий ваших цифровых данных, которые собираются из всех возможных источников. «Увидь меня» означает, что, где бы вы сейчас ни находились и где бы вы ни были ранее, будь то реальный мир или Интернет, система всегда знает, где вы, и распознает ваше настроение и контекст ситуации, чтобы наилучшим образом предоставлять вам необходимые услуги. «Узнай меня» понимает ваши потребности и желания и представляет вам варианты, а «будь мной» – это последняя ступень развития, на которой интеллектуальное устройство действует от вашего имени на основе обучения. Имея доступ ко всем электронным письмам, файлам и другой личной информации Теодора, задачи Саманты эволюционируют, изменяясь от редактирования календаря Теодора до отправки черновиков его работы издателю от имени Теодора. «Будь мной» также является точкой, в которой интеллектуальный агент может трансформироваться в ваш вечный аватар или «идеальное селфи» после вашей смерти, изучая вас на протяжении всей вашей жизни, продолжая с того момента, в котором вы остановились.
Активация компьютерной технологии
От умных персонажей и аватаров мы переходим к интеллектуальным пространствам и объектам. «Активация компьютеров» – это концепция, представленная в 2011 году исследователями лаборатории Исикавы Оку в Токийском университете, разработанная для системы AR и использующая пространственное аудио и видео для преобразования повседневных объектов в коммуникационные устройства. Сделав жест, чтобы запустить определенный сценарий устройства, который вы хотите использовать, обычные объекты активируются в соответствии с вашими потребностями. Опытный образец[176] был создан на примере банана, который используется как телефон, и коробки для пиццы, работающей как переносной компьютер.
Чтобы превратить банан в телефон, вам необходимо поднести банан к уху. Система AR распознает ваш жест и объект и с помощью скрытых направленных микрофонов и динамиков сделает так, что банан будет функционировать как настоящий телефон. Чтобы активизировать ноутбук, вам необходимо будет открыть коробку от пиццы и начать печатать на картоне. Проецируемые видео– и аудиоэффекты сделают так, что коробка превратится в ноутбук. Исследовательская группа планирует расширить круг таких жестов и предметов в будущем, с целью создания всеобъемлющей системы AR, которая понимает ваши желания и потребности.
Но вы можете спросить: почему я хотел бы использовать банан в качестве телефона или коробку от пиццы в качестве ноутбука? Активация компьютерной технологии представляет собой сценарий, в котором коммуникационные технологии становятся повсеместными и больше не зависят от конкретных объектов. Вспомните ситуацию, когда вы в последний раз случайно оставили свой смартфон дома. Как вы себя чувствовали? При развитой зависимости от вашего смартфона в повседневной жизни вы, наверное, чувствовали себя изолированными, неспособными выполнять задачи и, возможно, даже голыми. Активируемая компьютерная технология предоставляет новую возможность, когда вам больше не нужно носить с собой коммуникационные устройства; их функции могут быть перенесены по мере необходимости в любой предмет, находящийся у вас под рукой.
С помощью активируемой компьютерной технологии новыми функциями теперь наделяются обычные объекты, которые сами по себе не обладают этими свойствами. Банан можно активировать как рабочий телефон на определенное время, после чего он возвращается в свое обычно состояние. Это начало новой эры объектов и сред, которые способны подстраиваться под наши нужды и зависят от контекста и потребностей. Активируемая компьютерная технология может сочетаться с искусственным интеллектом, чтобы создать интеллектуальную среду, основанную на ваших контекстуальных потребностях.
Активируемая компьютерная технология представляет собой мир, в котором физические объекты все еще занимают главное место, но эти объекты теперь динамичны и их состояние может изменяться. Акцент делается на возможностях, а не на физических свойствах самого объекта, который обычно предназначен для конкретной, часто единственной цели. Активируемая компьютерная технология может стимулировать изменение промышленного дизайна, когда произвольный объект может выполнять любую желаемую задачу. Вместо того чтобы производить различные электронные приборы или инструменты, представьте использование нескольких объектов, которые могут трансформироваться во что угодно. Футуролог Брюс Стерлинг говорит, что активируемая компьютерная технология предоставляет возможности для устойчивого существования в отсутствие богатой материальной базы, потому что вы можете активировать и получать доступ ко всему, что нужно.
4D-печать
В то время как активируемая компьютерная технология использует аудио– и видеопроекционную систему, 4D-печать – это концепция инженера Скайлера Тиббитса, которая предусматривает встраивание дополненной реальности в физические материалы, что позволяет объектам расти и адаптироваться. Как и в случае с бананом-телефоном, 4D-печать не является технологией дополненной реальности в привычном понимании, а основывается на расширенной идее контекстно-зависимых и изменяющихся объектов, обеспечивающих новый уровень взаимодействия, погружения и интеграции с нашей средой.
Тиббитс, директор Лаборатории самосборки Массачусетского технологического института, где его команда работает над 4D-печатью, чтобы создать «умные объекты», которые могут самостоятельно собираться или трансформироваться при изменении условий окружающей среды, заявляет[177]: «Новая технология 4D-печати, где 3D печатные материалы могут изменять свою форму со временем, создает основу для того, чтобы создавать вещи, которые могут адаптироваться под наши нужды или окружающую среду». Тиббитс описывает четвертое измерение как идею реагирования во времени и создание чего-то, что не является статичным, но может развиваться и обладает встроенной эластичностью. «Это совершенно новая парадигма того, как мы производим вещи. И того, как после производства эти вещи становятся эластичными и начинают самостоятельно адаптироваться», – говорит он.
4D-печать может применяться даже для спасения жизней – в аварийных зонах для оказания помощи во время чрезвычайных ситуаций. 4D-печать может использоваться для строительства труб, которые усаживаются или расширяются в зависимости от их контакта с водой; будучи примененными для конструкции аварийных стоков, они могут расти в размерах и затем сжиматься, когда чрезвычайная ситуация изменяется. 4D-печать также может быть применена в местах укрытия от чрезвычайных ситуаций и лагерях беженцев, где строения смогут собираться даже неквалифицированными рабочими.
Чтобы воплотить некоторые из этих концепций в реальность, лаборатория Тиббитса сотрудничает с производителем 3D-печати Stratasys. Эта компания разработала печатный материал, который при помещении в воду расширяется на 150%. Тиббитс и его команда применяют геометрию, чтобы обеспечить точность того, как объект может разворачиваться и изменяться под определенным углом, а не просто увеличиваться в размерах. Это отличается от того, как 3D-принтер традиционно работает с чертежом; чтобы сделать что-то в 4D, принтер получает геометрический код с измерениями, которые определяют, как напечатанная продукция сможет изменяться под внешним воздействием, таким как попадание воды, движение или изменение температуры. Геометрический код определяет направление, углы и степень, в которой материал может деформироваться и изгибаться.
Тиббитс продемонстрировал[178] концепцию 4D-печати в своей видеолекции TED в 2013 году, когда единая нить печатного материала сама складывалась в слово «MIT». Он отмечает, как ученые смогли программировать физические и биологические материалы с использованием нанотехнологий, чтобы изменять их форму и свойства. Тиббитс признает, что сделать эту технологию применимой в использовании человеком гораздо сложнее, но это не остановило его лабораторию в изучении новых возможностей. Он предполагает, что строительство может стать областью применения подобных материалов. Тиббитс говорит, что его лаборатория тесно сотрудничает с отраслевыми партнерами для внедрения этой концепции в бизнес.
Тиббитс также видит перспективы применения 4D-печати в производстве спортивной одежды. Он приводит в качестве примера пару кроссовок, которые могут изменять свои свойства и форму в зависимости от условий:
Если я побегу, кроссовки должны перейти в режим бега. Когда я играю в баскетбол, они адаптируются и начинают сильнее поддерживать мои лодыжки. Если я пойду по траве, их подошва должна стать более рельефной, и они должны становиться водонепроницаемыми, когда идет дождь. Обувь, разумеется, не поймет, что вы играете в баскетбол, но об этом может сигнализировать то, какую энергию затрачивают ваши ноги или какой тип силы они прикладывают. Обувь может трансформироваться в зависимости от давления. Также в качестве сигнала можно использовать изменение влажности или температуры.
Эта концепция также может применяться на более масштабном уровне, например в архитектуре, где форма и структура здания может корректироваться в зависимости от погоды, времени суток, возможностей людей и особых социальных требований. Такая система 4D-печати могла бы изменить методы работы архитекторов и инженеров в ходе проектирования и строительства зданий.
Тиббитс задается вопросом: «Что если бы мир состоял из людей, машин и материалов, которые находятся в постоянном сотрудничестве? Если бы они обладали дополнительными свойствами, между ними происходило бы более эффективное взаимодействие». По мере развития AR-технология будет стремиться к двустороннему диалогу в реальном времени с изменяющимися потребностями пользователя и окружающей среды. AR в перспективе перестанет быть сложным наложением и станет динамичным, полезным в применении и подстраивающимся под нужды пользователя инструментом. Концепция Тиббитса может быть интегрирована в AR, наделяя объекты встроенным адаптивным поведением, позволяя им расти и адаптироваться подобно живым объектам, реагирующим на изменения внешней среды.
Редактор реальности
Валентин Хеун, исследователь группы жидкостных интерфейсов MIT Media Lab, также рассматривает AR как двухсторонний разговор между пользователем и средой. В своем выступлении в 2016 году на выставке Augmented World Expo в Кремниевой долине Хеун заявил:
Конечно, интересно наблюдать со стороны за тем, как AR изменяет среду при работе с данными, видео и т.д. Но когда у вас появляется возможность двустороннего взаимодействия, у вас появляется мощный инструмент, который по своим свойствам сравним с цифровой версией швейцарского армейского ножа, который позволяет изменять характеристики окружающего мира.
Хеун разработал приложение iOS под названием Reality Editor[179] с целью перепрограммировать физический мир с помощью AR. Приложение позволяет вам связывать «умные» объекты вокруг вас, виртуально соединяя их пальцем на экране вашего смартфона или планшета. «В действительности это только начало; это небольшой первый шаг, который позволит выяснить, как мы можем связать вещи вокруг нас друг с другом, сделать их нестатичными и как мы будем с ними взаимодействовать? Пока что мы еще не можем этого делать», – говорит Хеун[180]. Он считает, что Reality Editor будет тем самым цифровым инструментом, который позволит вам подключаться к физическим предметам и манипулировать ими.
Это приложение не работает с готовыми потребительскими продуктами; оно работает на открытой платформе под названием Open Hybrid, где вы можете назначить с помощью AR дополнительные виртуальные функции физическому объекту. В настоящее время это делается при помощи стикера (похожего на QR-код), применяемого к физическим объектам, к которым вы хотите подключить дополнительные функции. По мнению Хеуна, в будущем, когда будет внедрено встроенное в приложение распознавание образов, это уже не понадобится. Хеун использовал сеть Open Hybrid, чтобы продемонстрировать пример, в котором он соединил лампу, стул и свою машину, чтобы упростить процесс ухода с работы. Он говорит: «Представьте, что стул, на котором вы сидите, реагирует на окружающую вас обстановку, поэтому, когда вы уходите, окружающая среда реагирует на вас». Когда вы встаете со своего кресла на работе и выходите из кабинета, лампа сама выключается, а автомобиль активируется, заводится и в нем включается кондиционер, настроенный на определенную температуру.
Используя Open Hybrid, вы также можете объединять функции одного объекта с другим, создавая в приложении последовательность от одного компонента к другому. Например, если вы хотите, чтобы ваш кухонный комбайн был оснащен таймером, наведите камеру вашего смартфона или планшета на соответствующее устройство и используйте приложение Reality Editor, чтобы провести линию от другого объекта, оснащенного таймером, например, от тостера, к кухонному комбайну. Эти два объекта будут автоматически подключены к серверу Open Hybrid. Подобно активации компьютеров и 4D-печати, редактор реальности может расширить как наши возможности, так и возможности различных объектов.
Хеун говорит о различии между физическими и виртуальными объектами: физические объекты обычно имеют неизменяемые свойства, тогда как виртуальные объекты подвижны, могут быть изменены в любой момент и обладают разными свойствами. «Итак, что действительно интересно: когда у вас есть физический объект, который не полностью статичен, как на практике можно использовать его свойства? – говорит Хеун. – Это сейчас и есть основной вопрос: понять, с точки зрения разработки, какие перспективы у этой технологии и в каком направлении она будет развиваться».
AR несет в себе возможности для изменения мира и даже нас самих. По моему мнению, сейчас перед нами стоят два важных вопроса, которыми мы задаемся при изучении новых виртуальных возможностей, выходящих за рамки простых физических форм предметов. Теперь, когда мы можем создавать все что угодно, что же мы будем производить? Как мы можем наилучшим образом использовать эти новые возможности для обогащения, эволюции и развития человечества?
Глава 8. Тело как интерфейс
В XXI веке технологическая революция коснется повседневного, миниатюрного и невидимого. Влияние технологии увеличится в десять раз, поскольку она будет вплетена в ткань обычной жизни. По мере того, как технология становится более распространенной и невидимой, она будет делать наше существование комфортнее, устраняя раздражители и сохраняя при этом связь с тем, что действительно важно.
Марк Д. Вайзер, 1999 год.
Покойный Марк Д. Вайзер был ведущим исследователем в Xerox PARC (Исследовательский центр в Пало-Альто, теперь называющийся просто PARC), одном из самых уважаемых институтов Кремниевой долины и месте, где родились несколько важных компьютерных изобретений и технологических открытий, таких как Ethernet, графический интерфейс пользователя (GUI) и персональный компьютер. Вайзер предвидел будущее, в котором компьютеры встраиваются в повседневные объекты, а их технологическая составляющая отступает на задний план и скорее успокаивает пользователя, чем отвлекает его.
В 1996 году он вместе с Джоном Сили Брауном (главным технологом Xerox PARC) написал критическую статью «Наступающий век спокойной технологии». «Спокойную» технологию можно охарактеризовать как невидимую и интуитивно понятную в использовании; она работает непрерывно и подстраивается под ваш образ жизни. Это происходит в фоновом режиме, и она появляется только когда вам это нужно. Вот как лично я вижу вторую волну эволюции AR: дополненная реальность должна не раствориться в наших устройствах, а скорее отступить на задний план, чтобы мы могли сосредоточиться на том, что интересно в окружающем нас реальном мире.
В своем интервью[181] в 2014 году Браун говорил о силе «спокойной» технологии и ее возможности оставаться скрытой и активизироваться только тогда, когда нужно, анализируя при этом ваше окружение. Об этой особенности «спокойной» технологии вы можете прочитать в главе 7. Там мы рассматривали идею адаптивных агентов, аватаров и объектов, находящихся в режиме ожидания и действующих от вашего имени, используя информацию из вашего контекста. В этой главе мы продолжим рассматривать идею «спокойной» технологии, а именно возможность дополнения наших тел с целью создания (практически) невидимого интерфейса. Начиная носимыми на теле электронными тканями и заканчивая внедрением технологий в организм и контролируемыми мозгом интерфейсами. Мы рассмотрим перспективу, в которой технология не только отступит на задний план спокойно и незаметно, но и станет сугубо персональной.
Электронная кожа и тело как сенсорный экран
На своем сайте под названием Ubiquitous Computing[182] Вайзер написал в 1996 году: «Повсеместная компьютеризация в определенной степени противоположна виртуальной реальности. Если виртуальная реальность помещает людей в виртуальное пространство, повсеместная компьютеризация делает так, что компьютер «живет» вместе с людьми, в их мире». Как и повсеместная компьютеризация, дополненная реальность имеет те же различия с виртуальной реальностью. AR – это компьютерная технология, работающая в реальном мире, где невидимой становится сама технология, а не реальность или люди. Благодаря возможностям «спокойной» технологии и повсеместной компьютеризации у AR возникают огромные возможности для развития и изменения того, как мы живем и взаимодействуем со своим окружением и друг с другом. При этом создаются условия, в которых становится меньше раздражителей, а связи укрепляются.
Для Вайзера «наивысшая ступень развития» повсеместной компьютеризации – «сделать компьютер настолько интегрированным, совместимым и естественным, чтобы при его использовании мы даже не думали об этом». Тело – это, пожалуй, самый «естественный» интерфейс, который у нас есть. Эксперт по юзабилити Якоб Нильсен пишет[183]: «Когда вы касаетесь своего тела, вы сразу получаете отклик – и эта реакция лучше, чем реакция любого внешнего устройства. И вы никогда не забудете взять собственное тело с собой».
Во время своего посещения конференции по человеческим факторам в вычислительных системах (CHI ‘13) в Париже, главной научной конференции по человеко-компьютерному взаимодействию, Нильсен был особенно сильно впечатлен двумя проектами, в которых человеческий организм сам использовался как интегрированный компонент пользовательского интерфейса; Imaginary Interfaces[184] и EarPut[185] делают шаг в направлении непосредственного использования тела без помощи экранов.
Imaginary Phone[186] (часть проекта Imaginary Interfaces), разработанный Шоном Густафсоном, Бернхардом Рабе и Патриком Бодишем из Института Хассо-Платтнера в Германии, представляет собой пользовательский интерфейс на ладони. Этот пользовательский интерфейс «воображаемый», поскольку на руке во время его использования ничего нет; нет также и проекционного или графического наслоения. Патрик Бодиш, один из разработчиков Imaginary Phone, напоминает нам, как раньше мы использовали стилус для работы с персональными цифровыми помощниками (PDA) и как в iPhone и сенсорных экранах других устройств позже необходимость в стилусе была устранена. Бодиш говорит, что хочет, чтобы технология развилась еще дальше и уже сами экраны ушли в прошлое.
В этой технологии используются маленькие, расположенные над пользователем камеры (которые также можно носить на своем теле) для измерения глубины, позволяющие определить положение пальцев пользователя и то, какой части руки он касается. Интерфейс может использоваться для взаимодействия с вашим мобильным телефоном, даже если он находится не перед вами, а, например, лежит в кармане. Бодиш отмечает, что Imaginary Phone[187] может быть полезен для многих действий, выполняющихся нами каждый день, например отключения будильника, установки таймера, исходящих звонков или отправления голосового сообщения. Все это можно будет осуществить, не касаясь телефона. Конкретные настраиваемые функции можно будет подключить к телефону и активировать, прикасаясь к разным точкам на руке.
Исследователи провели эксперименты[188], в которых определенные действия одинаково быстро осуществлялись как с помощью обычного телефона с сенсорным экраном, так и с воображаемой системой на ладони. Интересно отметить, однако, что пользователи, у которых были завязаны глаза, в два раза быстрее справлялись с поставленными задачами, когда использовали в качестве интерфейса свою ладонь. Информация, собранная по итогам данного исследования, представляет интерес с точки зрения предоставления людям с нарушением зрения большего доступа к ряду функций, а также использования телефона в ситуации, когда пользователи не хотят отвлекаться от своих занятий (чтобы технология прерывала взаимодействие людей).
Исследователи Роман Лиссерман, Йохен Хубер, Аристотелис Хаджакос и Макс Мюльхойзер из Технического университета в Дармштадте создали прототип под названием EarPut, в котором предлагается замена сенсорного экрана человеческим ухом как аналогом интерактивной поверхности. «Одной из основных задач в разработке мобильных устройств сегодня является сокращение визуальной составляющей в пользу интерфейсов, не требующих чтобы пользователи на них смотрели», – считают исследователи. EarPut можно управлять с помощью одной руки. С этой технологией можно использовать другие неинтерактивные устройства, такие как обычные очки или наушники, а также дополнять существующие возможности носимой гарнитуры. Когда EarPut появился, он предназначался в качестве сенсорного расширения для очков Google Glass.
Разработчики выделяют различные варианты взаимодействия с EarPut, включая касание части поверхности уха, дергание мочки уха (подходит для команд включения-выключения), сдвигание пальца вверх-вниз по уху (подходит для регулировки громкости) и прикладывание руки к уху (жест отключения звука). Приложения для EarPut[189], предлагаемые разработчиками, включают в себя дистанционное управление мобильными устройствами (в частности, при воспроизведении музыки) и домашней техникой (например, телевизором или источниками света), а также мобильные игры.
В дополнение к использованию наших ушей и ладоней исследователи из Массачусетского технологического института разработали так называемый проводящий макияж, применяющийся к лицу и телу с помощью приложения Beauty Technology[190] от Кати Вега, а также использование ногтя большого пальца в качестве сенсорной панели в приложении NailO[191] от Синди (Синь-Лю) Као. Kao также разработала интерфейс DuoSkin[192] для нанесения на кожу временных татуировок. Этот проект она сделала совместно с другими разработчиками: Астой Роузвей, Кристианом Хольцем, Полом Джонсом, Андресом Кальво и Крисом Шмандтом в сотрудничестве с Microsoft Research. Все эти проекты, включая EarPut и Imaginary Interfaces, все еще находятся на стадии разработки и создания прототипов; этих продуктов нет в продаже. По всей видимости, в первую очередь «спокойная» технология будет применяться в одежде, а уже затем появятся разработки, в которых человеческое тело и кожа будут использоваться как сенсорный экран.
Реагирующая одежда
Реагирующая одежда – это одежда, в которую встроены датчики, реагирующие на вашу окружающую среду, тело и движения. Созданная на основе принципов спокойной технологии, реагирующая одежда дает пользователям новые возможности и по своему действию она относится к AR-устройствам. Реагирующая одежда может помочь вам найти нужную геолокацию, стать личным фитнес-тренером и даже выражать ваши эмоции (или их отсутствие) на основе биометрических показателей. Реагирующая одежда, такая как куртка Navigate Jacket[193] и обувь No Place Like Home[194], [195], являются примерами перехода к технологии, более ориентированной на человека и находящейся в непрерывном взаимодействии с нами и нашей жизнью.
Прототип GPS-обуви от Доминика Уилкокса No Place Like Home направляет вас к выбранному месту назначения. Разработчик вдохновлялся фильмом «Волшебник из страны Оз» (1939), в котором Дороти щелкала каблуками, чтобы вернуться домой. Он создал обувь с интегрированным навигационным ПО и встроенным в подошву GPS-датчиком, для включения которого достаточно щелкнуть каблуками.
Первый шаг в подготовке обуви для вашего путешествия – это внесение в приложении Wilcox на компьютере пункта назначения. После того как вы обозначили пункт назначения на компьютере, выберите «Загрузить в обувь»; после чего координаты заданного местоположения передаются по USB-кабелю, подключенному непосредственно к обуви со стороны пятки. Отключите кабель, наденьте обувь, надавите на каблуки, чтобы активировать GPS, и начинайте идти. Подсветка мини-светодиодов покажет вам направление движения, а световой индикатор на правом ботинке подскажет, насколько вы близки к пункту назначения.
Navigate Jacket, разработанный австралийской компанией Wearable Experiments, также использует встроенную систему GPS и светодиодные индикаторы со встроенной тактильной обратной связью, направляя пользователя к месту назначения при помощи вибрации. Соучредитель этой компании Билли Уайтхаус говорит: «Мы преобразуем искусство путешествия в приложение, оставляющее руки свободными». Такая куртка позволяет пользователям находить пункт назначения без необходимости держать смартфон в руках или смотреть на карту на своем смарт-устройстве, или еще как-либо. Вместо этого направление движения отображается на рукавах. Светодиодные индикаторы указывают, через сколько метров следующий поворот, а также сколько осталось до конца маршрута. Куртка подсказывает пользователю, в какую сторону необходимо повернуться, с помощью вибрации на соответствующем повороту плече.
Легинсы для фитнеса Nadi X[196] – это последний проект от Wearable Experiments, позволяющий скорректировать фигуру с помощью йоги. Миниатюрная электроника вплетена в нейлоновый материал (никаких гаджетов или проводов при этом не видно) на уровне бедер, коленей и лодыжек пользователя. Используя сопутствующее приложение на вашем смартфоне, электронные датчики взаимодействуют друг с другом, чтобы определить положение тела, контролировать и корректировать его положение. «Это беспроводная сеть для вашего тела, – говорит[197] соучредитель компании-разработчика Бен Мойр. – В каждой части легинсов встроен специальный датчик движения, что позволяет получать информацию обо всех частях вашего тела».
По аналогии с Navigate Jacket, Nadi X использует тонкие тактильные вибрации, чтобы направлять пользователя. В приложении вы можете выбрать позы йоги, которые будете использовать, и это будет способствовать коррекции вашей формы. Когда вы начнете заниматься йогой и сядете в одну из поз, датчики начнут сканирование тела и будут передавать вам необходимую информацию о возможных ошибках. Например, если в позе воина ваше бедро развернуто слишком далеко внутрь, вибрация будет передаваться на ваше бедро с внешней стороны, как направляющие руки инструктора по йоге. Когда вы примете правильное положение, из лосин Nadi X раздастся протяжный звук «омм». «Плюс такого применения тактильной технологии – это то, что вы обрабатываете получаемую от них информацию подсознательно, – говорит Мойр. – Итак, когда вы занимаетесь йогой, вам не нужно смотреть на смартфон и отвлекать свое внимание на экран или голосовые инструкции».
Мойр и Уайтхаус видят возможность использовать эту технологию не только в йоге и планируют создать одежду для коррекции фигуры во всех видах спорта, таких как велоспорт, бокс и тяжелая атлетика. Они также предвидят день, когда ваши брюки смогут подсказать вам, когда придет время выйти из-за стола и прогуляться, или ваша рубашка может напомнить вам выпрямиться. Уайтхаус говорит: «Йога – это только наша отправная точка. Эта технология применима в различных направлениях».
Американская компания по производству одежды Levi Strauss & Co. в сотрудничестве с Группой продвинутых технологий и продуктов Google (ATAP) использовали технологию Project Jacquard[198] (проводящую пряжу, которая обеспечивает сенсорную интерактивность) для создания интерактивной одежды. С технологией Jacquard, незаметно вплетенной в ткань, куртка Levi’s Commuter x Jacquard by Google Trucker Jacket[199] (доступная в продаже с весны 2017 года в различных городах США, и в Европе и Азии с конца 2017 года.) предназначена специально для велосипедистов для перемещения по городу и возможности оставаться на связи, не доставая смартфон. Нажимая, смахивая или удерживая левую манжету рукава куртки, пользователи могут беспроводным образом получать доступ к своим смартфонам и любимым приложениям для регулировки громкости музыки, переключения треков, отключения телефонного звонка или получения голосовой информации о времени прибытия в назначенное место[200]. «Любой, кто катается на велосипеде, знает, что пользоваться смартфоном при перемещении по оживленным городским улицам непросто и это, в целом, не лучшая идея, – говорит Пол Диллинджер, глава направления глобальных инноваций в Levi Strauss & Co. – Эта куртка помогает решить эту реально существующую проблему, став вторым пилотом вашей жизни, на велосипеде и без него».
Каждый пользователь может настроить индивидуальный текстильный интерфейс с помощью прилагаемого приложения на платформе Jacquard, привязав жесты для активации выбранных функций и заблаговременно настроив главную и второстепенную функции из представленного набора. Иван Пупырев, технический руководитель группы ATAP компании Google, говорит[201]: «Мы не хотим определять, какие из функций являются самыми важными, поэтому мы предоставили категории на выбор пользователей. Носимые устройства до сегодняшнего дня умели делать только что-то одно. В нашем случае одежда делает то, что хотите вы».
Еще одним инновационным аспектом этой куртки является то, что ее шьют на существующих фабриках Levi’s, а интерактивный текстиль производится на тех же самых станках Levi’s, что и обычные ткани. Возможность интеграции технологии в сформированные цепи поставок делает возможным производство данных курток в больших объемах, а не только ограниченными сериями. Пупырев утверждает:
Компаниям, производящим технические устройства, не очень нравится, когда такого рода продукцию выпускают производители одежды, а не производители бытовой электроники. Поэтому, если мы действительно хотим сделать технологию частью каждого предмета гардероба в мире, нам следует сотрудничать с такими производителями одежды, как Levi’s, или любым другим брендом, чтобы иметь возможность производить «умную» одежду. То есть работать с готовой цепочкой поставок.
Google продолжает рассматривать возможности сотрудничества с новыми партнерами и анализирует, в частности, направление легкой атлетики, корпоративную одежду и рынок сегмента класса «люкс». Пупырев предвидит потенциал развития данной отрасли, и, по его мнению, у потребителей будет расти спрос на данную продукцию. «Если вы посмотрите на историю развития одежды, вы увидите, как в производство внедряются новые технологии и добавляют новые функции, например, однажды появились нейлон и застежки-молнии, – говорит он. – На данный момент очень вероятно, что новые технологии станут еще одним компонентом в производстве одежды и моде будущего. С ростом спроса на изделия из «умных» тканей их распространение становится практически неизбежным. Люди будут стремиться носить такую одежду в любом месте и в любое время».
Какие новые протоколы или ритуалы у нас будут, когда носимые устройства станут частью нашей повседневной жизни? Даан Рузегаарде – разработчик, изучающий этот вопрос. Рузегаарде рассматривает носимые компьютеры как продолжение человеческой механики тела, как, например, потоотделение или покраснение. Созданный им концепт платья Intimacy[202] сделан из непрозрачной «умной» электронной фольги, которая становится более прозрачной, когда люди становятся достаточно близки друг другу. Степень социального взаимодействия, влияющая на уровень прозрачности, определяется частотой сердцебиения пользователя. Например, когда вы возбуждены и ваше сердце начинает биться быстрее, одежда становится прозрачнее.
Рузегаарде говорит, как он хотел бы, чтобы одежда реагировала по-разному на то, находится рядом один человек или несколько. Он описывает это так: «Аналогично тому, как разговор с вашим парнем будет отличаться от вашего разговора со мной. Хотя оба разговора на одном языке, и мы оба мужчины, но содержание разговоров будет разным».
Он также задается вопросом, что будет, если ваша одежда начнет давать вам советы. Он приводит в качестве примера онлайн-магазин Amazon, где, когда вы покупаете книгу, вам предлагаются другие книги, которые вы, возможно, захотите приобрести, основываясь на ваших симпатиях и предпочтениях ваших друзей. Идеи Рузегаарде намекают на возможности компьютерных AR-технологий, описанных в главе 7, но в качестве вашего личного помощника может выступать не только ваш смартфон, но также повсеместно используемые технологии, встроенные в вашу одежду.
Встраивание технологии в тело
Возможно, в ближайшем будущем, когда будут существовать крошечные вычислительные устройства, встраиваемые в человеческое тело, мы будем свидетелями того, как технология станет «естественной» после того, как она станет частью нашей физиологии и будет интегрирована в наш организм. Технология станет частью нас, и мы с ней будем неразделимы и станем новым видом, который получит название «человек дополненный».
«Умную» одежду отделяет всего один шаг от встроенных под кожу наших тел технологических имплантантов. Уши служат естественным местом для применения имплантов, и это только первый шаг, не требующий нарушения целостности организма, т.к. мы уже привыкли вкладывать в наши уши такие устройства, как наушники, беспроводную Bluetooth-гарнитуру и слуховые аппараты.
Как описано в главе 4, наушники iRiver ON, оснащенные Bluetooth и биометрической сенсорной технологией PerformTek, производства компании Valencell[203], а также датчиком размером с упаковку Tic-Tac, который способен отслеживать частоту сердечных сокращений, сжигаемые калории, а также скорость и пройденное расстояние, направляя свет в ухо. Сопряженное с приложением на вашем смартфоне, данное устройство фиксирует вашу биометрию во время тренировки, передавая вам в ухо информацию о зоне сердечного ритма, в которой вы находитесь, а также была ли достигнута цель по сжиганию калорий. Данные в режиме реального времени отправляются в приложение для смартфона, что позволяет вам просматривать ваши биометрические показатели после тренировки.
Преимущество таких гаджетов для ушей в том, что они могут быть почти невидимыми, что может понравиться людям, которые не хотят, чтобы используемые ими устройства привлекали внимание. Джон Эдсон, президент консалтинговой компании Lunar, отмечает: «Нынешняя тенденция – скрыть технологию. Ухо – прекрасное место, чтобы скрыть электронику». Основатель компании-производителя носимой камеры Looxcie Ромулус Перейра утверждает: «В жизни часто требуется использование обеих рук. Очки и гаджеты, надеваемые на запястье, стали первыми примерами применения носимых технологий. Помимо них, есть потенциал к созданию большого количества других вещей». И эти другие «вещи» появятся, когда датчики и компьютеры станут еще меньше и быстрее, и станут ближе и ближе к телу, и даже будут помещены под нашу кожу.
Термином «гриндеры» называют сообщество «биохакеров», людей, которые исследуют возможности сенсорного усовершенствования и дополнения с помощью хирургических имплантатов. Ричард Ли, известный представитель гриндеров, объясняет, как этот термин был взят из видеоигр. «В играх grinding – это процесс методичного улучшения своего персонажа. После многих часов монотонной игры вы овладеете желанными навыками или предметами, – говорит он. – Мы используем этот термин, потому что он напоминает подход, которому мы следуем: постоянный, методичный труд для создания имплантантов и их совершенствования».
Ли проводит эксперименты с хирургическим имплантированием наушников, использующих магнитные колонки в ушах. Помимо прослушивания музыки, Ли говорит[204]: «Я могу представить, как я буду использовать эти наушники с GPS на своем смартфоне, чтобы ориентироваться в городе во время прогулки». Крошечный шрам на теле Ли и цепочка с катушкой, скрытая под рубашкой, почти незаметны невооруженным глазом. Ли построил катушку, чтобы надеть ее на шею, с тем, чтобы создать магнитное поле, которое заставляет имплантат вибрировать и издавать звуки.
Ли теряет зрение на правом глазу. Он планирует подключить свою новую систему к ультразвуковому дальномеру, чтобы иметь возможность слышать «звуковой сигнал, когда объекты становятся ближе или дальше», в надежде «приблизить силу своего слуха к слуху летучей мыши». «Имплантат позволит создать много новых ощущений», – говорит Ли.
Он указывает, как большинство людей обществе гриндеров начинают с магнитного имплантата в палец как своего рода обряд посвящения. «Вы вставляете специальный биологически безопасный магнит в кончик пальца, и нервы обрастают вокруг магнита. После этого каждый раз, когда ваша рука будет находиться в зоне действия магнитного поля, магнит будет вибрировать, что позволит вам чувствовать магнитные поля, – объясняет он. – Как только вы вживите имплантат с магнитом в палец, вы сможете почувствовать магнитные поля и внезапно осознаете, что существует невидимый мир, который вы можете постичь и почувствовать на самом деле». Он говорит о том, как это способствует тому, что вы начнете думать о других областях, которые нельзя почувствовать или увидеть при обычных обстоятельствах:
Как далеко ушло бы человечество, если бы мы могли видеть эти вещи, а не догадываться об их существовании? Когда вы можете что-то увидеть, у вас складываются интуитивные знания об этих областях. Таким образом, сенсорное усиление и расширение всегда были одной из тех областей, которые являются для меня очевидными, потому что, если вы увеличите множество того, что вы можете увидеть и почувствовать, это увеличит ваше представление о том, что такое реальность, и на что похож мир вокруг вас. Наверное, это было нашей целью.
Дэниел Крафт, исполнительный директор FutureMed и один из ведущих специалистов Университета сингулярности в Кремниевой долине (США), заявляет[205]: «Я предпочитаю такой угол зрения: «хакинг» становится одним из способов сделать так, чтобы инвалиды чувствовали себя людьми «с неограниченными возможностями».
Тревор Придо[206], британец, родившийся без левого предплечья, подключил специальное программное обеспечение на смартфоне к своему протезу руки: теперь он может приложить руку к уху, чтобы позвонить или ответить на звонок. В современном «медицинском дополнении» наблюдается тенденция к росту популярности, что, как считает Крафт, «сопровождается процессом уменьшения размера устройств, связанными вычислениями и большими данными». Дополняя наши тела в этих новых направлениях, становимся ли мы сверхспособными сверхлюдьми?
Кэсси Голдринг, студентка факультета журналистики и массовых коммуникаций Университета Дьюка (США), комментирует[207] технологическое развитие людей и дает следующее определение, с которым я согласна; она пишет:
Мы можем рассматривать эти технологические достижения как возможную угрозу для нашей человечности, или мы можем рассматривать их как устройства, которые помогают нам стать более человечными. До тех пор, пока мы придерживаемся приоритета гуманистического начала в эпоху технологического прогресса и признаем, что эти технологии являются продолжением нас, а не наоборот, наше человеческое начало всегда будет преобладать.
Ориентированность на человека лежит в основе этой второй волны AR, которая будет включать в себя интеграцию устройств, расширяющих наши природные способности. Голдринг лаконично излагает актуальные вопросы и перспективы этого явления: «Мы должны рассматривать такие устройства, как Google Glass, не как отчаянную попытку стать сверхчеловеком, но как стремление наилучшим образом развить наш потенциал как людей и в конечном итоге научиться лучше понимать друг друга».
Создайте свою реальность
Нейро-компьютерный интерфейс (НКИ) – это аппаратная и программная система, которая позволяет вам управлять компьютером, используя ваш мозг, и предоставляет новый способ подключения и взаимодействия с окружающим миром. В своей лекции[208] на портале TED в 2010 году Тан Лэ, основатель и генеральный директор Emotiv[209], компании-производителя электроники, которая разрабатывает носимые устройства НКИ, говорит:
Мы стремимся внедрить эту совершенно новую сферу взаимодействий «человек-компьютер», чтобы компьютеры не только могли понимать, что вы намереваетесь сделать, но также могли бы реагировать на ваше выражения лица и эмоциональные переживания. И лучший способ сделать это – научиться интерпретировать сигналы, естественным образом создаваемые нашим мозгом, нашим центром управления и познания.
Во время своего чтения лекции на TED Лэ продемонстрировал примеры разработок Emotiv, изменяющих нашу жизнь, таких как, например, электрическое кресло-коляска, управляемое с помощью мыслей.
НКИ может исполнять роль мыши и клавиатуры, позволяя вам нажимать значки, прокручивать меню и даже вводить текст, используя только ваш мозг. НКИ уже широко используются в медицинских устройствах, но с популяризацией носимых технологий массовое использование НКИ может быть не такой далекой перспективой, как кажется. Компании, являющиеся пионерами в разработках такого рода, такие как Emotiv и Interaxon, выпустили на рынок недорогие гарнитуры на базе НКИ, которые используют электроэнцефалографические (ЭЭГ) датчики для улучшения внимательности, чтобы развить ваши навыки медитации или повысить концентрацию во время работы.
Ариэль Гартен, соучредитель Interaxon, отмечает[210]: «Наша первоначальная идея заключалась в следующем: как контролировать мир с помощью своего разума? – говорит он, – Теперь для нас наиболее важно, чтобы мир понимал нас и адаптировался к нашим потребностям. Речь идет о том, чтобы помочь людям лучше делать то, что они хотят делать».
Майкл Томпсон, вице-президент по развитию бизнеса в Neurable, полагает, что НКИ радикально изменит наши отношения с персональными технологиями, создав компьютеры, которыми можно управлять напрямую с помощью мозга:
Мы стремимся создать мир, в котором не будет ограничений. Для инвалидов, которые являются традиционными пользователями технологии НКИ, это, в буквальном смысле, означает доступ к технологиям и бесценным преимуществам человечества наравне со всеми остальными. Для человечества в целом нас волнует революция в воображении и творчестве, которые даст нам эта технология.