Эпоха надзорного капитализма. Битва за человеческое будущее на новых рубежах власти Зубофф Шошана

Google будет знать, когда мой рейс, пришла ли уже посылка и где моя жена и сколько времени ей понадобится, чтобы добраться до дома сегодня вечером… Конечно, Google знает все эти вещи[688].

Прогнозирующие возможности Google Now следуют шаблону, который мы неоднократно видели: они основаны на машинных процессах, обученных на непрерывных потоках виртуального и реального поведения. Почему Google выделил столько машинных мощностей и ценных излишков, чтобы так заботливо помогать вам в течение дня? Причина в том, что в лице Google Now к нам пришло новое поколение прогнозных продуктов.

Революционный сканер Google сделал возможной молниеносную индексацию всемирной паутины, повсеместный «аппарат» сделал возможными новые операции по сканированию реальности, и теперь, на этом третьем этапе, требуются особые операции обеспечения поставок, чтобы сканировать наши жизни. В Google Now можно увидеть первую вылазку в это новое пространство, в ходе которой способность веб-сканера находить информацию сочетается с новыми операциями по сканированию жизни, цель которых – оцифровать, предугадать и, как мы увидим, в конечном итоге изменить ваше поведение. Поведенческий излишек, собранный онлайн и офлайн, – содержимое электронной почты, где вы были днем, что сказали, что сделали, как себя чувствовали, – объединяется в прогнозные продукты, пригодные для нового рынка, где на продажу выставлены все стороны вашей повседневной реальности.

Еще один пример этого нового этапа – «M» от Facebook, запущенный в 2015 году как часть приложения Messenger. Он был представлен как «персональный цифовой помощник <…> который выполняет задачи и находит за вас информацию <…> основанный на искусственном интеллекте, обученном и контролируемом людьми»[689]. Вице-президент Facebook, отвечающий за приложения обмена сообщениями, так охарактеризовал назначение M: «Мы начинаем улавливать все ваши намерения, исходя из того, что вам необходимо сделать. Намерения часто приводят к покупке чего-либо или к сделке, и с течением времени это даст нам возможность [зарабатывать деньги]». Самое главное, подчеркнул вице-президент, это то, что «М учится на человеческом поведении»[690]. Машины корпорации будут обучаться на излишках, полученных от 700 миллионов ежедневных пользователей Messenger. Со временем, надеялись в Facebook, деятельность М будет полностью автоматизирована и не потребует людей-инструкторов.

К 2017 году Facebook умерил свои амбиции в области искусственного интеллекта и сосредоточил усилия личного помощника на его основной задаче: коммерции. «Команда, занятая помощником, сейчас ищет способы активировать коммерческие намерения пользователя внутри Messenger», – сообщал один из руководителей Facebook[691]. Идея в том, чтобы «отдать приоритет коммерческой составляющей пользовательского опыта» и разработать для пользователей новые способы «быстрой покупки» без обременительного ввода информации о кредитной карте, листания страниц или запуска приложений. Каждый раз, когда во время вашего разговора с друзьями система выявляет возможное «коммерческое намерение», появляется всплывающая кнопка. Чтобы что-то заказать, купить или забронировать, просто нажмите на нее – и система сама сделает все остальное[692].

Тем самым «персональный цифровой помощник» раскрывается как инкарнация рынка, как еще один троянский конь, в котором решимость оцифровать и монетизировать вашу жизнь преподносится как «помощь» и расцвечивается поэзией «персонализации». Его дружеские рекомендации, советы и готовность действовать от вашего имени едва скрывают новый агрессивный рыночный космос, нависающий над каждым аспектом вашей повседневной жизни. Он может состоять из ресторанов, банков, сантехников, торговцев, продавцов билетов, авиакомпаний и бесконечной очереди всевозможных незнакомцев, которых приведет к вам их интерес к вашему поведению: прямо сейчас, в ближайшем или более отдаленном будущем. Они стоят наготове, чтобы успеть заработать на вашем пути на работу, вашем разговоре с ребенком-подростком или ваших стареньких кроссовках. Цифровой помощник может перенять ваши склонности и предпочтения, но это будет другое существо, в неизвестной степени искаженное и изуродованное невидимыми рыночными методами и конкуренцией, которые оно призвано скрыть.

Google присоединился к другим технологическим компаниям, решившим утвердить «разговор» в качестве главного средства, с помощью которого люди взаимодействуют с «аппаратом». Со временем одержимость голосом может отойти на второй план или к ней добавится что-то другое, так что простая мысль или движение пальца будет переводиться в действие или инициировать его. Но на данный момент есть веские причины для гонки за произнесенным словом. Первая из них очевидна: надежное распознавание голоса может трансформировать обширный ландшафт взаимодействий с сервисами в недорогой автоматизированный процесс теоретически неограниченного масштаба и охвата – факт, давно известный тем, кто занимается экономикой труда[693]. Конкурентную гонку между представителями нового поколения «персональных цифровых помощников» лучше всего понимать именно под этим углом. Голос, который выйдет в ней победителем, Единый Голос, станет самым колоссальным каналом поставок поведенческого излишка, дающим потенциально непреодолимое конкурентное преимущество в своей способности завлечь и прибрать к рукам львиную долю человеческого опыта.

«Разговор» уникален в своем обещании доминирования в поставках сырья, и обладателя Единого Голоса ждет астрономическая награда. Неформальный диалог помогает стереть грань между «этим» – «аппаратом», насыщенным коммерческими агентами – и нами. Разговор предполагает дружественность. Чем больше мы представляем себе аппарат в качестве нашего доверенного лица, няни, гувернантки и системы поддержки – бестелесной, всепроникающей личной «миссис Даутфайер», – тем больше опыта мы позволяем ему оцифровать и тем богаче становятся его операции по обеспечению поставок. Общение – первая из человеческих радостей, и голосовой интерфейс ценится за легкость, с которой простое высказывание может вызвать действие, особенно рыночное: «Да будет свет». «Да будут новые кроссовки». Что может больше напоминать волшебный сон, чем ты сказал – и так оно и стало? Старший вице-президент Amazon комментирует управляемые голосом домашние устройства компании:

Приятная вещь в бизнесе устройств Amazon состоит в том, что, когда мы продаем устройство, люди в целом начинают покупать больше синих джинсов. И маленьких черных платьев. И обуви. Так что это хорошо.

«Голосовой шопинг», заключает он, хорош для бизнеса и хорош для прогнозирования бизнеса[694].

В «разговоре», обращенном к цифровому устройству, в отличие от разговора в магазине, слова могут возникать на лету, с большей легкостью и меньшим усилием; там меньше сдержанности, раздражения и сравнений; меньше беспокойства о состоянии своего банковского счета или о том, откуда поставляется продукт или услуга; меньше сомнений и колебаний; меньше воспоминаний и сожалений. Говорящий чувствует себя в центре плавно текущей вселенной. Все швы спрятаны за кулисами, где машины сталкиваются и преодолевают упрямые источники трения, такие как отдельные приложения и объекты; непокорные административные службы, системы дистрибуции, платежей и доставки; препятствия и границы, которые угрожают потокам желания и удовлетворения. Спонтанное и текучее, всеохватное журчание ваших «разговоров» превращает нового личного цифрового помощника в голос, который располагается между вашей жизнью и новыми рынками, где она продается, между вашим опытом и аукционами, где делают на него ставки – «среда выполнения, новый интерфейс», создающие ощущение вашего всемогущества, хотя на самом деле вы лишаетесь последних его следов.

В этом коммерческом сновидении слова, которые когда-то воспринимались как сказанные «за закрытыми дверями», с готовностью оцифровываются в качестве поведенческого излишка. Эти новые операции снабжения преобразуют ваш разговор в излишек двумя способами. Первый строится на том, что вы говорите, второй – как вы это говорите. Устройства «умного дома», такие как Amazon Echo или Google Home, оцифровывают целые реки случайных разговоров, тонкий контент-анализ которых выдает затем улучшенные прогнозы, «предугадывающие» ваши нужды. На конференции разработчиков в 2016 году Google представил публике диалоговую реинкарнацию Google Now, переименованного теперь в «Ассистента» и интегрированного во все устройства, сервисы, инструменты и приложения компании. «Мы хотим, чтобы пользователи вели постоянный двусторонний диалог с Google. Мы хотим помогать вам в ваших делах в реальном мире, и мы хотим делать их за вас, – пояснил генеральный директор Google Сундар Пичаи. – Скажем, вы стоите перед тем сооружением в Чикаго и спрашиваете Google: „Кто это придумал?“ Вам не нужно говорить „Фасолинка“ или „Клауд-Гейт“. Мы понимаем контекст и отвечаем, что скульптуру создал Аниш Капур»[695].

Google-ассистент пришел уже интегрированным в новый мессенджер Google под названием Allo, где он может искать информацию, выполнять задачи или даже составлять от вашего имени простые сообщения. Самое главное, Ассистент оживляет домашнее устройство фирмы, Google Home[696]. Идея в том, что со временем устройство (или его преемник) сможет претендовать на оцифровку теоретически безграничных объемов одушевленных и неодушевленных домашних процессов: разговоры, лампочки, запросы, режим дня, движение, планирование поездки, системы отопления, покупки, безопасность дома, медицинские проблемы, музыку, связь с другими людьми и многое другое.

Было время, когда вы искали в Google, но теперь Google обыскивает вас. В рекламе Google Home фигурируют любящие семьи, которые ведут занятую, сложную жизнь, но с видимым облегчением возвращаются домой и падают в объятия этого всезнающего, эффективного смотрителя. Эта сбывшаяся мечта второго модерна требует необычайно высокую плату за обещание более полноценной жизни. Чтобы каждый пользователь мог, как хочет Пичаи, иметь свой собственный личный Google, Google должен иметь каждого пользователя[697].

Способность смотрителя эффективно вам служить полностью зависит от того, в какой степени ваша жизнь, знаете вы об этом или нет, оцифрована ради его служения. Ширина и глубина оцифрованной жизни соответствуют масштабу рыночных действий, которые могут быть инициированы и опосредованы Ассистентом. Между различными инкарнациями «персонализации» и «помощи», предлагаемыми техническими гигантами, существуют определенные различия, но они тривиальны по сравнению с коллективным стремлением к тотальному знанию – знанию о ваших внутренних состояниях, контексте реального мира и конкретных повседневных жизненных действиях – и все это ради успешного обучения машин, чтобы они могли лучше нацеливать рыночные операции на каждый момент вашей жизни.

Все потенциальные действия рынка, связанные с тем, что вы говорите, зависят от голосовой активации, распознавания голоса и голосового ответа. Все это, в свою очередь, – продукт сложнейших машинных систем, обученных на безграничных глобальных запасах произнесенных слов. Чем лучше эти машины структурируют разговорный излишек, тем больше продаж обеспечивает его контент. Это значит, что всю ценность того, что вы говорите, нельзя реализовать без машин, которые смогут извлекать информацию из того, как вы это говорите. Эта форма излишка основана на структуре вашей речи – словарном запасе, произношении, интонации, модуляциях, темпе, диалекте.

Соперничество за поставки слов превращает ваши фразы в эту вторую форму излишка, по мере того как компании, настроенные на развитие и совершенствование голосовых возможностей, прочесывают весь мир в поисках человеческой речи. «Amazon, Apple, Microsoft и китайский Baidu открыли всемирную охоту за терабайтами человеческой речи, – сообщает издание Bloomberg Businessweek. – Microsoft построил в городах всего мира демонстрационные „квартиры“ для записи голосов добровольцев в домашней обстановке». Технологические компании фиксируют потоки разговоров со своих умных интеллектуальных устройств и смартфонов, записывая и сохраняя ваши слова. Китайская поисковая фирма Baidu собирает речь на каждом диалекте: «Затем они берут все эти данные и обучают на них свои компьютеры понимать слова и отвечать на команды и запросы»[698].

Записи ваших разговоров регулярно и массово рассылаются сторонним фирмам, которые проводят «аудиосверку», в процессе которой виртуальным оценщикам поручается оценить степень соответствия между машинным текстом и исходным фрагментом человеческой речи, прослушивая аудиозаписи, сохраненные со смартфонов, приложений-мессенджеров и цифровых помощников. Такие компании, как Amazon, Google и Microsoft, используют этот аудиоанализ для совершенствования алгоритмов своих голосовых систем. Технологические компании настаивают, что такие записи полностью анонимны и представляют собой не более чем безымянные голоса. «У партнеров нет возможности связать образцы голоса с конкретными людьми», – заявил представитель Microsoft. Но одна журналистка, которая нанялась на работу в качестве виртуального оценщика аудиозаписей, пришла к совершенно противоположному выводу, слушая записи, полные страсти, интимных деталей и легко идентифицируемой личной информации:

В самих записях пользователи охотно выдают личную информацию – информацию, которая особенно ценна в процессе оценки, поскольку она настолько специфична. Необычные имена, города и поселки с труднопроизносимыми названиями, гиперлокальные особенности <…> Я слышала, как люди называют свои полные имена, чтобы инициировать звонок или предлагают информацию, выдающую местонахождение, назначая встречу с врачом <…> на этих записях люди говорят вещи, которые они не хотели бы, чтобы кто-то когда-то услышал, анонимно или нет <…> И ничто особенно не удерживает людей, которые слушают эти записи, от того чтобы поделиться ими с кем-то еще[699].

На распознавание речи направляются также немалые капиталовложения, и Smart TV от Samsung иллюстрирует некоторые из этих закулисных процессов. Бизнес-аналитики регулярно предсказывают устойчивый рост рынка устройств с интернет-подключением, и Samsung входит в небольшую группу лидеров этого рынка. Его устройства используют платформу операционной системы Android, и еще на ранних этапах фирма создала альянсы с Nest (дочерней компанией Alphabet/Google) и с Cisco. «Наша первоочередная миссия – добавить в вашу сетевую жизнь ваш дом», – объяснял в 2014 году один из высших руководителей фирмы[700]. В 2015 году защитники конфиденциальности обнаружили, что умные телевизоры корпорации даже слишком умны и записывают все сказанное в непосредственной близости от них – дай, пожалуйста, соль; у нас кончился стиральный порошок; я беременна; давайте купим новую машину; мы собираемся в кино; у меня редкая болезнь; она хочет развода; ему нужна новая коробка для завтрака; ты меня любишь? – и отправляют все эти разговоры для транскрибирования другому лидеру рынка систем в области распознавания голоса, компании Nuance Communications[701].

«Политика надзора» этого телевизора – да-да, даже к телевизору сегодня прилагается политика надзора – раскрывает несколько уровней надзора и коммерческого интереса, действующих неведомо для нас в наших домах. Samsung признает, что голосовые команды, предназначенные для запуска функций распознавания голоса на телевизоре, отправляются третьей стороне, и добавляет: «Пожалуйста, имейте в виду, что, если произнесенные вами слова содержат личную или другую конфиденциальную информацию, то эта информация окажется среди данных, записанных и переданных третьей стороне при использовании Распознавания голоса»[702]. Samsung отказывается от ответственности за политику сторонних фирм, как это делают почти все «политики надзора», включая политику той фирмы, которая фактически собирает и переводит разговоры своих ничего не подозревающих клиентов. Samsung рекомендует: «Вам следует проявлять осторожность и просматривать заявления о конфиденциальности, относящиеся к сторонним веб-сайтам и услугам, которыми вы пользуетесь»[703]. Отважный потребитель, решившийся изучить эти документы, не найдет никакой подмоги в политике конфиденциальности Nuance, только тот же самый катехизис, который предлагает Samsung и почти любая другая компания. Samsung также побуждает вас ознакомиться с политикой конфиденциальности тех компаний, которым он продает ваши разговоры, и так далее: принудительный марш, ведущий к безумию или к капитуляции[704].

По крайней мере в Калифорнии законодатели приняли закон, запрещающий подключенным к интернету телевизорам собирать голосовые данные без соответствующей «информации на видном месте», а также запрещающий использование таких данных для сторонней рекламы[705]. Однако, как мы знаем из нашего исследования цикла изъятия, экономические императивы, побуждающие надзорных капиталистов собирать поведенческий излишек, остановить не так-то легко. К 2016 году Samsung с новым усердием продолжил развивать тайную оцифровку и сеть каналов поставок поведенческого излишка на основе Smart-TV, позиционируя свои новые модели в качестве центра новой «экосистемы умного дома Samsung Smart Things на открытой платформе, поддерживающей тысячи устройств», включая вентиляторы, светильники, термостаты, камеры видеонаблюдения и замки, – и все это с помощью одного универсального пульта дистанционного управления, способного понять любую вашу устную команду[706].

В 2017 году Федеральная торговая комиссия достигла урегулирования на сумму 2,2 миллиона долларов по иску, возбужденному Управлением генерального прокурора Нью-Джерси в отношении компании Vizio, одного из крупнейших в мире производителей и дистрибьюторов умных телевизоров с поддержкой интернета. По всей видимости, Vizio ведет даже более агрессивные операции по поставкам излишка, чем Samsung. Следователи установили, что «каждую секунду Vizio берет часть пикселей на экране и сопоставляет с базой данных телевидения, фильмов и коммерческого контента». Затем компания собирала дополнительные данные о просмотре, исходя из «провайдера кабельного телевидения или широкополосной связи, телевизионной приставки, устройства потокового вещания, DVD-плеера и эфирной передачи». Все это давало в сумме до 100 миллиардов наблюдений в день только с 11 миллионов телевизоров, указанных в документе[707]. Vizio маскировал свои операции по обеспечению поставок поведенческого излишка за настройкой под названием «Интеллектуальная интерактивность», которая характеризовалась для потребителей как опция, «позволяющая предлагать и рекомендовать передачи» без какого-либо указания на ее действительные функции.

В необычно живом сообщении в своем блоге Федеральная торговая комиссия так описывает прямые продажи Vizio этого поведенческого излишка:

Vizio затем превращал эту гору данных в наличные, продавая пользовательские истории просмотра рекламодателям и другим организациям. И давайте скажем ясно: мы не говорим о сводной информации о тенденциях просмотра в стране. Согласно жалобе Vizio перешел на личности. Компания предоставляла IP-адреса потребителей агрегаторам данных, которые затем сопоставили адрес с конкретным потребителем или домохозяйством. Соглашения Vizio с третьими сторонами запрещали повторную идентификацию потребителей и домохозяйств по имени, но допускали множество других личных данных – например, пол, возраст, доход, семейное положение, размер домохозяйства, образование и домовладение. И Vizio позволял этим компаниям отслеживать своих потребителей на разных устройствах и нацеливать на них рекламу[708].

В одновременно сделанном заявлении исполняющая обязанности председателя ФТК Морин К. Олхаузен подчеркивает, что урегулирование вышло на новый рубеж, поскольку в нем утверждалось, что «индивидуальная история просмотра телевизионных программ подпадает под определение конфиденциальной информации», которая заслуживает защиты со стороны ФТК[709]. Такая мера не сможет остановить лавину других подобных вторжений, поскольку императив прогнозирования устроил настоящую охоту на еще не известные разговоры из повседневной жизни. Оцифровка захватила даже самые невинные источники излишка, такие как игрушки, которые стали теперь «игрушками-шпионами». Интерактивные куклы и игрушечные роботы нового поколения, включая куклу по имени «Моя подруга Кайла», оказываются центрами снабжения детским поведенческим излишком, подвергая маленьких детей и смартфоны их родителей «постоянному надзору <…> без каких-либо значимых мер по защите данных»[710].

Популярные игрушки, продаваемые компанией Genesis Toys, привязаны к мобильному приложению, которое после установки на смартфон «обеспечивает обработку данных», позволяя игрушке записывать и понимать все, что говорит ребенок[711]. По ходу дела приложение получает доступ к большинству функций телефона, включая такие, которые не имеют отношения к работе игрушки, вроде списка контактов и камеры. Приложение через Bluetooth связывает игрушку с интернетом и записывает и выгружает речь, по мере того как игрушка активно вовлекает ребенка в разговор. Одна кукла, о которой шла речь в жалобе, систематически побуждает детей предоставлять личные данные, в том числе информацию о том, где они живут.

Разговоры ребенка переводятся в текст с помощью стороннего программного обеспечения для распознавания голоса, снова от Nuance Communications, и эта информация используется для получения ответов на вопросы ребенка с помощью Поиска Google и других веб-источников. Исследователи обнаружили, что аудиофайлы с детской речью (Nuance называет их «диалоговыми блоками») загружаются на серверы компании, где они анализируются и хранятся[712]. Как и следовало ожидать, эти диалоговые блоки продолжают жизненный путь уже в виде поведенческого излишка, примерно так же, как звуки, записанные телевизорами Samsung, продаваясь вновь и вновь поставщикам «других услуг и продуктов», как и указано в соглашении об условиях предоставления услуг Genesis.

Тем временем идет в наступление одна из крупнейших в мире компаний по производству игрушек, Mattel, со своими инновациями по части интерактивных, подключенных к интернету и управляемых машинным интеллектом игрушек, во главе с новой умеющей вести диалог куклой Барби и ее Домом мечты[713]. Умный, управляемый голосом кукольный домик знает более сотни команд, таких как «опустить лифт» и «включить диско-шар» – новый способ вызывать привыкание, нацеленный на нормализацию «повсеместности» в домашнем пространстве. «Новый умный дом Барби разложил все по полочкам, – ликовал журнал Wired. – Идеальная детская кроватка Барби управляется голосом <…> Вот каким должен быть настоящий умный дом: все великолепно работает с помощью универсального голосового управления вместо мешанины разнородных приложений, съедающих место на вашем телефоне <…> Будущее подано»[714].

В этом будущем дети знакомятся с Единым Голосом – средой выполнения, новым интерфейсом. Он доступен везде, чтобы выполнять их команды, предугадывать их желания и формировать их возможности. Вездесущность Единого Голоса с его капризным и нетерпеливым «вашим личным торговым центром», скрытым под его оболочкой, многое меняет. Интимность, какой мы ее себе представляли, нарушена, если не устранена совсем. Уединение удалено в корзину. Сначала дети узнают, что между «я» и рынком нет никаких границ. Позже они будут удивляться, как могло быть иначе.

Когда в январе 2017 года в Mattel наняли нового генерального директора, неудивительно, что он оказался выходцем из Google, который раньше отвечал за коммерческие и рекламные операции Google по Северной и Южной Америке[715]. Большинство аналитиков сошлись на том, что это назначение ознаменовало приверженность Mattel ее инновациям в области интернет-игрушек и виртуальной реальности, но назначение лучше позволяет смену приоритетов: компания теперь занимается не созданием замечательных продуктов для вас, а сбором замечательных данных о вас.

Кукла, которая когда-то была любимым зеркалом безграничного детского воображения, вместе со всеми другими игрушками в ящике для игрушек – а также сам ящик, и комната, в которой находится ящик, и дом, в котором находится комната, – все стоит в очереди на оцифровку, расчет, подключение к интернету и получение прибыли. Уже не просто вещи, теперь это носители миллиона коммерческих возможностей, штампуемых из блоков наших диалогов и разнородного золотого песка.

В 2017 году немецкое Федеральное агентство по сетям запретило использование куклы Кайлы, признав ее незаконным устройством для слежки, и призвало родителей уничтожить любые такие куклы, которые у них имеются. В США Федеральной торговой комиссии еще только предстоит предпринять какие-либо действия против этой куклы или Genesis Toys. Между тем «подключенный» кукольный домик готовит наших детей и наши семьи к «подключенной» комнате (об этом проекте Mattel объявила в январе 2017 года, но девять месяцев спустя, когда родители и защитники конфиденциальности подняли шум, положила его на полку), что открывает путь к «подключенному» дому, производители которого надеются притупить наши чувства по отношению к «подключенному» миру, пока мы идем по пути к предопределенной «повсеместности» и обещанным ею надзорным доходам[716].

В погоне за что и как голосового излишка логика конкуренции состоит в том, чтобы заманивать к себе как можно большее его количество. Этот позыв к тотальности создает конкурентное давление, требующее от каждого стать той самой «средой выполнения» и тем самым «новым интерфейсом» – доминирующей, если не единственной, средой, через которую мы получаем доступ к «аппарату» и задействуем его, в то время как он задействует нас. Это гонка за то, чтобы прибрать к рукам все «разговоры» как необходимое условие достижения привилегированного статуса Единого Голоса, который наделяет победителя способностью предвидеть и монетизировать каждый момент жизни каждого человека в течение каждого дня.

Мессианское устремление к тотальности и превосходству проявляется в риторике и стратегиях ключевых участников этой гонки. Хотя и Google, и Microsoft, и Amazon, и Samsung претендуют на доминирование в захвате голоса, самый показательный пример – это Amazon, его машинный ассистент Alexa и его растущая линейка узлов Echo и колонок Dot. Похоже, что Alexa стала пороговым событием, которое определит Amazon не только в качестве агрессивного капиталиста, но и в качестве надзорного капиталиста[717].

Amazon агрессивно открывал Alexa для сторонних разработчиков, чтобы расширить спектр «навыков» помощника, таких как чтение рецептов или заказ пиццы. Он также открыл свою платформу для производителей устройств умного дома, от систем освещения до посудомоечных машин, превратив Alexa в единый голос для управления вашими домашними системами и приборами. В 2015 году Amazon объявил, что Alexa будет продаваться как услуга под названием Amazon Lex, позволяющая любой компании интегрировать мозг Alexa в свои продукты. Amazon Lex описывается как «услуга встраивания диалоговых интерфейсов в любое приложение, использующее голос и текст <…> Lex позволяет вам создавать совершенно новые категории продуктов»[718]. Как объяснил старший вице-президент по Alexa, «Наша цель – попытаться создать своего рода открытую нейтральную экосистему для Alexa <…> и сделать ее настолько распространенной, насколько возможно»[719].

К 2018 году Amazon заключил сделки со строительными компаниями, встраивая свои колонки Dot непосредственно в потолки по всему дому, а также устройства Echo и сопряженные с Alexa дверные замки, выключатели, системы безопасности, дверные звонки и термостаты. Как говорится в одном отчете, «Amazon может получать более полные данные о жизненных привычках людей…» Компания хочет продавать услуги в реальном мире, такие как уборка дома, ремонт сантехники и доставка пищи, но, по мнению некоторых инсайдеров, эти замыслы простираются еще дальше: всеведущий голос, который знает все, что с вами было и предвидит все ваши действия[720]. Патенты Amazon с прицелом на будущее уже включают разработку «алгоритма голосового анализатора», встраиваемого в любое устройство и способного реагировать на такие ключевые слова, как «купить», «не нравится» или «люблю», предлагая продукты и услуги[721].

Amazon вышел на охоту за поведенческим излишком[722]. Это объясняет, почему компания присоединилась к Apple и Google в соперничестве за приборную панель вашего автомобиля, заключив альянсы с Ford и BMW. «Покупки за рулем» означают, что рынки поведенческих фьючерсов разместятся на вашем переднем сиденье. Alexa поджидает наготове с рекомендацией ресторана или советом о том, где проверить ваши шины. Слова о «настолько распространенной, насколько возможно» объясняют, почему Amazon хочет, чтобы устройство Echo/Alexa также функционировало в качестве домашнего телефона, способного совершать и принимать звонки; почему компания подписала соглашение об установке Echo в почти 5000 комнатах отеля Wynn в Лас-Вегасе; и почему она продает Alexa колл-центрам для автоматизации процесса ответа на вопросы клиентов в прямом эфире по телефону и текстовыми сообщениями[723]. Каждое расширение территории Alexa увеличивает объем голосового излишка, который поступает на серверы Amazon и отправляется Alexa.

Путь к коронации Единого Голоса нелегок, и есть другие ходоки, решившие пробиться к финишной черте. Google тоже хочет, чтобы его «личный помощник» Google Home подвизался в качестве вашего домашнего телефона. Другой претендент – Samsung, который приобрел Viv, новую мощную голосовую систему, созданную первоначальными разработчиками личного помощника Apple Siri, разочарованными ограниченным подходом Apple. Ведущий разработчик Viv объяснил, что «вы можете сделать ту или иную вещь, просто сказав об этом устройству <…> рынок, который станет следующим большим полем…»[724]

Если жизнь – это дикая лошадь, то цифровой помощник – еще одно средство, с помощью которого оцифровка может эту лошадь объездить. Непослушную жизнь можно приструнить, оцифровать в виде поведенческих данных и переосмыслить как территорию для просмотра, поиска, изучения и изменения. Подобно тому как надзорный капитализм превратил всемирную паутину в пространство рыночного натиска, питаемого захватом и анализом поведенческого излишка, повседневной жизни суждено стать всего лишь полотном для взрывного роста нового постоянно действующего, построенного на нашем поведении рыночного космоса, от которого нет спасения.

II. Оцифровка личности

«Мы привыкли к общению лицом к лицу, когда слова растворяются в воздухе <…> Я предполагал, что клавиатурное общение будет похоже на письмо или телефонный звонок, но теперь я понимаю, что оно не растворяется. То, что электронное общение невидимо – миф…»[725] Это был блестящий ученый-исследователь в крупной фармацевтической компании, которую в своей книге 1988 года «Эпоха умных машин» я назвала «Корпорация Лекарство» (Drug Corp)[726]. Я тогда провела несколько лет, посещая их исследовательскую группу, и они как раз переводили большую часть своего повседневного общения с личных встреч на DIALOG, одну из первых в мире систем «компьютерных конференций». DIALOG был предшественником технологии, которую мы теперь называем социальной сетью. Платформа DIALOG создала новое социальное пространство, в котором научное сообщество Корпорации Лекарство расширяло и совершенствовало «сети своих отношений, доступа к информации, вдумчивого диалога и простой болтовни», как я описывала это тогда. Они встретили DIALOG с большим энтузиазмом, но закончилось все печально. «Со временем, – писала я, – стало ясно, что они также невольно поставили все то мимолетное и неощутимое, что было в их социальном обмене, под беспрецедентный контроль сверху». По интервью, которые охватывают те годы, можно документально проследить постепенное осознание учеными новых опасностей по мере того, как те стороны личного опыта, которые были прежде неявными и приватными, внезапно становились явными и публичными, чего они не ожидали и что имело последствия, о которых они глубоко пожалели.

Благодаря новой компьютерной среде профессиональные разговоры и дружеское общение ученых теперь стали электронным текстом – видимым, доступным для изучения и отправки другим. Во многих отношениях это помогало в работе, но это также создало неожиданные уязвимости, поскольку склонности, ценности, отношения и социальные взаимодействия превратились в объекты проверки. В ходе серии конфликтов, которые разворачивались на протяжении этих лет, я наблюдала, как менеджеры и руководители Корпорации Лекарство просто не могли удержаться от того, чтобы не использовать новый социальный текст в качестве средства оценки, критики и наказания. Не раз я наблюдала за тем, как менеджеры распечатывали страницы разговоров из DIALOG, чтобы разложить их на полу и проанализировать мнения по конкретному вопросу, иногда даже доставая ножницы и сортируя записи по темам или персоналиям. Во многих случаях эти расследования были просто сбором информации, но нередко менеджеры хотели идентифицировать людей, согласных или не согласных с их распоряжениями.

Неустранимое свидетельство текста было адаптировано в качестве средства, с помощью которого менеджеры пытались «контролировать и направлять то, что всегда было наиболее эфемерными аспектами поведения подчиненных»[727]. Весь первоначальный энтузиазм и все надежды растворились в цинизме и тревоге, и ученые постепенно стали уходить с DIALOG, предпочитая ему обычное почтовое приложение и более формальные, безличные сообщения.

Спустя десятилетия дети и внуки этих ученых наряду с большинством из нас свободно общаются через смартфоны и социальные сети, не понимая, что нам предстоит вновь выучить горькие уроки Корпорации Лекарство, но теперь на совершенно новом витке оцифровки. Ученые были потрясены, увидев свои случайные разговоры в овеществленном виде, превращенные в объект иерархической проверки. Сегодня уже наша внутренняя жизнь – упрощенно обозначаемая как «индивидуальность» или «эмоции» – превращаются в сырье, доступное каждому, кто может изготовить или купить новое поколение аксессуаров для поставок излишка и средства производства, чтобы анализировать этот новый род поведенческого излишка и фабриковать крайне прибыльные прогнозные продукты.

«Персонализация» – это снова тот эвфемизм, который прокладывает путь поколению прогнозных продуктов, фабрикуемых из сырья психологии личности. Эти нововведения продолжают логику более ранних витков цикла изъятия – от просмотра страниц в интернете через просмотр реальности – к просмотру личности. Как было и на предыдущих витках, идеи и методы, которые когда-то должны были помогать и обогащать, быстро исчезают в магнитном поле проекта коммерческого надзора, чтобы потом вновь возникнуть в качестве все более хитроумных способов поставки, производства и продаж.

Два с лишним миллиарда пользователей Facebook – это и есть потомки ученых из Корпорации Лекарство. Многие из них пришли в Facebook, чтобы избежать всепроникающего иерархического контроля над коммуникациями на рабочем месте, который стал обычным явлением в годы, прошедшие после первых экспериментов Корпорации Лекарство. Facebook, как они когда-то думали, был «их местом», столь же невинным и само собой разумеющимся, как старая добрая «Мамаша Белл»[728] необходимым местом сбора, общения и участия. Вместо этого Facebook стал одним из самых влиятельных и опасных источников прогнозного поведенческого излишка из глубин личности. С приходом нового поколения исследовательских инструментов он научился грабить ваше «я» вплоть до его самой интимной сердцевины. Новые операции по снабжению могут оцифровать в виде измеримого поведения все, от нюансов вашей личности до вашего чувства времени, сексуальной ориентации, интеллекта и десятков других психологических характеристик. Огромные мощности машинного интеллекта, которыми располагает корпорация, превращают эти данные в яркие прогнозные продукты.

Почва для осознания того, с какой легкостью можно обобрать ваш профиль в Facebook, начала готовиться в 2010 году, когда коллектив немецких и американских ученых пришел к неожиданному выводу, что профили Facebook – вовсе не идеализированные автопортреты пользователей, как многие думали. Вместо этого они обнаружили, что информация на Facebook отражает реальные черты личности пользователя, которые можно выявить с помощью проверенной процедуры «пятифакторной модели личности» и которые можно сопоставить с тем, как сами участники исследования описывали свое «идеальное Я»[729].

Как мы увидим в главе 16, есть убедительные данные, позволяющие предположить, что уникальная динамика среды Facebook в конечном итоге усложняет эту картину «реальной личности», но в 2011 году эти первые результаты побудили трех исследователей из Университета Мэриленда сделать следующий логический шаг. Они разработали метод, который, опираясь на сложную аналитику и машинный интеллект, способен точно установить личность пользователя, исходя из общедоступной информации в его или ее профиле Facebook[730].

В ходе этого исследования команда сполна оценила магию поведенческого излишка, обнаружив, к примеру, что раскрытие человеком определенной личной информации, такой как религиозная принадлежность или политические симпатии, в меньшей степени способствует надежному анализу личности, чем сам тот факт, что человек готов поделиться такой информацией. Это понимание навело команду на мысль о новой перспективной поведенческой метрике. Вместо того чтобы анализировать содержимое пользовательских списков, вроде любимых телешоу, способов времяпрепровождения или музыки, они поняли, что простые «метаданные», такие как объем открытой самими пользователями информации, «оказались гораздо более полезными и предсказательными, чем исходные сырые данные». Расчеты, произведенные на основе этих поведенческих метрик, в сочетании с автоматизированным лингвистическим анализом и внутренней статистикой Facebook привели исследовательскую группу к выводу, что «мы можем предсказать, сколько баллов пользователь набирает по каждой черте личности с точностью до более чем одной десятой от действительного значения»[731]. Команда Университета Мэриленда начала то, что станет многолетним путешествием к инструментализации данных из глубин личности в рамках совершенно сознательной программы манипулирования и модификации поведения. Хотя исследователи не могли заглянуть очень далеко, они тем не менее предвидели полезность своих выводов для нетерпеливой аудитории надзорных капиталистов:

Имея возможность определять черты личности пользователя, веб-сайты социальных сетей, магазины электронной коммерции и даже рекламные серверы, можно приспособить к тому, чтобы они учитывали личность пользователя и подавали информацию так, чтобы пользователи были наиболее восприимчивыми к ней <…> Показ рекламы в Facebook можно скорректировать на основе личности пользователя <…> Можно выделять обзоры продуктов, написанные авторами с тем же типом личности, что и пользователь, что повысит доверие и создаст ощущение полезности…[732]

Оказалось, что эти новые методы также работают на материале метаданных других социальных сетей. Позднее в том же году команда из Мэриленда опубликовала результаты исследований, в которых, используя общедоступные данные Twitter, удалось спрогнозировать результаты по каждому из пяти параметров личности, находящиеся в пределах 11–18 % от фактических значений. Результаты других подобных исследований станут центральными в поведенческой оцифровке профилей Facebook ради новых тайников глубинного излишка[733].

Группа исследователей из Великобритании, куда входили Михал Косински из Кембриджского университета и заместитель директора Центра психометрических исследований Кембриджа Дэвид Стилвел, развила эту линию исследований дальше[734]. К тому времени Стилвел уже разработал базу данных myPersonality, «стороннее» приложение для Facebook, позволяющее пользователям проходить психометрические тесты, подобные тестам, основанным на пятифакторной модели, и получать отзывы о своих результатах. Запущенная в 2007 году и размещенная в Центре психометрических исследований, к 2016 году эта база данных содержала более шести миллионов профилей личности, в дополнение к четырем миллионам индивидуальных профилей Facebook. Когда-то считавшаяся уникальным, хотя и нестандартным источником психологических данных, myPersonality стала излюбленной базой данных для масштабирования, стандартизации и проверки новых моделей, способных предсказывать результаты по личностным шкалам на основе все меньшего количества данных и метаданных Facebook. Позже она станет образцом для работы небольшой консалтинговой компании под названием Cambridge Analytica, которая использовала эти новые кладези поведенческого излишка для широкой кампании политически мотивированного поведенческого микротаргетинга.

В статье 2012 года Косински и Стилвел пришли к выводу, что «личность пользователя можно легко и надежно предсказать на основе общедоступных данных», и предупредили, что пользователи социальных сетей, при всей опасности этого, понятия не имеют об уязвимостях, которые они создают, когда открывают всем желающим большие массивы вполне невинной информации. В тексте они, в частности, упоминают об одностороннем нарушении генеральным директором Facebook Марком Цукербергом установленных норм конфиденциальности в 2010 году, когда он сделал свое знаменитое заявление, что пользователи Facebook больше не рассчитывают на конфиденциальность. Цукерберг сообщил о решении корпорации об одностороннем раскрытии личной информации пользователей: «Мы пошли на это, потому что решили, что теперь это и будет социальной нормой»[735].

Выразив определенные опасения, авторы тем не менее предполагают, что их выводы будут актуальными для «маркетинга», «дизайна пользовательского интерфейса» и систем рекомендаций[736]. В 2013 году другое провокационное исследование, выполненное Косински, Стилвелом и Тором Грэпелом из Microsoft показало, что «лайки» на Facebook позволяют «автоматически и точно определить широкий спектр личных данных, которые люди обычно считают приватными», включая сексуальную ориентацию, этническую принадлежность, религиозность и политические взгляды, черты личности, интеллект, счастье, употребление алкоголя и наркотиков, проживание с родителями или отдельно, возраст и пол[737].

Авторы выказывали все более двойственное отношение к социальным последствиям своих исследований. С одной стороны, они объявили, что эти новые возможности прогнозирования можно использовать для «улучшения многочисленных продуктов и услуг». Они пришли к выводу, что интернет-компании могут корректировать свои действия в соответствии с личностными особенностями каждого пользователя, психологически адаптируя маркетинг и рекомендации продуктов к конкретному человеку. Но авторы также предостерегают, что автоматизированные системы прогнозирования под управлением частных компаний, государства или самого Facebook, способны построить миллионы профилей без индивидуального согласия или ведома и обнаруживать факты, «которыми человек, возможно, не намеревался делиться». Исследователи предупредили, что «можно представить ситуации, в которых такие догадки, даже будучи ошибочными, способны представлять угрозу для благополучия, свободы или даже жизни человека»[738].

Несмотря на подобные этические затруднения, к 2015 году Косинский перешел в Стэнфордский университет (сначала на факультет компьютерных наук, затем в Высшую школу бизнеса), где его исследования быстро привлекли финансирование со стороны таких компаний, как Microsoft, Boeing, Google, Национальный научный фонд и Управление перспективных исследовательских проектов Министерства обороны США (DARPA)[739]. Косински вместе с целым рядом соавторов, среди которых часто был Стилвел, продолжал публиковать многочисленные статьи, где уточнялись и расширялись возможности, продемонстрированные в первых работах, и совершенствовались процедуры, которые позволяют «быстро и дешево оценивать большие группы участников с минимальным привлечением их самих»[740].

Работа, опубликованная в 2015 году, вновь открыла новые горизонты, объявив, что точность компьютерных прогнозов группы сравнялась с точностью оценщиков-людей или превысила ее, как в использовании «лайков» Facebook для оценки личностных качеств на основе пятифакторной модели, так и в предсказании «результатов в реальной жизни», таких как «удовлетворенность жизнью», «употребление психоактивных веществ» или «депрессия»[741]. Исследование показало, что настоящим прорывом в прогнозировании на основе Facebook стало достижение экономии в использовании этих интимнейших поведенческих глубин с помощью «автоматизированных, точных и дешевых инструментов оценки личности», которые эффективно нацелены на новый класс «объектов», когда-то известных как ваша «личность»[742]. То, что подобной экономии можно достичь без ведома «вольных животных», делает эти методы еще более привлекательными; как подчеркивает одна исследовательская группа, «традиционный метод оценки личности чрезвычайно дорог с точки зрения затрат времени и труда, и с его помощью нельзя получить информацию о личности клиента без его ведома…»[743]

Анализ личности ради получения коммерческого преимущества основан на поведенческом излишке – так называемых метаданных или метриках среднего уровня, отточенных и протестированных исследователями, и результаты этого анализа заставят задуматься любого, кто считает, что он или она контролирует «объем» персональной информации, которую раскрывает в социальных сетях. Скажем, для получения доступной автомобильной страховки вы должны значиться как добросовестный, доброжелательный и открытый человек. Это не так легко подделать, потому что излишки, привлекаемые для анализа, для нас неизбежно непрозрачны. Нас изучают не на предмет содержания, а на предмет формы. Предложенная вам цена зависит не от того, что вы пишете, а от того, как вы это пишете. Дело не в смысле ваших предложений, а в их длине и сложности, не в том, что вы включили в список, а в том, что вы вообще его составили, не в картинке, а в выборе фильтра и степени насыщенности, не в том, что вы раскрываете, а в том, как вы делитесь или не делитесь, не где вы планируете встретиться с друзьями, но как вы это делаете: бросаете небрежное «увидимся» или оговариваете точное время и место? Восклицательные знаки и выбор наречий действуют как откровенные сигналы о вашем «я», за которые вы можете поплатиться.

То, что эти «личностные» откровения сами по себе банальны, не должно отвлекать нас от того факта, что объем и глубина новых запасов излишка, обеспечиваемых этими операциями по добыче, беспрецедентны; ни о чем подобном раньше нельзя было и помыслить[744]. Как сказал Косински в одном интервью 2015 года, мало кто понимает, что такие компании, как «Facebook, Snapchat, Microsoft, Google и другие имеют доступ к таким данным, о которых ученым всегда оставалось только мечтать»[745]. Специалисты по данным успешно предсказали черты личности согласно пятифакторной модели на основе излишка, извлеченного из фотографий профилей Twitter (цвет, композиция, тип изображения, демографическая информация, поворот головы, выражение лица…), селфи (цвет, стили фотографии, визуальная текстура…) и снимков в Instagram (оттенок, яркость, насыщенность…). Другие проверили альтернативные алгоритмы и модели личности. Одна исследовательская группа продемонстрировала способность предугадать по сообщениям в Facebook «удовлетворенность жизнью»[746]. В этом новом мире менеджеры не стоят на четвереньках или на коленках, кромсая ножницами бумажные страницы с сообщениями компьютерной конференции и раскладывая вырезки в тематические стопки. Ползают не по офисному полу. Ползают по вам.

В том интервью 2015 года Косински заметил, что «все наши взаимодействия осуществляются через цифровые продукты и услуги, что, в общем, означает, что все они записываются». Он даже назвал свои собственные исследования «жутковатыми»: «Я хочу подчеркнуть, что, на мой взгляд, многое из того, что <…> корпорации и государство могут сделать, они ни в коем случае не должны делать без согласия пользователей». Признавая крайне асимметричное разделение знания, он посетовал на отказ Facebook и других интернет-фирм делиться своими данными с «широкой публикой», заключив, что «Дело не в том, что они такие злодеи, а в том, что сама публика жутко тормозит <…> как общество, мы утратили способность убеждать крупные компании, имеющие огромные бюджеты и доступ к огромным массивам данных, что им следует делиться этими благами с нами. По сути, мы должны, наконец, повзрослеть и прекратить это»[747].

При капитализме, однако, скрытый спрос создает поставщиков и поставки. При надзорном капитализме происходит точно то же самое. Императив прогнозирования спускает надзорных гончих, чтобы они выследили поведение в глубинах психики, и добросовестные исследователи, ничего не подозревая, играют им на руку, оставляя за собой залежи дешевого сырого мяса, которое надзорным капиталистам остается лишь найти и заглотить. Что они и делают. К началу 2015 года IBM объявила, что служба Watson Personality Insights открыта для бизнеса[748]. Инструменты машинного интеллекта корпорации даже более сложны и агрессивны, чем те, что используются в большинстве академических исследований. В дополнение к пятифакторной модели личности IBM оценивает каждого человека по двенадцати категориям «потребностей», включая «Возбудимость, Гармония, Любопытство, Идеал, Близость, Самовыражение, Свобода, Любовь, Практичность, Стабильность, Вызов и Структура». Затем идентифицируются «ценности», определяемые как «мотивирующие факторы, которые влияют на процессы принятия человеком решений в пяти измерениях: Преодоление себя/помощь другим, Консерватизм/традиция, Гедонизм/удовольствие от жизни, Самосовершенствование/достижение успеха, и Открытость к изменениям/возбудимость»[749].

IBM заявляет, что существуют «безграничные» возможности применения ее новых запасов излишков и обещает «глубинный портрет каждого клиента». Как и следовало ожидать, эти операции тестируются на подневольных сотрудниках, которые после приучения могут стать послушными представителями поведенчески чистого общества. Теперь можно определять «личностные корреляты», которые предсказывают, как в точности каждый клиент будет реагировать на маркетинговые усилия. Кто воспользуется купоном? Кто и какой продукт купит? Корпорация утверждает, что «контент и поведение в социальных сетях» можно использовать для «извлечения выгоды из таргетированных возможностей получения дохода», имея «правила, связывающие личностные черты с поведением». Отправку сообщений и обращения службы поддержки, страховых агентов, турагентств, риелторов, инвестиционных брокеров и т. д. можно будет «соотнести» с «личностью» клиента, причем психологические данные будут показаны агенту в самый момент контакта[750]. Исследования IBM показывают, что агенты, обладающие выраженными чертами личности, связанными с «доброжелательностью» и «добросовестностью», обеспечивают значительно более высокий уровень удовлетворенности клиентов. Это же подсказывает и здравый смысл, за исключением того, что теперь эти взаимодействия измеряются и контролируются в реальном времени и в большом масштабе, с прицелом на то, чтобы вознаграждать или вытеснять то или иное поведение в зависимости от его рыночного эффекта[751].

Благодаря оцифровке, несколько уже измеримых сегодня личностных характеристик, включая «потребность в любви», можно использовать для предсказания вероятности «симпатий по отношению к бренду»[752]. В эксперименте по таргетированной рекламе в твиттере IBM обнаружила, что это может значительно увеличить показатели кликабельности и количество «читателей», ориентируясь на людей с высокими показателями «открытости» и низкими показателями «невротизма» в рамках пятифакторного анализа личности. В другом исследовании IBM получила поведенческие данные 2000 пользователей Twitter для определения таких показателей, как количество ответов, уровень активности и промежуток времени между твитами, помимо обычного психолингвистического анализа твитов и пятифакторного анализа личности. IBM «обучила» свою прогностическую модель, задавая этим двум тысячам пользователей вопросы, связанные либо с их местоположением, либо с каким-либо продуктом. Результаты показали, что личностная информация предсказывала вероятность ответа. Люди, которых машины оценили как моральных, доверчивых, дружелюбных, экстравертированных и доброжелательных, обычно отвечали, по сравнению с низким уровнем ответов людей, оцененных как осторожные и тревожные. Многие черты, которые мы пытаемся воспитать в своих детях и культивировать в своем собственном поведении, для скрытых машинных процессов оцифровки оказываются просто благоприятными возможностями для изъятия излишка. В этом новом мире паранойя и тревожность становятся механизмами защиты от машинного вторжения с целью получения прибыли. Должны ли мы учить наших детей быть тревожными и подозрительными?

IBM, конечно, не одинока. Новая, изобретательная порода наемников, специализирующихся на грабеже личностных черт, быстро принялась за институционализацию этих новых процессов снабжения. Их усилия показывают, как быстро мы теряем ориентиры, когда институционализация сначала дает ощущение нормальности и общественного принятия, а затем постепенно приводит к онемению, сопровождающему привыкание. Процесс начинается с бизнес-планов и маркетинговых подач, новых продуктов и услуг и журналистских материалов, в которых новые факты будто бы принимаются как данность[753].

К этой новой когорте наемников принадлежит и британская консалтинговая фирма Cambridge Analytica, которой владеет нелюдимый миллиардер и спонсор Дональда Трампа Роберт Мерсер. Генеральный директор компании Александр Никс хвастался применением «микроповеденческого таргетирования» на основе личностных черт для поддержки брексита во время подготовки к голосованию за выход Великобритании из ЕС 2016 года и избирательной кампании Трампа в ходе предвыборной гонки перед президентскими выборами в США[754]. Никс утверждал, что в его распоряжении находятся данные «на индивидуальном уровне, где мы имеем примерно по четыре или пять тысяч точек данных на каждого взрослого в Соединенных Штатах»[755]. Пока ученые и журналисты пытались определить истинность этих утверждений и роль, которую эти методы могли сыграть в обоих драматических голосованиях 2016 года, новый директор по доходам этой фирмы тихо объявил о менее эффектной, но более прибыльной послевыборной стратегии: «После этих выборов она полностью переориентирована на работу с коммерческими компаниями». Сразу после американских выборов в журнале, адресованном автодилерам, он говорит им, что его новые аналитические методы показывают, «какой именно подход нужен к клиенту, какой у него тип личности и какие методы убеждения наиболее эффективны <…> Что он делает, так это изменяет поведение людей c помощью тщательно продуманных сообщений, которые находят у них отклик… Для того чтобы увидеть существенный сдвиг в доходах, требуется лишь небольшое повышение процента людей, выбравших ваш салон»[756].

Внутренний документ Facebook, оказавшийся в 2018 году в распоряжении издания Intercept, иллюстрирует важность данных, извлеченных из глубин психики при изготовлении прогнозных продуктов Facebook, подтверждая, что компания ориентируется прежде всего на свои поведенческие фьючерсные рынки и показывая степень, в которой спорные практики Cambridge Analytica отражают стандартные операционные процедуры в Facebook[757]. В этом конфиденциальном документе упоминается беспрецедентная «экспертиза Facebook в области машинного обучения», нацеленная на решение «основных бизнес-задач» ее клиентов. С этой целью в нем описывается способность Facebook использовать свои непревзойденные хранилища в высшей степени личных данных «для прогнозирования будущего поведения» человека, таргетирования его на основе того, как он будет себя вести, совершать покупки и рассуждать: прямо сейчас, в ближайшем и более отдаленном будущем. Документ увязывает предсказание с вмешательством и изменением поведения. Так, сервис Facebook под названием «прогнозирование лояльности» восхваляется за его способность анализировать поведенческий излишек с целью выявления лиц, находящихся «в зоне риска» в плане готовности уйти к другому бренду. Идея состоит в том, что эти прогнозы могут побудить рекламодателей к оперативному вмешательству, подразумевающему агрессивные таргетированные сообщения, призванные стабилизировать лояльность и тем самым достичь гарантированных результатов путем изменения будущего.

«Прогнозный движок» Facebook построен на новой платформе искусственного интеллекта FBLearner Flow, которую компания называет новым «костяком» своего искусственного интеллекта и ключом к «персонализированному опыту», обеспечивающему «наиболее актуальный контент». Система машинного обучения «ежедневно переваривает триллионы точек данных, обучает тысячи моделей – в автономном режиме или в режиме реального времени – и затем развертывает их на наших серверах для применения в текущих прогнозах». Компания объясняет: «с момента создания платформы прошли обучение более миллиона моделей и наша система прогнозирования выросла настолько, что делает больше 6 миллионов прогнозов в секунду»[758].

Как мы уже видели, «персонализация» зависит от точности предсказания, а точность предсказания зависит от наличия все более богатых источников поведенческого излишка и, следовательно, от все более безжалостных операций по оцифровке. Действительно, в конфиденциальном документе приводятся некоторые примеры ключевого сырья, которое используется для этой высокоскоростной, крупносерийной и глубинной производственной операции, среди которых – не только местоположение, сведения о сети Wi-Fi и информация об устройстве, но также данные из видео, анализ связей, детали дружб и общие черты с друзьями.

Вероятно, не случайно, что утечка презентации Facebook произошла примерно в то же время, когда один из молодых гениев Cambridge Analytica, ставший разоблачителем, Крис Уайли, обрушил на публику целый поток информации о тайных усилиях этой компании по прогнозированию и влиянию на голосование индивидуальных избирателей, сразу приковав внимание всего мира к этой небольшой фирме по политической аналитике и исполинскому источнику ее данных – Facebook. Без ответа осталось много вопросов о законности запутанных операций Cambridge Analytica, о масштабах ее реального влияния на политические события и об ее отношениях с Facebook. Наш интерес здесь ограничен тем ярким светом, который ее махинации проливают на могущество надзорного капитализма, особенно на его решимость оцифровывать данные из самых глубин психики.

Уже Косински и Стилвел обратили внимание на коммерческую ценность своих методов, понимая, что глубинный излишек открывает новые возможности для манипулирования поведением и его модификации. Уайли вспоминает о том, как захватили его мысли об этой перспективе, и в результате сложной цепочки событий именно он убедил Cambridge Analytica использовать данные Косински и Стилвела для продвижения политических целей ее владельца. Целью было «поведенческое микротаргетирование <…> влияние на избирателей, основанное не на демографических параметрах, а на чертах их личности…»[759] Когда переговоры с Косински и Стилвелом не привели к успеху, фирма наняла еще одного кембриджского ученого, Александра Когана, для накопления аналогичного кэша персональных данных из Facebook.

В Facebook Когана хорошо знали. Он сотрудничал со специалистами компании по данным в рамках проекта 2013 года, когда Facebook предоставила данные о 57 миллиардах «дружб». На этот раз он привлек примерно 270 000 человек, заплатив им, чтобы они прошли личностный тест. Втайне от участников, приложение Когана позволило ему получить доступ к их профилям в Facebook, а также к профилям в среднем 160 друзей каждого из тестируемых, «ни один из которых не знал» об этом вторжении и «не имел оснований подозревать» его[760]. Это была масштабная операция по оцифровке, которая позволила Когану успешно создать психологические профили от 50 до 87 миллионов пользователей Facebook, данные, которые он затем продал Cambridge Analytica[761]. Когда в Facebook возникли вопросы относительно его приложения, Коган заверил компанию, что его исследование проводилось исключительно в академических целях. Действительно, взаимное уважение между двумя сторонами было настолько велико, что Facebook принял одного из помощников Когана в свою собственную команду исследователей-психологов[762].

«Мы использовали Facebook, чтобы собрать профили миллионов людей, – признал Уайли, – и построить модели, чтобы использовать то, что мы о них знаем, метя в их внутренних демонов». Это краткое изложение достижений Cambridge Analytica резюмирует весь проект надзорного капитализма и объясняет его решимость вести оцифровку вглубь. Это те самые возможности, которые набрали силу в течение почти двух десятилетий инкубационного периода надзорного капитализма на территориях беззакония. Действия Cambridge Analytica вызвали возмущение во всем мире, хотя на самом деле это обычная часть ежедневного усовершенствования методов и целей надзорного капитализма, как в Facebook, так и в других капиталистических компаниях, занимающихся надзором. Cambridge Analytica просто переориентировала механизмы надзорного капитализма с коммерческих рынков поведенческих фьючерсов на достижение гарантированных результатов в политической сфере. Именно Эрик Шмидт, а не Уайли, первым открыл этот ящик Пандоры, когда он подготовил почву для переноса ключевых механизмов надзорного капитализма в избирательный процесс, скрепив взаимное сродство политики и экономики, породившее надзорную чрезвычайщину. На самом деле Уайли в свое время даже прошел обучение под руководством этого обамовского «директора по таргетингу»[763]. Инновации Шмидта, теперь превратившиеся в грозное оружие, стали предметом зависти со стороны любой политической кампании и, что опаснее, со стороны любого врага демократии[764].

В дополнение к использованию основополагающих для надзорного капитализма механизмов – оцифровки, поведенческого излишка, машинного интеллекта, прогнозных продуктов, экономии за счет масштаба, охвата и действия – темная афера Cambridge Analytica также иллюстрирует тактические требования надзорного капитализма. Ее операции разрабатывались так, чтобы проходить в неведении для публики, – они должны были быть тайными и тщательно избегать обнаружения со стороны пользователей. Уайли называет это «информационной войной», справедливо признавая асимметрию знания и власти, необходимую для работы средств изменения поведения:

Я думаю, что это хуже, чем травля, потому что люди не обязательно знают, что с ними так поступают. Травля по крайней мере признает за человеком право выбора, потому что он знает <…> если вы перестаете признавать за человеком право выбора, то все, что вы делаете с этого момента, уже не способствует демократии. И информационная война по самой своей сути не способствует демократии[765].

Эта «война» и применяемые в ее ходе механизмы вторжения и завоевания представляют собой стандартные операционные процедуры надзорного капитализма, которым ежедневно подвергаются миллиарды ничего не подозревающих людей, когда операции по оцифровке нарушают все границы, а операции по изменению поведения требуют господства над всеми людьми. Надзорный капитализм навязывает эту сделку, предлагая расстаться с «правом выбора» в обмен на информацию и связь, постоянно распространяя оцифровку на новые территории. В ходе военных действий такие компании, как Facebook и Google, нанимают на свою службу каждого пригодного солдата, включая социологов вроде Когана, которые добровольно впрягаются в лямку, помогая компании открывать, совершенствовать и интегрировать передовые методы, способствующие взятию следующих рубежей – явление, которое мы подробнее рассмотрим в главе 10.

Независимо от фактических возможностей компании Cambridge Analytica и реальных политических последствий ее действий, замыслы и планы, стоявшие за ее амбициями, останутся свидетельством центральной роли глубинной оцифровки в прогнозировании и изменении поведения в вечной погоне за предсказуемостью. Миллиардеры, такие как Цукерберг и Мерсер, обнаружили, что могут проложить себе путь к господству над общественным разделением знания, если приберут к рукам эти операции оцифровки и человеческие судьбы, которые они предскажут. Их цель – обладание безраздельной властью знать, решать, кто будет знать, и определять, кому принимать решения. Оцифровка «личности» стала важной вехой в этом стремлении – рубеж, да, но не последний рубеж.

III. Машинные эмоции

В 2015 году основанный за восемь лет до этого стартап под названием Realeyes выиграл грант Европейской комиссии в размере 3,6 миллиона евро на проект под кодовым названием «SEWA: Автоматический анализ настроений в полевых условиях». Цель состояла в том, чтобы «разработать автоматизированную технологию, которая сможет читать эмоции человека, просматривающего контент, а затем установить, как они связаны с тем, насколько ему понравился этот контент». Директор по видео в компании AOL International назвал этот проект «огромным шагом вперед в технологии видеорекламы» и «Святым Граалем видеомаркетинга»[766]. Всего через год Realeyes получил от Европейской комиссии награду за инновации Horizon 2020 благодаря «основанным на машинном обучении инструментам, которые помогают маркетологам анализировать влияние своей рекламы и повышать ее актуальность»[767].

Проект SEWA – окно в бурно растущую новую область операций по оцифровке и снабжению поведенческим излишком, известную как «аффективные вычисления», «аналитика эмоций» и «анализ настроений». Благодаря этим новым инструментам, проект персонализации спускается еще глубже к океанскому ложу, претендуя на еще один рубеж оцифровки, которая настроена уже не только на вашу личность, но и на вашу эмоциональную жизнь. Если этому проекту добычи глубинного излишка суждено быть успешным, то ваше бессознательное – где формируются чувства, еще до того, как появятся слова для их выражения, – должно быть преобразовано во всего лишь еще один источник сырья для машинной оцифровки и анализа, и все это ради более точного прогнозирования. Как объясняется в отчете об исследовании рынка аффективных вычислений, «знание эмоционального состояния в реальном времени может помочь фирмам продавать свой продукт и тем самым увеличить доходы»[768].

Продукты аналитики эмоций, такие как SEWA, используют специализированное программное обеспечение для прочесывания лиц, голосов, жестов, тел и мозгов, по мере того как все это считывается «биометрическими» и «глубинными» датчиками, часто в сочетании с крошечными «ненавязчивыми» камерами. Этот комплекс машинного интеллекта обучен изолировать, фиксировать и оцифровывать тончайшие и интимнейшие формы поведения, от случайного моргания до длящегося долю секунды расслабления челюсти от неожиданности. Различные комбинации датчиков и программного обеспечения могут распознавать и идентифицировать лица; оценить возраст, этническую принадлежность и пол; анализировать направление взгляда и движения век; отслеживать определенные точки лица, чтобы интерпретировать «микровыражения», движения глаз, эмоции, настроения, стресс, ложь, скуку, растерянность, намерения и многое другое, – и все это происходит мгновенно[769]. Как говорится в описании проекта SEWA:

Технологии, способные надежно и точно анализировать выражения лица, равно как и голосовое и речевое поведение и взаимодействия в естественных условиях, на основе информации веб-камер цифровых устройств, окажут глубокое влияние как на фундаментальные науки, так и на коммерческий сектор. Они <…> замеряют индикаторы поведения, которые до сих пор сопротивлялись измерению, потому что были слишком тонкими или мимолетными, чтобы регистрироваться человеческим глазом и ухом…[770]

Это поведение ускользает и от сознания. Машины фиксируют на лице молодой женщины наносекундный эпизод отвращения, за которым следует быстрая череда гнева, понимания и, наконец, радости, пока она смотрит несколько кадров фильма; при этом все, что она сумеет сказать вслух, – это «Мне понравилось!» В официальной документации Realeyes объясняется, что его веб-камеры снимают людей, которые смотрят видео у себя дома, «чтобы мы могли запечатлеть подлинные реакции». Алгоритмы обрабатывают выражения лица, и «эмоции обнаруживаются, агрегируются и передаются онлайн в режиме реального времени, каждую секунду <…> это позволяет нашим клиентам принимать лучшие бизнес-решения». Realeyes делает упор на свои собственные «проприетарные метрики», помогающие маркетологам «нацеливаться на конкретную аудиторию» и «прогнозировать результаты»[771].

И снова – ключевая тема машинного интеллекта состоит в том, что качество зависит от количества. Realeyes говорит, что его наборы данных содержат более 5,5 миллионов аннотированных видеозаписей более чем 7000 человек со всего мира:

Мы постоянно работаем над созданием самых больших в мире наборов данных о выражениях лиц и поведении, повышая качество и объем наших уже существующих категорий, и создавая новые – для других выражений и эмоций, других поведенческих подсказок, для эмоций другой интенсивности <…> Автоматизировав этот процесс, мы можем теперь масштабировать его, чтобы одновременно отслеживать эмоции всей аудитории[772].

Клиентам рекомендуется «играть эмоциями своей аудитории, чтобы оставаться хозяевами положения»[773]. Веб-сайт компании предлагает краткий обзор истории исследования человеческих эмоций, включая вывод, что «чем больше люди чувствуют, тем больше они тратят <…> Нематериальные „эмоции“ превращаются в конкретную социальную активность, узнаваемость бренда и прибыль»[774].

Председатель отраслевого консультативного совета SEWA откровенен в отношении этой затеи; он отмечает, что расшифровка смысла «невербального языка всего тела и интерпретация сложных эмоциональных реакций <…> будет замечательной вещью для интерпретации реакций на маркетинговые материалы», добавляя, что «просто глупо не учитывать эмоциональный отклик при оценке любых маркетинговых материалов». Действительно, эти «бессознательные инструменты» извлекают из вашей внутренней жизни новые, более тонкие, грани поведенческого излишка, чтобы предсказать, что вы купите, и точно ухватить нужный момент, когда вы наиболее уязвимы для воздействия. Председатель совета говорит, что эмоциональная аналитика «похожа на определение отдельных музыкальных нот». Тогда каждый потенциальный клиент представляет собой небольшую прозрачную музыкальную композицию: «Мы сможем выявить каждую нотку человеческих реакций, таких как симпатия, скука и т. д. <…> Когда-нибудь мы научимся мастерски читать чувства и намерения друг друга»[775].

Это не первый случай, когда наше бессознательное становится инструментом для достижения чужих целей. В пропаганду и рекламу всегда закладывалось обращение к нашим непризнанным страхам и стремлениям. Эти сферы больше полагались на искусство, чем на науку, используя для целей массовой коммуникации очень грубые данные или профессиональную интуицию[776]. Подобные методы нельзя сравнивать и с научным применением сегодняшних исторически беспрецедентных вычислительных мощностей к точно выверенной, непрерывной оцифровке наших более или менее реальных чувств. Производители новых инструментов не собираются отнять у вас вашу внутреннюю жизнь, они намерены лишь следить за ней и пользоваться ею. Все, что они хотят, – это знать о вас больше, чем вы сами.

Хотя на протяжении тысячелетий сокровищница бессознательного понималась по-разному – от духа через душу к психике, – древнего жреца и современного психотерапевта объединяет вековое почтение к изначальной целительной силе бессознательного, приходящей через открытие своего «я», овладение им, обретение целостности, восстановление и трансценденцию. Напротив, понимание эмоций как наблюдаемых поведенческих данных впервые укоренилось в середине 1960-х годов в трудах Пола Экмана, тогда еще молодого профессора Калифорнийского университета в Сан-Франциско. Начиная со своих самых первых работ Экман утверждал, что «дела говорят громче, чем слова»[777]. Он исходил из того, что даже когда человек полон решимости подвергать цензуре или контролировать выражение своих эмоций, что некоторые виды невербальных сигналов «ускользают от контроля и дают утечку»[778]. С самого начала он видел потенциальную полезность «категориальной схемы», которая надежно связывала внешние выражения (следствия) с эмоциями (причинами)[779], и в 1978 году Экман, совместно с Уоллесом Фризеном (с которым он нередко сотрудничал), опубликовал знаменитую «Систему кодирования выражений лица» (Facial Action Coding System, FACS), в которой и описывались эти связи.

FACS различает базовые движения лицевых мышц, разбивая их на двадцать семь «двигательных единиц» для лица, наряду с двигательными единицами для головы, глаз, языка и т. д. Позже Экман пришел к выводу, что шесть «базовых эмоций» (гнев, страх, печаль, радость, отвращение и удивление) представляют собой основу для широкого спектра выражения человеческих эмоций[780]. FACS и модель шести эмоций стали доминирующей парадигмой для изучения выражения лица и эмоций, во многом подобно тому, как пятифакторная модель доминирует в исследованиях личности.

Программа оцифровки эмоций началась вполне невинно. У ее истоков стояла профессор MIT Media Lab Розалинд Пикард, которая назвала новую область компьютерной науки «аффективными вычислениями». Она была одной из первых, кто осознал возможность для вычислительной системы автоматизировать анализ конфигураций лица по Экману и соотнести микровыражения лица с эмоциями, лежащими в их основе[781]. Она стремилась объединить выражение лица с вычислением вокальной интонации и других физиологических сигналов эмоций, которые можно измерить как поведение. В 1997 году она опубликовала книгу под названием «Аффективные вычисления», в которой предложила практическую реализацию идеи, что одни эмоции доступны сознательному разуму и могут быть выражены «когнитивно» («мне страшно»), в то время как другие могут ускользать от сознания, но тем не менее выражаться физически в виде капель пота, расширения глаз или едва уловимого сжатия челюстей.

Ключом к аффективным вычислениям, утверждала Пикард, является соотнесение сознательных и бессознательных эмоций с наблюдаемым поведением, доступным для кодирования и расчетов. Компьютер, рассуждала она, сможет представить ваши эмоции в виде информации о поведении. Распознавание аффекта, по ее выражению, сводится к «распознаванию определенных комбинаций движений», а «выражение аффекта» – к синтезу этих комбинаций. Основной тезис состоял в том, что «компьютер способен распознавать эмоции не хуже, чем сторонний наблюдатель-человек».

Пикард надеялась, что ее находки относительно эмоций послужат какому-нибудь доброму или на худой конец безобидному делу. Большинство описываемых ею применений остаются в рамках логики «Осведомленного дома»: любые полученные знания будут принадлежать исходному индивиду и использоваться для помощи в его или ее самопознании. Например, она представляла себе «компьютер-интервьюер», который мог бы служить «аффективным зеркалом», тренирующим учащегося при подготовке к собеседованию или свиданию, а также автоматического помощника, который предупреждал бы вас о враждебных нотках в вашем собственном тексте до того, как вы нажмете «отправить». Пикард предвидела и другие инструменты, сочетающие в себе программное обеспечение и сенсоры, которые, как она полагала, улучшат повседневную жизнь в целом ряде ситуаций, таких как помощь детям с аутизмом в развитии эмоциональных навыков, предоставление разработчикам программного обеспечения обратной связи по уровню разочарования пользователей, назначение очков игрокам в видеоиграх для поощрения смелости или снижения стресса, создание учебных модулей, которые стимулируют любопытство и минимизируют беспокойство, и анализ эмоциональной динамики в классе. Она представляла себе цифровых помощников, которые изучат ваши предпочтения и найдут для вас новости, одежду или произведения искусства, которые вызовут у вас улыбку[782]. Каким бы ни было наше отношение к подобным идеям, они следуют одной ключевой закономерности: в отличие от модели SEWA, предполагалось, что данные Пикард были для вас, а не просто про вас.

Еще в 1997 году Пикард признавала необходимость обеспечения конфиденциальности, «с тем, чтобы вы могли контролировать, кто получает доступ к этой информации». Для нас важно, что на последних страницах своей книги она выразила определенные опасения:

есть веские причины не транслировать свою эмоциональную жизнь на весь свет <…> Вы можете похвастать перед друзьями хорошим настроением <…> вы вряд ли хотите, чтобы об этих вещах прознали армии продавцов, горящих желанием использовать зависящие от настроения покупательские привычки, или рекламодателей, жаждущих убедить вас, что ваше настроение поднимется, если попробуете их новую газировку прямо сейчас.

Она отметила возможность навязчивого мониторинга на рабочем месте и сделала оговорки о возможности антиутопического будущего, в котором «злокозненное» государство использует аффективные вычисления, чтобы контролировать эмоции населения и манипулировать ими[783].

Несмотря на эти опасения, уместившиеся в несколько абзацев, ее выводы были успокоительными. Каждая технология имеет свои «за и против», писала она. Эти проблемы не являются «непреодолимыми», потому что «могут быть разработаны защитные меры». Пикард была уверена, что технологии и технические методы могут решить любую проблему, и представляла себе «носимые компьютеры», которые «собирают информацию исключительно для вашего собственного использования…» Она подчеркнула важность обеспечения «того, чтобы владелец сохранял полный контроль над устройствами, которые он решил носить, чтобы они были инструментами расширения возможностей, а не подчинения враждебным силам»[784].

Следуя теперь уже слишком хорошо знакомой закономерности, защитные меры не поспевали за событиями, а надзорный капитализм процветал. К началу 2014 года Facebook уже подал заявку на патент на «обнаружение эмоций», призванный реализовать все то, чего опасалась Пикард[785]. Идея заключалась в «одном или нескольких программных модулях, способных распознавать эмоции, выражения лица или другие характеристики пользователя по информации, содержащейся в изображении». Как всегда, цели компании были амбициозны. Список эмоций, подлежащих распознаванию, «приводимый в качестве примера, а не конечного перечня» включал в себя такие слова, как «улыбка, радость, юмор, изумление, радостное волнение, удивление, недовольство, грусть, разочарование, растерянность, ревность, безразличие, скука, гнев, депрессия или боль». Авторы патента надеялись, что «со временем» этот модуль сможет оценивать «интерес пользователя к отображаемому контенту» в целях «тонкой подстройки на основе эмоционального состояния»[786].

К 2017 году, ровно через двадцать лет после публикации книги Пикард, ведущая компания по исследованию рынка прогнозировала, что «рынок аффективных вычислений», охватывающий программы распознавания речи, жестов и выражений лица, а также датчики, камеры, устройства хранения и процессоры, вырастет с 9,35 миллиарда долларов в 2015 году до 53,98 миллиарда долларов в 2021 году, предсказав среднегодовой темп роста почти в 35 %. Что произошло такого, что могло повлечь за собой этот взрыв? В отчете делается вывод, что во главе списка «триггеров» подобного резкого роста стоит «растущий спрос на распознавание человеческих эмоций, особенно со стороны маркетингового и рекламного секторов…»[787] Благие намерения Пикард оказались похожи на невинные железные опилки в присутствии магнита, когда рыночный спрос, созданный императивом прогнозирования, втянул аффективные вычисления в мощное силовое поле надзорного капитализма.

В конечном итоге Пикард станет частью этой новой индустрии изъятия излишка, основав, совместно со своей протеже, научным сотрудником MIT Media Lab Раной эль Калиуби, компанию Affectiva. Перерождение этой компании, перешедшей от добрых дел к надзорному капитализму, – метафора судьбы всего предприятия по анализу эмоций в целом, которое быстро втягивается в конкурентный водоворот погони за надзорными доходами.

Пикард и Калиуби разделяли мысль о применении своих исследований в медицинских и терапевтических условиях. Проблемы детей с аутизмом, казалось, идеально подходили для решения с помощью их открытий, поэтому они обучили машинную систему под названием MindReader распознавать эмоции, наняв актеров, которые изображали определенные эмоциональные реакции и мимику. С самого начала корпоративные спонсоры MIT Media Lab – Pepsi, Microsoft, Bank of America, Nokia, Toyota, Procter and Gamble, Gillette, Unilever и другие – забросали исследовательниц вопросами о возможности использования их системы для замера эмоциональных откликов клиентов. Калиуби описывает сомнения женщин и их решимость сосредоточиться на применении «добрых дел». По ее словам, лаборатория поощряла их воспользоваться своими результатами для создания стартапа, который они назвали Affectiva и который представляли себе как «маленькую IBM для эмоционально интеллектуальных машин»[788].

Очень быстро новая компания почувствовала живой интерес к себе со стороны рекламных агентств и маркетинговых компаний, которым не терпелось приступить к автоматизированной оцифровке и анализу глубин психики. Характеризуя то время, Пикард сказала одному журналисту: «нашего генерального директора совершенно не устраивало медицинское направление». В результате Пикард «вытеснили» из фирмы через три года после ее основания. Как рассказал один из научных сотрудников Affectiva,

мы начали с мощного набора продуктов, которые могли помочь людям, испытывающим трудности с восприятием эмоций <…> Затем они начали делать акцент только на лице, чтобы сосредоточиться на рекламе и предугадывать, нравится ли кому-то какой-либо продукт, и совершенно ушли от первоначальной миссии[789].

Такие компании, как исследовательская фирма Millward Brown и рекламный гигант McCann Erickson, конкурирующие в новом мире таргетированной «персонализированной» рекламы, уже стремились получить доступ к бездонным глубинам потребительских эмоциональных реакций. В Millward Brown даже сформировали свое нейробиологическое подразделение, но обнаружили, что не могут масштабировать его операции. И анализ одной особенно тонкой рекламы для Millward Brown, сделанный Affectiva, поразил руководство компании и решительно переломил ход событий для стартапа. «Эта программа сообщала нам то, чего мы потенциально не видели, – сказал один из руководителей Millward Brown. – Люди обычно не могут сформулировать такие детали за шестьдесят секунд»[790].

К 2016 году Калиуби стала генеральным директором компании, переосмыслив ее бизнес как «Эмоциональный искусственный интеллект» и назвав его «следующим рубежом искусственного интеллекта»[791]. Компания привлекла венчурный капитал в размере 34 миллионов долларов, включила в число своих клиентов 32 компании из списка Fortune 100 и 1400 брендов со всего мира и утверждала, что располагает крупнейшим в мире хранилищем эмоциональных данных, содержащим 4,8 миллиона видеозаписей лиц людей из 75 стран, в то же время продолжая расширять маршруты поставок за счет данных, полученных от онлайн-просмотра, участия в видеоиграх, разговоров и вождения автомобилей[792].

Именно в этом коммерческом контексте Калиуби сочла возможным утверждать, что «чип эмоций» станет базовой операционной единицей новой «экономики эмоций». Она любит рассказывать своим слушателям о чипе, встроенном во все, что угодно и где угодно, постоянно работающем в фоновом режиме и генерирующем «эмоциональный пульс» всякий раз, когда вы проверяете свой телефон: «Я думаю, в будущем мы станем исходить из того, что каждое устройство просто знает, как читать ваши эмоции»[793]. По крайней мере одна компания, Emoshape, отнеслась к ее прогнозам серьезно. Фирма, чей слоган звучит как «Жизнь – главная ценность», выпускает микрочип, который называет «первым в отрасли движком синтеза эмоций», обеспечивающим «высокопроизводительное автоматическое распознавание эмоций». Компания пишет, что ее чип может классифицировать двенадцать эмоций с 98-процентной точностью, что позволяет «искусственному интеллекту или роботу воспринимать 64 триллиона возможных различных эмоциональных состояний»[794].

Калиуби предвидит, что повсеместное «сканирование эмоций» будет такой же само собой разумеющейся вещью, как файлы cookie, установленные на вашем компьютере для отслеживания вашей активности в интернете. В конце концов такие cookie когда-то вызывали возмущение, а теперь без них в интернете и шагу не ступить. Например, по ее ожиданиям, YouTube будет сканировать эмоции своих зрителей, пока они смотрят видео. Ее уверенность подкрепляется спросом, создаваемым императивом прогнозирования: «Я смотрю на это так: не важно, что у вашего Fitbit нет камеры, потому что она есть в телефоне, есть в ноутбуке и будет в телевизоре. Все эти данные объединяются с биометрическими данными ваших носимых устройств и создают ваш эмоциональный профиль». Для начала Affectiva ввела понятие «эмоции как услуги», предлагая свою аналитику как услугу по требованию: «Просто отснимите людей, выражающих эмоции, а затем отправьте нам эти видео или фото, чтобы получить мощные метрики эмоций»[795].

Возможности оцифровки вглубь кажутся безграничными, и, возможно, так и будет, если Affectiva, ее клиенты и попутчики получат свободу рук, чтобы подвергать разграблению наши «я» по своему усмотрению. Есть признаки того, что эти амбиции простираются гораздо дальше и что «эмоция как услуга» может перейти от наблюдения к модификации. До «счастья как услуги» уже недалеко. «Я действительно считаю, что если у нас будет информация о ваших эмоциональных переживаниях, то мы можем помочь вам быть в хорошем настроении», – говорит Калиуби. Она предвидит системы распознавания эмоций, выдающие призовые баллы за счастье, потому что, в конце концов, счастливых клиентов легче «увлечь»[796].

IV. Когда они придут за моей правдой

На сегодняшний день оцифровка стала глобальным проектом надзорного капитала, и в ходе ее распространения вглубь мы наблюдаем ее самые пагубные проявления. Интимные территории «я», такие как наша личность и эмоции, объявлены наблюдаемым поведением и стали желанным источником богатых залежей прогнозного излишка. Сегодня новое племя торговцев личностью, полных решимости разложить по полочкам и упаковать нашу внутреннюю жизнь ради надзорных прибылей, официально перевело личные границы, защищающие эту жизнь, в категорию «плохо для бизнеса». Накопленные ими знания и опыт подрывают само понятие автономного индивида, вознаграждая «безграничность» любыми доступными средствами – предложениями элитного статуса, бонусами, баллами счастья, скидками, кнопкой «купить», всплывающей на вашем устройстве в точный момент наиболее вероятного успеха – так, чтобы нам оставалось лишь разоблачиться и сдаться на милость загребущих лап и любопытных глаз машин, стоящих на службе нового рыночного космоса.

Я сознательно ухожу от более детального обсуждения того, что такое «личность» или «эмоция», «сознательно» или «бессознательно», в пользу, как я надеюсь, менее капризной истины, которую четко высветила эта последняя фаза вторжения. Опыт – это не нечто данное мне, а то, что я сделаю с этой данностью. Опыт, который высмеиваю я, у вас может вызвать энтузиазм. Я – это внутреннее пространство жизненного опыта, из которого создаются подобные значения. В этом творении я опираюсь на фундамент личной свободы: «фундамент», потому что я не могу жить без осмысления своего опыта.

Сколько бы у меня ни забрали, эта внутренняя свобода создавать смысл остается моим последним убежищем. Жан-Поль Сартр писал, что «свобода есть не что иное, как существование нашей воли», и уточнял: «На самом деле недостаточно иметь волю; нужно иметь волю к воле»[797]. Это восстание воли к воле – внутренний акт, делающий нас автономными существами, которые проецируют свой выбор в мир и демонстрируют качества самоопределяющегося морального суждения – необходимый и конечный оплот цивилизации. В этом и заключается смысл другого прозрения Сартра: «Без ориентиров, толкаемых лишь безымянной тоской, словам трудно <…> Голос рождается из риска: либо потеряешь себя, либо заслужишь право говорить от первого лица»[798].

По мере того как императив прогнозирования проникает в глубины личности, устоять перед ценностью добываемого по его велению излишка становится невозможно, и операции по его привлечению поднимаются на новый уровень. Что произойдет с правом говорить от первого лица, от самого себя, когда все более безумная институционализация, запущенная императивом прогнозирования, станет тренироваться, вылавливая мои вздохи, моргания и высказывания, в попытке добраться до моих мыслей, чтобы использовать их как средства для достижения чужих целей? Сегодня надзорный капитал извлекает излишек не просто из того, что я ищу, покупаю и просматриваю. Он больше не довольствуется одними только координатами моего тела во времени и пространстве. Теперь он вторгается в самое сокровенное внутреннее пространство, когда машины и их алгоритмы начинают определять значение моего дыхания и моих глаз, мышц моих челюстей, дрожи в моем голосе и восклицательных знаков, поставленных невинно и с надеждой.

Что станет с моей волей к воле существовать от первого лица, когда окружающий рыночный космос будет притворяться моим зеркалом, меняя форму в соответствии с тем, что, по его мнению, я чувствую, или чувствовал, или буду чувствовать – игнорируя, подстрекая, упрекая, подбадривая или наказывая меня? Надзорный капитал не может удержаться от того, чтобы хотеть меня всего, так глубоко и так далеко, насколько сможет зайти. Одна фирма, специализирующаяся на «человеческой аналитике» и аффективных вычислениях, предлагает своим маркетинговым клиентам такой заголовок: «Стань ближе к истине. Узнай подлинную причину». Что произойдет, когда они придут за моей «истиной», не прошеные, но полные решимости пройтись по моему «я», забирая все то, что будет питать их машины для достижения их целей? Загнанному в угол своего «я», человеку уже некуда бежать[799].

Похоже, что подобные вопросы могли все же беспокоить Пикард. В лекции «На пути к машинам, которые отрицают своего создателя», которую она прочитала в 2016 году в Германии, на смену успокоительным заверениям книги 1997 года, что «могут быть разработаны защитные меры», что новые технологии и технические методы могут решить любую проблему и что «носимые компьютеры» будут «собирать информацию исключительно для вашего собственного использования», будучи «инструментами расширения ваших возможностей, а не подчинения враждебным силам»[800], пришли новые размышления. «Некоторые организации хотят прощупывать человеческие эмоции, оставляя людей в неведении об этом и не спрашивая их согласия, – говорит она. – Некоторые ученые хотят создать компьютеры, которые будут намного превосходить людей и будут способны не только воспроизводить себе подобных <…> Как сделать так, чтобы новые аффективные технологии меняли человеческую жизнь к лучшему?»[801]

Пикард представить себе не могла, что рыночные силы превратят оцифровку эмоций в прибыльный излишек, в средство для достижения чужих целей. То, что ее видение реализовано сегодня в тысячах видов деятельности, должно было быть триумфом, но триумф ослабляется тем фактом, что многие из этих видов деятельности связаны с проектом коммерческого надзора. Неспособность установить ориентиры раз за разом способствует привыканию, нормализации и в конечном итоге легитимации. Подчиненный более широким целям надзорного капитализма, смысл аффективного проекта изменился, как будто исказился в кривом зеркале парка развлечений.

Этот цикл заставляет вспомнить слова другого профессора Массачусетского технологического института, специалиста по компьютерной науке и гуманиста Джозефа Вейценбаума, который не раз красноречиво говорил о непреднамеренном сговоре ученых-компьютерщиков, направленном на создание ужасающих систем вооружений. Я полагаю, что он метал бы молнии в адрес сегодняшних иногда невольных, а иногда добровольных торговцев личностью, так что уместно будет закончить главу его словами:

Я не совсем понимаю, вся ли компьютерная наука в целом или только ее раздел, занимающийся искусственным интеллектом, проявляет столь безграничное пристрастие к эвфемизмам. Мы так эффектно и с такой готовностью говорим о компьютерных системах, которые понимают, видят, решают, выносят суждения <…> не сознавая свою собственную поверхностность и неизмеримую наивность в отношении этих концепций. И в процессе подобных разговоров мы притупляем свою способность <…> осознавать их конечное назначение <…> Нельзя выйти из этого состояния, не спрашивая снова и снова: «Что я на самом деле делаю? Каково окончательное применение и использование плодов моего труда?» и в конечном счете: «Устраивает ли меня то, как они применяются, или мне стыдно за это?»[802]

Глава 10

Пусть они попляшут

  • Но вот чей-то плач.
  • Ах, причина известна —
  • Растление душ и паденье столиц,
  • Ибо зло неизбывно, ибо даже сам принц,
  • Ко лжи прибегая, царит в Поднебесной.
У. Х. Оден, Сонеты из Китая, XI[803]

I. Экономия за счет действия

«Сегодня сила – действие, – сказал мне один старший инженер-программист. – Интеллект, присущий „интернету вещей“, означает, что датчики могут быть также активаторами». Директор по разработке программного обеспечения для компании, которая играет важную роль в «интернете вещей», добавляет:

Речь идет уже не просто о повсеместной компьютеризации. Настоящая цель сегодня – повсеместное вмешательство, действие и контроль. Настоящая власть в том, что теперь вы можете изменять действия в реальном времени в реальном мире. Подключенные к сети интеллектуальные датчики могут регистрировать и анализировать любое поведение, а затем вычислить, как его изменить. Аналитика в реальном времени превращается в действие в реальном времени.

Ученые и инженеры, с которыми я беседовала, называют эту новую способность «активацией» (actuation) и описывают ее как критический, хотя и почти не обсуждаемый поворотный момент в эволюции аппарата повсеместности.

Способность к активации определяет новый этап развития императива прогнозирования, на котором важнее всего экономия за счет действий. На этом этапе в арсенал добавляются новые способы изменения поведения, что представляет собой решительный и необходимый шаг в развитии «средств производства» надзорного капитализма в направлении к более сложной, многослойной и могущественной экономической системе. Это важнейшее достижение в погоне за гарантированными результатами. При надзорном капитализме цели и операции автоматической модификации поведения разрабатываются и контролируются компаниями, стремящимися достичь своих собственных целей с точки зрения прибыли и роста. Один старший инженер сказал мне:

C помощью датчиков изменять поведение людей так же легко, как и поведение устройств. Благодаря «интернету вещей» можно сделать много хороших вещей, например снизить температуру во всех домах на вашей улице, чтобы не перегружать трансформатор, или оптимизировать весь промышленный техпроцесс. Но на индивидуальном уровне это также означает способность принимать меры, которые могут перевесить то, что вы делаете, или даже заставить вас приняться за то, о чем вы и не помышляли.

Ученые и инженеры, с которыми я беседовала, выделили три ключевых подхода к экономии за счет действия, каждый из которых направлен на изменение поведения. Первые два я называю «подстройка» (tuning) и «понуждение» (herding). Третий – известное явление, которое психологи-бихевиористы называют «обусловливанием» (conditioning). Стратегии, применяемые для экономии за счет действия, различаются тем, как именно сочетаются эти подходы и какое место отводится каждому из них.

«Подстройка» происходит разными способами. Она может состоять в сигналах подсознанию, призванных тонко подправить поток поведения в определенное место и в определенное время, точно рассчитанное для максимально эффективного воздействия. Другой тип подстройки подразумевает то, что поведенческие экономисты Ричард Талер и Касс Санстейн называют «подталкиванием» (nudge), которое они определяют как «любой аспект архитектуры выбора, предсказуемо влияющий на поведение людей»[804]. Термин «архитектура выбора» относится к тому, как те или иные ситуации заранее структурированы, чтобы направлять внимание и формировать действия. В некоторых случаях эти архитектуры специально предназначены, чтобы побудить к нужному поведению, например школьный класс, в котором все стулья обращены к учителю, или онлайн-бизнес, который вынуждает вас открывать множество непонятных страниц, чтобы отказаться от его отслеживающих файлов cookie. Использование этого термина – еще один способ сказать на бихевиористском языке, что социальные ситуации всегда насыщены всяческой «подстройкой», остающейся большей частью вне нашего сознания.

Поведенческие экономисты отстаивают взгляд на мир, в основе которого лежит представление о том, что человеческое мышление хрупко и чревато ошибками, ведущими к иррациональным решениям, неадекватно учитывающим всю структуру вариантов действия. Талер и Санстейн призывают правительства активно разрабатывать «подталкивания», которые должным образом направляют процессы индивидуального принятия решений к таким результатам, которые максимально соответствуют интересам самих этих индивидов, как их понимают эксперты. Классический пример, часто приводимый Талером и Санстейном, – директор школьной столовой, который подталкивает учеников к выбору более полезных блюд, выставляя фруктовый салат на видное место, впереди пудинга; другой пример – автоматическое продление полиса медицинского страхования как средство защитить тех, кто недооценивает важность действий по возобновлению страховки в конце каждого года.

Надзорные капиталисты приспособили к своим нуждам многие из весьма спорных допущений поведенческих экономистов, используя их в качестве еще одного прикрытия, легитимирующего их практическую приверженность односторонней коммерческой программе изменения поведения. Разница в том, что в этом случае «подталкивания» заставляют принимать решения, выгодные для архитектора, а не для самого индивида. В результате специалисты по данным, обученные экономии за счет действия, считают совершенно нормальным овладевать искусством и наукой «цифрового подталкивания» ради коммерческих интересов своей компании. Так, главный специалист по данным одной национальной сети аптек рассказывает, как его компания разрабатывает автоматические цифровые «подталкивания», которые тонко подводят людей к определенному поведению, желаемому компанией:

С помощью этой технологии вы можете заставлять людей что-то сделать. Даже если это всего 5 % людей, то вы заставили 5 % людей совершить действие, которое они иначе бы не совершили, так что в некоторой степени здесь присутствует элемент потери самоконтроля со стороны пользователя.

Второй подход, основанный на контроле ключевых элементов в непосредственном окружении человека, – «понуждение». Пример техники понуждения – «недоговор». Выключение двигателя автомобиля необратимо меняет непосредственные обстоятельства водителя, понуждая его выйти из машины. Понуждение позволяет дистанционно управлять человеческой ситуацией, исключая альтернативные действия и тем самым направляя поведение по пути повышенной вероятности, которая приближается к определенности. «Мы пытаемся писать музыку, а затем пусть музыка сама заставит их поплясать», – объясняет разработчик программного обеспечения для «интернета вещей», добавляя:

Мы можем спроектировать контекст вокруг определенного поведения и вынудить изменить поведение в нужную сторону. Данные, учитывающие контекст, позволяют нам связать воедино ваши эмоции, ваши когнитивные функции, ваши жизненные показатели и так далее. Мы можем знать, что вам не следует садиться за руль, и можем просто отключить вашу машину. Мы можем сказать холодильнику: «Эй, запрись-ка, потому что ему не следует есть», или мы говорим телевизору выключиться, чтобы заставить вас немного поспать, или стулу, чтобы он начал дрожать, потому что вам не стоит так долго сидеть, или крану, чтобы он включился, потому что вам нужно пить больше воды.

«Обусловливание» – это хорошо известный подход к изменению поведения, связанный прежде всего с известным гарвардским бихевиористом Б. Ф. Скиннером. Он утверждал, что изменение поведения должно имитировать эволюционный процесс, в котором условия окружающей среды «отбирают» самые успешные виды естественного поведения. Вместо более ранней, более упрощенной модели стимула/реакции, связанной с такими бихевиористами, как Уотсон и Павлов, Скиннер предложил третью переменную: «подкрепление». В своей лабораторной работе с мышами и голубями Скиннер научился наблюдать у экспериментальных животных различные виды естественного поведения, а затем подкреплять конкретное действие или «оперант», которое он хотел, чтобы животное воспроизводило. В конечном итоге он освоил замысловатые схемы или «графики» подкрепления, которые могли надежно формировать точные поведенческие последовательности.

Скиннер назвал применение подкреплений для формирования желаемого поведения «оперантным обусловливанием». Его проект в целом был известен как «модификация поведения» или «поведенческая инженерия», в ходе которой поведение непрерывно формируется ради усиления одних действий за счет других. В конце концов голубь учится, например, дважды нажимать на кнопку, чтобы получить кусочек корма. Мышь учится пробираться через сложный лабиринт и обратно. Скиннер предвидел повсеместную «технологию поведения», в рамках которой можно было бы применять такие методы на людских сообществах.

Как сказал мне главный специалист по данным из очень известной образовательной компании Кремниевой долины, «обусловливание в большом масштабе крайне важно для новой науки о массовом проектировании человеческого поведения». Он считает, что смартфоны, носимые устройства и весь набор постоянно подключенных сетевых узлов в целом позволяют его компании изменять существенный диапазон поведения своих пользователей и управлять им. По мере того как цифровые сигналы отслеживают повседневную деятельность человека, компания постепенно нащупывает и совершенствует схему подкреплений – вознаграждений, похвал и просто упоминаний об успехе, которые могут надежно приводить к конкретным действиям пользователей, избранным компанией для распространения:

Цель всего, что мы делаем, – массовое изменение реального поведения людей. Мы хотим выяснить, как организовать изменение человеческого поведения, а затем хотим изменить то, как множество людей принимают свои повседневные решения. Когда люди используют наше приложение, мы можем фиксировать их поведение и выявлять хорошее и плохое [поведение]. Затем мы разрабатываем «методы вмешательства» или «кусочки данных», которые помогают отбирать хорошее поведение. Мы можем проверить, насколько действенны наши сигналы для них и насколько выгодны определенные виды их поведения для нас.

Хотя и можно представить себе автоматизированную модификацию поведения без участия надзорного капитализма, невозможно вообразить надзорный капитализм без модификации поведения вкупе с технологическими средствами для автоматизации этого процесса. Эта связка совершенно необходима для экономии за счет действия. Скажем, можно представить себе фитнес-трекер, автомобиль или холодильник, данные с которого и управление которыми доступны исключительно их владельцам, чтобы помочь им чаще выполнять физические упражнения, более безопасно управлять автомобилем или правильнее питаться. Но, как мы уже видели на множестве примеров из множества самых различных областей, возвышение надзорного капитализма уничтожило идею простой цепочки обратной связи, характерной для цикла реинвестирования поведенческой стоимости. В конце концов, дело не в самих устройствах; дело в веберовской «экономической ориентации», которая теперь определяется надзорным капитализмом.

Соблазнительность надзорных доходов ведет к непрерывному накоплению все более и более прогностических форм поведенческого излишка. Самый надежный источник предсказаний из всех – поведение, которое уже должным образом изменено в сторону гарантированного исхода. Слияние новых цифровых средств модификации поведения и новых экономических целей дает целый ряд новых методов создания и привлечения этих новых форм излишка. Показательно исследование под названием «Методы изменения поведения, реализованные в электронных консультантах по образу жизни». Ученые из Университета Техаса и Университета Центральной Флориды изучили тринадцать таких приложений и пришли к выводу, что устройства для мониторинга образа жизни «содержат широкий спектр методов изменения поведения, обычно используемых при клинических вмешательствах». Исследователи пришли к выводу, что операции по изменению поведения расширяются в результате их распространения на цифровые устройства и подключения к интернету. Они отмечают, что сама возможность простой обратной связи, разработанной потребителем и для потребителя, кажется безнадежно ускользающей, что приложения, изменяющие поведение, «поддаются <…> различным типам надзора» и что «официальных методов» безопасной и простой передачи данных «в этих приложениях, по-видимому, в настоящее время не существует»[805].

Вспомним, что экономист Google Хэл Вэриан нахваливал «новые применения» для больших данных, которые исходят из повсеместных компьютерных транзакций. Среди них он назвал возможность «непрерывного экспериментирования». Вэриан отмечал, что команда инженеров и специалистов по обработке данных Google постоянно проводит тысячи А/B-экспериментов, которые используют рандомизацию и контрольные группы для оценки реакций пользователя на сотни вариантов параметров страницы от макета до кнопок и шрифтов. Вэриан поддержал и превознес эти самозваные эксперименты, предупредив, что все данные мира «могут измерить лишь корреляцию, а не причинность»[806]. Данные показывают, что произошло, но молчат о том, почему это произошло. В отсутствие знания о причинно-следственных связях даже самые лучшие прогнозы являются лишь экстраполяциями прошлых закономерностей.

Отсюда понятно: последний решающий элемент, необходимый для построения высококачественных прогнозных продуктов – то есть таких, которые приближаются к гарантированным результатам, – зависит от знания причинно-следственных связей. Как говорит Вэриан, «если вы действительно хотите понять причинность, вы должны проводить эксперименты. И если вы проводите эксперименты непрерывно, вы можете непрерывно совершенствовать свою систему»[807].

Поскольку «система» должна поставлять прогнозы, «непрерывное совершенствование системы» означает сокращение разрыва между прогнозом и наблюдением с целью приближения к достоверности. В аналоговом мире подобные амбиции были бы слишком дороги, чтобы думать о практическом осуществлении, но, как замечает Вэриан, в сфере интернета «эксперименты могут быть полностью автоматизированы».

Вэриан щедро разрешает надзорным капиталистам взять на себя роль экспериментаторов, и это преподносится как очередной свершившийся между делом факт. В действительности же это отражает последний критический шаг надзорных капиталистов в радикальном утверждении за собой новых прав. На этом этапе развития императива прогнозирования надзорные капиталисты заявляют о своем праве на изменение чужого поведения с целью извлечения прибыли, проводимого методами, которые работают без ведома людей, обходя личное право на принятие решений и весь комплекс процессов саморегулирования, которые мы обобщенно именуем такими словами, как автономия и самоопределение.

Теперь я расскажу две истории о надзорных капиталистах как об «экспериментаторах», использующих асимметрию знаний, чтобы навязать свою волю ничего не подозревающим испытуемым, каковыми являются их пользователи. Экспериментальные данные, накопленные с помощью их односторонних зеркал, имеют решающее значение для разработки, тонкой настройки и изучения дальнейших перспектив развития коммерческих способов модификации поведения каждой из этих фирм. В экспериментах над пользователями, проведенных Facebook, и в игре дополненной реальности Pokmon Go (задуманной и выращенной в Google) мы видим, как прямо на наших глазах развиваются коммерческие средства изменения поведения. И то и другое совершенно по-новому сочетает в себе компоненты экономии за счет действия и методы подстройки, понуждения и обсусловливания, показывая нам воинов, притаившихся глубоко внутри троянского коня, – экономическую ориентацию, скрытую под завесой цифры.

II. Facebook сочиняет музыку

В 2012 году исследователи из Facebook поразили публику статьей с провокационным названием «Эксперимент по социальному влиянию и политической мобилизации с 61 миллионом участников», которая была опубликована в научном журнале Nature[808]. В этом контролируемом рандомизированном исследовании, проведенном в преддверии промежуточных выборов в Конгресс США 2010 года, исследователи ради эксперимента манипулировали социальным и информационным содержанием сообщений, связанных с голосованием, в новостных лентах почти 61 миллиона пользователей Facebook, одновременно наблюдая за контрольной группой.

Одной группе в верхней части новостной ленты показывалось сообщение, побуждавшее пользователя голосовать. В нем была ссылка на информацию о месте голосования, активируемая кнопка снадписью «Я проголосовал», счетчик, показывающий, сколько других пользователей Facebook сообщили о голосовании, и до шести фотографий из профилей друзей этого пользователя, которые уже кликнули по кнопке «Я проголосовал». Вторая группа получила ту же информацию, но без фотографий друзей. Третья, контрольная, группа не получала никаких специальных сообщений.

Результаты показали, что пользователи, получившие сообщение с фотографиями из профилей друзей, примерно на 2 % чаще нажимали кнопку «Я проголосовал», чем те, кто получил только информацию, и на 0,26 % чаще переходили к информации о месте голосования. Экспериментаторы из Facebook установили, что обмен сообщениями в социальных сетях является эффективным средством массовой подстройки поведения, поскольку он «напрямую влияет на политическое самовыражение, поиск информации и реальное поведение миллионов людей при голосовании», и пришли к выводу, что «показ знакомых лиц пользователям может резко повысить эффективность мобилизационного сообщения».

По подсчетам группы, благодаря экспериментальным социальным сообщениям на промежуточных выборах 2010 года на избирательные участки дополнительно пришло 60 000 избирателей и еще 280 000 избирателей проголосовали в результате эффекта «социальной заразительности», что дало в общей сложности 340 000 дополнительных голосов. В своих заключительных замечаниях исследователи утверждали:

мы продемонстрировали важность социального влияния в деле изменения поведения <…> наши результаты показывают, что онлайн-сообщения могут влиять на различные формы поведения в реальной жизни, что требует нового взгляда на роль социальных сетей в обществе…[809]

Эксперимент удался потому, что создавал социальные сигналы, которые «давали подсказки» пользователям или «подготавливали» их таким образом, чтобы настроить их поведение в реальном мире на конкретные действия, заданные «экспериментаторами». В процессе подобного экспериментирования возможности для экономии за счет действий обнаруживаются, оттачиваются и в конечном итоге институционализируются в виде компьютерных программ и алгоритмов, которые действуют автоматически, непрерывно, повсеместно и всепроникающе для достижения экономии за счет действия. Излишек Facebook направлен на решение одной задачи: как и когда вмешиваться в игру вашей повседневной жизни, чтобы изменить ваше поведение и тем самым резко повысить предсказуемость ваших действий прямо сейчас, в ближайшем или более отдаленном будущем. Проблема, стоящая перед надзорными капиталистами, состоит в том, чтобы научиться делать это эффективно, автоматически и, следовательно, экономно, как пишет бывший продакт-менеджер Facebook:

В какой-то момент его пребывания на сайте эксперименты проводятся на каждом пользователе. Это может быть рекламное объявление другого размера, или новые маркетинговые сообщения, или новые кнопки с призывами к действию, или его лента начинает генерироваться другими алгоритмами ранжирования <…> Фундаментальная цель большинства людей из Facebook, которые работают с данными, состоит в том, чтобы влиять на настроения и поведение людей. Все это время они работают над тем, чтобы вам больше нравились посты, чтобы вы чаще кликали по рекламе, проводили больше времени на сайте. Так работают сайты, так делают все, и все знают, что так делают все[810].

Публикация исследования Facebook вызвала ожесточенные споры, по мере того как эксперты и широкая общественность постепенно начинали осознавать беспрецедентные возможности Facebook – и других интернет-компаний – по убеждению, влиянию и в конечном счете фабрикации поведения. Джонатан Зиттрейн, гарвардский специалист по интернет-праву, признал, что теперь можно себе представить, что Facebook будет втихаря манипулировать выборами, используя средства, которые его пользователи не могут ни обнаружить, ни контролировать. Он охарактеризовал эксперимент Facebook как вызов «коллективным правам», который может подорвать «право народа в целом <…> пользоваться преимуществами демократического процесса…»[811].

Обеспокоенность общественности не смогла заставить Facebook отказаться от практики массового изменения поведения. В то самое время, когда в 2012 году шли споры по поводу эксперимента по социальному влиянию, специалист по данным из Facebook уже работал, в сотрудничестве с академическими учеными, над новым исследованием «Экспериментальное подтверждение массовой передачи эмоций в социальных сетях», отправленном для публикации в престижный журнал Proceedings of the National Academy of Sciences в 2013 году, где оно было отредактировано известным социальным психологом из Принстона Сьюзан Фиск и опубликовано в июне 2014 года.

На этот раз экспериментаторы «манипулировали тем, насколько люди (N = 689 003) были подвержены эмоциональным воздействиям в своей новостной ленте»[812]. Эксперимент строился как один из тех с виду невинных А/B-тестов. В этом случае одной группе показывали в ленте новостей преимущественно позитивные сообщения, а другой – преимущественно негативные. Идея состояла в том, чтобы проверить, может ли даже подсознательное воздействие определенного эмоционального содержания заставить людей изменить свое собственное поведение в социальной сети в соответствии с этим контентом. Ответ – может. Действительно ли пользователи чувствовали себя счастливее или печальнее, или нет, но тон их высказываний менялся вслед за новостной лентой.

Результаты эксперимента не оставляют сомнений в том, что тщательно продуманные, незаметные и неоспоримые подсознательные сигналы Facebook снова вышли за пределы экрана и проникли в повседневную жизнь сотен тысяч наивных пользователей, предсказуемо активировав определенные качества эмоционального выражения посредством процессов, действующих вне сознания испытуемых-людей, подобно тому, что некогда предписывал Стюарт Маккей в отношении галапагосских черепах и канадского лося (см. главу 7). «Эмоциональные состояния могут передаваться другим через эмоциональное заражение, заставляя ничего не подозревающих людей испытывать те же эмоции», – заявляют исследователи. «Онлайн-сообщения влияют на наш эмоциональный опыт, что может повлиять на различные формы поведения в реальной жизни». Команда назвала свою работу «одним из первых экспериментальных подтверждений спорного положения о том, что эмоции могут распространяться по сети», и они размышляли о том, что даже их относительно минимальные манипуляции имели измеримый эффект, пусть и небольшой[813].

О чем исследователи Facebook не упомянули, обсуждая результаты обоих экспериментов, так это о том, что восприимчивость человека к подсознательным сигналам и его или ее уязвимость к эмоциональному «заражению» в значительной степени зависят от эмпатии – способности понимать и разделять психическое и эмоциональное состояние другого человека, в том числе переживать его чувства и быть способным взглянуть на вещи его глазами, что иногда называют «аффективной» или «когнитивной» эмпатией. Психологи обнаружили, что чем больше человек способен поставить себя на место другого и представить чувства другого человека, тем более вероятно, что он будет подвержен влиянию подсознательных сигналов, включая гипноз. Эмпатия ориентирует людей на других людей. Она позволяет человеку погрузиться в эмоциональный опыт и откликаться на опыт других, включая неосознанное подражание выражениям лица или «языку тела» другого человека. Заразительный смех и даже заразительное зевание – примеры такого отклика[814].

Эмпатия считается необходимой предпосылкой для образования социальных связей и эмоциональных привязанностей, но она может также спровоцировать «заместительную тревогу», передающуюся от жертв или других людей, которым действительно плохо. Некоторые психологи называют эмпатию «рискованным преимуществом», потому что она побуждает сопереживать не только радости, но и боли других людей[815]. Успешная подстройка, проявившаяся в обоих экспериментах Facebook, является результатом эффективного использования естественной эмпатии, присутствующей среди его пользователей.

Исследователи из Facebook утверждают, что из полученных ими результатов следуют два вывода. Во-первых, для массовой и активной аудитории, такой как пользователи Facebook, даже небольшие воздействия «могут иметь большие совокупные последствия». Во-вторых, авторы предложили читателям представить, чего можно достичь с помощью более значительных манипуляций и при еще большем числе испытуемых, отметив важность своих результатов для «общественного здравоохранения».

Общественное возмущение и на этот раз было немалым. «Если Facebook может манипулировать эмоциями и заставить нас голосовать, то на что еще он способен?» – вопрошала газета Guardian. Журнал Atlantic цитирует редактора, которая готовила статью к публикации, несмотря на свои явные опасения[816]. Она сказала изданию, что, будучи частной компанией, Facebook не обязан придерживаться правовых стандартов, обязательных для экспериментов, проводимых академическими и государственными учреждениями.

Эти правовые нормы известны как Общее правило (Common Rule). Эти нормы, разработанные для защиты от злоупотребления экспериментатором своей властью, должны соблюдаться всеми исследованиями, получающими федеральное финансирование. «Общее правило» предусматривает соблюдение процедур информированного согласия, предупреждения причинения вреда, последующего разбора эксперимента с испытуемыми и прозрачности, и за применением этих правил следят группы ученых, известные как «внутренние комиссии по этике», существующие в каждом исследовательском учреждении. Фиск признала, что ее убедили доводы Facebook о том, что рассматриваемые экспериментальные манипуляции были ничем не примечательным продолжением стандартной практики корпорации по манипулированию новостными лентами людей. Как вспоминала Фиск, «Они сказали, что Facebook всегда манипулировал новостными лентами пользователей и не скрывал этого <…> Кто знает, какие еще исследования они проводят?»[817] Другими словами, Фиск согласилась, что эксперимент был просто продолжением стандартной для Facebook практики изменения поведения, которую тот вполне безнаказанно применяет уже какое-то время.

Специалиста по данным и основного автора работы, Адама Крамера, СМИ забросали сотнями запросов, что заставило его написать на своей странице в Facebook, что корпорацию действительно «заботят» эмоциональные последствия ее действий. Один из его соавторов, Джеффри Хэнкок из Корнелльского университета, сказал газете New York Times, что не понимал, что манипулирование новостными лентами, даже незначительное, заставит некоторых людей почувствовать себя ущемленными в правах[818]. Газета Wall Street Journal сообщила, что с момента своего создания в 2007 году группа по изучению данных Facebook провела более тысячи экспериментов и действовала практически без каких-либо ограничений и в отсутствие комиссии по этике. В статье в газете Guardian профессор психологии Крис Чамберс резюмировал, что «исследование Facebook рисует мрачное будущее, в котором академические исследователи уходят от этических ограничений, объединяясь с частными компаниями для проверки все более опасных или вредоносных воздействий»[819].

Через месяц после публикации исследования об эмоциональном заражении главный редактор журнала Proceedings of the National Academy of Sciences Индер М. Верма опубликовал «редакционную статью с выражением озабоченности» в отношении исследования Facebook. Признав легитимность стандартной защиты, что технически на Facebook «Общее правило» не распространяется, Верма добавил: «все же вызывает беспокойство тот факт, что сбор данных Facebook мог включать в себя практики, которые не полностью соответствуют принципам получения информированного согласия и возможности для участников отказаться от эксперимента»[820].

Из американских ученых самые всесторонние доводы в пользу того, что Facebook и другие компании, работающие в социальных сетях, должны придерживаться стандартов, представленных Общим правилом, опубликовал профессор права Университета Мэриленда Джеймс Гриммельман. Он полагал, что корпоративные исследования с большей вероятностью, чем академические, могут быть скомпрометированы серьезным конфликтом интересов, что делает соблюдение общих стандартов проведения экспериментов особенно важным и совсем не тем, что можно оставить на личное моральное усмотрение. Гриммельмана пугала возможность «этического „отмывания“ с помощью комиссий по этике», когда ученые смогут «обходить исследовательские этические нормы, если достаточно тесно сотрудничают с отраслевыми партнерами. Общее правило потонет в таких исключениях»[821].

Несмотря на свои твердые убеждения в этом вопросе, на последних страницах своего анализа Гриммельман признал, что даже самое всеобъемлющее применение «Общего правила» мало что сможет сделать для обуздания непомерной власти такой компании, как Facebook, которая регулярно и массово манипулирует поведением пользователей, используя средства, которые не поддаются обнаружению и, значит, наказанию. Подобно Фиск, Гриммельман осознавал существование более масштабного проекта экономии за счет действия, находящегося за пределами досягаемости для установленных правовых и социальных норм.

Много внимания привлекло письмо, опубликованное в журнале Nature, авторы которого – биоэтик Мишель Мейер с пятью соавторами, говорившие от имени двадцати семи других специалистов по этике – решительно вставали на защиту эксперимента Facebook. В письме утверждалось, что необходимость кодифицировать новые знания об онлайн-среде оправдывает эксперименты, даже если в них не соблюдаются или не могут соблюдаться общепринятые этические принципы проведения исследований на людях. Но доводы Мейер во многом строились на пророческом предостережении, что «крайняя реакция на это исследование <…> может привести к тому, что подобные исследования будут проводиться втайне <…> Если критики считают, что манипулирование эмоциональным содержанием в этом исследовании вызывает достаточную озабоченность, чтобы распространить на него правовое регулирование <…> то ту же озабоченность должна вызывать и стандартная практика Facebook…»[822]

Критики и защитники эксперимента сошлись лишь в одном: Facebook может легко показать норов, пригрозив действовать тайно, если регуляторы попытаются вмешиваться в его работу. Академическое сообщество испытывало тревогу перед лицом уже известного: Facebook владеет беспрецедентными средствами изменения поведения, которые работают скрытно, массово, и в полном отсутствии социальных или правовых механизмов, позволяющих обговаривать, оспаривать или контролировать их. Даже самое строгое применение Общего правила вряд ли изменит эти факты.

Когда ученые обещали созвать экспертные группы для рассмотрения этических вопросов, поднятых исследованиями Facebook, корпорация объявила о своих собственных планах по улучшению саморегулирования. Директор по технологиям корпорации Майк Шропфер признался, что он оказался «не готов» к подобной реакции общественности на исследование распространения эмоций, и допустил, что «кое-что нам следовало сделать иначе». Принятые компанией «новые правила» проведения исследований предусматривают четкие общие принципы, внутреннюю комиссию по этике, включение модуля о научно-исследовательских практиках в знаменитую интенсивную корпоративную программу ориентации и тренинга для новых сотрудников, а также веб-сайт для размещения опубликованных научных исследований. Эти наложенные на себя «правила» не поколебали фундаментального факта использования онлайн-сообщества Facebook в качестве необходимой питательной среды и конечной цели корпоративной экономии за счет действия.

Этот факт в конечном итоге подтверждается документом, добытым австралийской прессой в мае 2017 года. Спустя три года после публикации исследования по распространению эмоций газета Australian рассказала о конфиденциальном 23-страничном документе Facebook, составленном двумя его руководителями в 2017 году и предназначенном для рекламодателей из Австралии и Новой Зеландии. В отчете описываются корпоративные системы для сбора «психологической информации» о 6,4 миллиона старшеклассников и студентов, а также уже работающих молодых австралийцев и новозеландцев. В документе Facebook подробно описываются многочисленные способы использования корпорацией своих запасов поведенческого излишка для точного определения момента, когда молодой человек нуждается в «повышении уверенности» и потому наиболее уязвим для конкретной конфигурации рекламных сигналов и подводок: «отслеживая сообщения, фотографии, взаимодействия и активность в интернете, Facebook может вычислить, когда молодые люди „испытывают стресс“, „тревогу“ или „бессилие“, „нервничают“, чувствуют себя „глупо“, кажутся себе „проигравшими“, „никчемными“, „тупицами“ или „неудачниками“»[823].

Отчет раскрывает заинтересованность Facebook в использовании этого аффективного излишка в целях экономии за счет действия. В нем говорится о существовании подробной информации о «переменах настроения» среди молодых людей на основе «внутренних данных Facebook» и утверждается, что прогнозные продукты Facebook могут не только «следить за настроением», но и предсказывать, как будут выражаться эмоции в разные моменты в течение недели, сопоставляя каждой эмоциональной фазе подходящие рекламные сообщения в попытке максимизировать вероятность гарантированных исходов. «Эмоции, связанные с приятными ожиданиями, скорее всего, будут проявляться в начале недели, – подсказывает анализ, – в то время как рефлексивные эмоции усиливаются в выходные. С понедельника по четверг – укрепление доверия; выходные – для трансляции достижений».

Facebook публично отрицал эту практику, но Антонио Гарсиа-Мартинес, бывший продакт-менеджер Facebook и автор полезной книги о Кремниевой долине под названием «Обезьяны в бизнесе»[824], описал в газете Guardian рутинное применение таких методов и обвинил корпорацию в «циничной лжи». Его вывод: «Суровая реальность состоит в том, что Facebook ни за что не станет ограничивать подобное использование своих данных, если не поднимется такая шумиха, которую невозможно будет заглушить»[825]. Конечно, ни общественное возмущение попытками Facebook встроиться в эмоциональную жизнь своих пользователей, как это проявилось в исследовании эмоционального заражения, ни его обещание саморегулироваться не ослабили его коммерческий интерес к эмоциям пользователей или стремление корпорации систематически использовать это знание от имени и в сотрудничестве с ее клиентами. Этого не произошло, потому что не могло произойти, по крайней мере до тех пор, пока выручка компании связана с экономией за счет действия, диктуемой императивом прогнозирования.

Упорство Facebook снова напоминает нам о неумолимой поступи цикла изъятия. Facebook публично признал и принес извинения за свое известное экспериментальное вторжение в изменение поведения и манипуляцию эмоциями и обещал адаптацию, направленную на обуздание или смягчение этой практики. Между тем был преодолен новый порог вмешательства в тайны личной жизни. Потенциальное мастерство Facebook по части эмоциональных манипуляций стало предметом обсуждения и даже воспринималось как должное по мере наступления привыкания. Эксперты, будь то Фиск из Принстона, или критик корпорации Гриммельман, или ее защитник Мейер, полагали, что, если действия Facebook будут втиснуты в какие-либо новые нормативные рамки, корпорация просто продолжит делать то же самое втайне. Австралийские документы раскрыли одну из этих тайных практик, свидетельствующую о переходе к завершающей фазе цикла изъятия – перенаправлению действий на подпольные территории, защищенные непрозрачностью и непроницаемостью, в точности как и предвидели эти ученые.

Эксперимент Facebook по политической мобилизации показал, что, манипулируя уязвимостями пользователей к социальному влиянию, можно создать мотивационное условие («хочу быть похожим на моих друзей»), которое увеличивает вероятность того, что соответствующие сигналы, подталкивающие к действию – кнопка «Я проголосовал» – возымеют действие. Исследование эмоционального заражения эксплуатировало ту же ориентацию на социальное окружение. В этом случае Facebook встроил подсознательные сигналы в виде позитивного или негативного эмоционального языка, которые, в сочетании с мотивационным состоянием, вызванным социальным сравнением – «хочу быть похожим на друзей», – создало измеримый, пусть и слабый, эффект заражения. Наконец, австралийский документ по таргетированию рекламы свидетельствует о серьезности и сложности закулисных мер по усилению этого эффекта путем уточнения мотивационных условий. Он раскрывает не только масштаб и охват поведенческого излишка Facebook, но и заинтересованность корпорации в использовании своего излишка для точного определения в реальном времени моментов наибольшей уязвимости пользователя к таргетированию такой информации о брендах, которая, скорее всего, даст гарантированный результат.

Успех экспериментов Facebook демонстрирует, что подстройка через внушение может быть эффективной формой массовой удаленной стимуляции. Держать индивида и общество в неведении о происходящем было решающим условием для успеха Facebook в модификации поведения, как это и утверждал Маккей. Первый абзац исследовательской статьи об эмоциональном заражении превозносит эту хитрость: «Эмоциональные состояния могут передаваться другим через эмоциональное заражение, заставляя людей испытывать те же эмоции без осознания их источника». Молодые австралийские горожане также не подозревают, что их страхи и фантазии, в точно отмеренных дозах, используются для достижения коммерческого результата в час и минуту их наибольшей уязвимости.

Эта скрытность не является ни случайным совпадением, ни побочным явлением – на деле это один из несущих элементов всей постройки надзорного капитализма. Осознание индивидом происходящего – враг телестимулирования, поскольку оно – необходимое условие мобилизации когнитивных и экзистенциальных ресурсов. Не может быть автономного суждения без осознания. Согласие и несогласие, участие и отказ от участия, сопротивление или сотрудничество – ни одно из этих автономных решений не может быть принято без осознания.

Существует богатая и разнообразная исследовательская литература, освещающая предпосылки, условия, последствия и проблемы человеческой автономии как всеобщей потребности. Способность к самоопределению понимается как необходимая основа для многих видов поведения, которые мы связываем с такими критически важными способностями, как эмпатия, воля, рефлексия, личностное развитие, аутентичность, целостность, познание, достижение целей, контроль над импульсами, творческий подход и поддержание долговременных близких отношений. «В этом процессе подразумевается „я“, которое устанавливает цели и стандарты, осознает свои собственные мысли и поведение и способно их изменить, – пишут профессор университета штата Огайо Дилан Вагнер и профессор Дартмута Тодд Хизертон в работе, посвященной центральному месту самосознания в самоопределении. – Действительно, некоторые теоретики предполагают, что основная цель самосознания состоит в том, чтобы сделать возможной саморегуляцию». Каждая угроза человеческой автономии начинается с посягательства на осознание, «что уничтожает нашу способность владеть своими мыслями, эмоциями и желаниями»[826].

Первостепенная значимость самосознания для здоровой саморегуляции также подчеркивается в работе двух исследователей из Кембриджского университета, которые разработали шкалу для измерения «восприимчивости человека к убеждению». Они обнаружили, что наиболее важным отдельным фактором, определяющим способность человека противостоять убеждению, является то, что они называют «способностью заблаговременного продумывания действий» (the ability to premeditate)[827]. Это означает, что люди, которые, опираясь на самосознание, продумывают последствия своих действий, более склонны прокладывать свой собственный курс и значительно менее уязвимы для различных методик убеждения. Самосознание также играет роль во втором по важности факторе на их шкале – приверженности (commitment). Люди, которые сознательно привержены курсу действий или набору принципов, с меньшей вероятностью подадутся убеждению сделать что-то, что нарушает эту приверженность.

Мы уже видели, что демократия угрожает надзорным доходам. Практика Facebook позволяет сделать не менее тревожный вывод: надзорным доходам угрожает само человеческое сознание, поскольку осознание происходящего ставит под угрозу весь проект изменения поведения. Философы признают «саморегуляцию», «самоопределение» и «автономию» проявлениями «свободы воли». Слово автономия – греческое по происхождению и буквально означает «саморегулирование». Противоположность ей – гетерономия, что означает «регулирование со стороны других». Конкурентные нужды экономии за счет действия означают, что надзорные капиталисты должны использовать все доступные средства для замены автономных действий гетерономными.

В каком-то смысле нет ничего примечательного в наблюдении, что капиталисты предпочитают людей, которые соглашаются работать и потреблять так, как это выгоднее всего капиталу. Достаточно вспомнить разрушительные последствия кризиса ипотечного кредитования, который спровоцировал финансовый кризис 2008 года, или ежедневное попрание человеческой автономии со стороны бесчисленных бизнесов – от авиакомпаний до страховых компаний, – чтобы найти множество иллюстраций этого очевидного факта.

Однако опасно было бы питать иллюзию, что надзорные капиталисты лишь продолжают эту тенденцию. Структурное требование извлечения экономии за счет действия превращает средства изменения поведения в двигатель роста. Никогда прежде в истории частные корпорации, сконцентрировавшие в своих руках беспрецедентные богатства и власть, не могли свободно осуществлять экономию за счет действия при поддержке всепроникающей глобальной архитектуры повсеместной компьютеризации и контроля, созданной и поддерживаемой всеми передовыми научными ноу-хау, которые только можно купить за деньги.

Самое показательное, что заявление Facebook о своем праве на эксперимент означает притязание надзорных капиталистов на власть над будущим ходом человеческого поведения. Заявляя о своем праве тайно, ради собственной выгоды изменять человеческие действия, надзорный капитализм по сути изгоняет нас из нашего собственного поведения, смещая локус контроля над будущим временем с «я буду» на «ты будешь». Каждый из нас может идти своим путем, но экономия за счет действия означает, что этот путь уже сформирован экономическими императивами надзорного капитализма. Борьба за власть и контроль в обществе больше не связана со скрытыми фактами класса и их связи с производством; она касается скрытых фактов автоматически осуществляемой модификации поведения.

III. Pokmon Go! Пошел!

Стоял на редкость изнурительный июльский полдень 2016 года. Много часов Дэвид вел заседание по спорному страховому случаю в пыльном зале суда в Нью-Джерси, где из-за скачка напряжения накануне ночью вышла из строя хрупкая система кондиционирования. Затем дерганая пятничная поездка домой, когда чья-то проклятая машина сломалась из-за жары и превратила некогда подававший надежды поток в стоячее болото. Очутившись наконец дома, Дэвид поставил машину в гараж и направился прямиком к боковой двери, ведущей в прачечную и дальше на кухню. Мгновенно его охватила волна прохладного воздуха, как будто он рухнул в океан, и впервые за весь день он глубоко вдохнул. В записке на столе говорилось, что жена вернется через несколько минут. Он глотнул воды, налил себе выпить и поднялся по лестнице, намереваясь принять продолжительный душ.

Теплая вода едва успела ударить в его ноющую спину, как прозвенел дверной звонок. Она забыла ключ? Выключив душ, он накинул футболку и шорты и побежал вниз, открыв входную дверь паре подростков, которые стали размахивать перед его лицом сотовыми телефонами. «Эй, у вас покемон на заднем дворе. Это наш! Ничего, если мы зайдем туда и поймаем его?»

«Кто-кто?» Он понятия не имел, о чем они говорят. Скоро он будет знать об этом все.

В тот вечер звонок Дэвида звонил еще четыре раза: это были совершенно незнакомые люди, жаждавшие зайти в его двор и выражавшие недовольство, получая отказ. На протяжении всех последующих дней и вечеров на лужайке перед его домом собирались кучки охотников за покемонами, одни из которых были молоды, другие давно лишились этого оправдания. Они пялились в свои телефоны, показывали куда-то и кричали, осматривая его дом и сад на предмет существ «дополненной реальности». Глядя на этот маленький кусочек мира через свои телефоны, они могли видеть свою добычу-покемона, но лишь за счет полной слепоты ко всему остальному. Они не замечали ни семейного жилища, ни границ вежливости, которые делали его сокровенным пространством для живших там мужчины и женщины. Вместо этого игра захватила дом и окружающий мир, превратив все это в огромную сетку GPS-координат. Это было новое слово в коммерции – экспроприация имущества в коммерческих целях, когда реальность превращается в безграничные объемы пустого пространства, из которых можно выжимать доходы ради обогащения других. Давид не мог понять: Когда это кончится? Кто дал им право? Куда звонить, чтобы прекратить это?

В момент, когда его выдернули из душа, он, неведомо для себя, присоединился к жителям английской деревни Бротон, которые вышли на улицы в 2009 году, протестуя против вторжения снабженных камерами автомобилей Просмотра улиц Google. Как и их, его внезапно втянули в состязание с экономическими императивами надзорного капитализма, и, как и они, он скоро поймет, что звонить некуда, нет телефона службы спасения, по которому можно экстренно уведомить соответствующие инстанции об ужасной ошибке, поселившейся на его лужайке.

Как мы видели в главе 5, тогда, в 2009 году, вице-президент по продукту Карт Google и босс Просмотра улиц Джон Ханке проигнорировал протестующих Бротона, настаивая на том, что только он и Google знают, как лучше, и не только для Бротона, но и для всех остальных. Теперь здесь, на следующем рубеже надзорного капитализма, снова был Ханке, на этот раз в качестве основателя компании Niantic Labs, стоящей за Pokmon Go. Ханке, как мы помним, сохранял твердое намерение овладеть всем миром, нанеся его на карту. Он основал Keyhole, стартап спутниковой картографии, финансируемый ЦРУ и позже приобретенный Google и переименованный в Google Планета Земля. В Google, он был вице-президентом по Картам Google и главным действующим лицом в противоречивой попытке компании реквизировать общественные и частные пространства с помощью Просмотра улиц.

Ханке рассказывает, что Pokmon Go родился из Карт Google, из которых вышла также большая часть первоначальной команды разработчиков игры[828]. Больше того, на этом новом этапе вторжения к Ханке присоединился тот загадочный инженер Просмотра улиц, Мариус Милнер. К 2010 году Ханке создал собственную стартовую площадку в виде Niantic Labs, все еще в материнском лоне Google. Его целью была разработка игр «параллельной реальности», способных следить за людьми и направлять их в тех самых пространствах, на которые так дерзко претендовал для своих карт Просмотр улиц. В 2015 году, после создания корпоративной структуры Alphabet и много времени спустя после разработки Pokmon Go, Niantic Labs была официально учреждена как независимая омпания с финансированием в размере 30 миллионов долларов США, получаемым от Google, Nintendo (японской компании, которая первоначально поддерживала Pokmon на своих устройствах Game Boy в конце 1990-х) и Pokmon Company[829].

Ханке уже давно понял, что игровой формат – мощное средство достижения экономии за счет действия. Еще работая в Google, он сказал интервьюеру: «Больше 80 % людей, которые владеют мобильным устройством, утверждают, что играют на нем в игры <…> часто это занятие номер 1 или номер 2… так что мы считаем, что для Android как операционной системы, а также и для Google, важно внедрять инновации и быть лидерами в <…> будущем мобильных игр»[830].

Стоит отметить, что Ханке назвал свою группу в честь торгового парусника XIX века, погибшего из-за жадности. Niantic был продан и перепрофилирован для более прибыльного китобойного промысла, когда в 1849 году он отправился в Сан-Франциско и к китобойным угодьям северной части Тихого океана. Капитан корабля сделал незапланированную остановку в Панаме, чтобы взять на борт сотни людей, привлеченных Калифорнийской золотой лихорадкой, каждый из которых был готов добавить лишний доллар за тесные и вонючие каюты китобойного судна. Жадность капитана оказалась роковой для судьбы корабля, когда эти пассажиры заразили золотой лихорадкой и экипаж корабля. По приходе в Сан-Франциско моряки бросили капитана и судно и отправились на золотые прииски. Не имея возможности продолжить путь, капитан был вынужден продать корабль за гроши, оставив его втиснутым глубоко в песчаные отмели у подножия улиц Клэй и Монтгомери. В 2016 году Ханке подхватил дело той мятежной команды. Его Niantic взял курс на золотые прииски новой эпохи, на передовые рубежи последней волны завоеваний императива прогнозирования – экономии за счет действия.

Pokmon Go Ханке был выпущен в июле 2016 года и должен был дать новый ответ на вопрос, стоящий перед инженерами и учеными, формирующими проект надзорного капитализма: как быстро и массово включить человеческое поведение, направив его к гарантированным исходам? В своем зените, летом 2016 года, Pokmon Go был воплощением всех мечтаний надзорного капиталиста, соединяя в себе масштаб, охват и активацию действий, непрерывно создавая источники поведенческого излишка, и предоставляя свежие данные для уточнения карт внутренних и наружных, общественных и частных пространств. Самое главное, он предоставил живую лабораторию для изучения массового телестимулирования, где владельцы игры учились автоматически обусловливать и направлять коллективное поведение, подгоняя его к требованиям работающих в реальном времени рынков поведенческих фьючерсов, и проделывая все это без ведома пользователей. В подходе Ханке экономия за счет действия достигается благодаря самой динамике игры.

В созданную в Niantic новую игру надо было «играть» в реальном мире, а не на экране. Идея состояла в том, что игроки должны «выйти на улицу» для «пеших приключений» в открытых пространствах городов, поселков и пригородов[831]. Игра основана на «дополненной реальности» и строится подобно охоте за сокровищами. Установив приложение от Niantic, вы используете GPS и камеру смартфона для охоты за виртуальными существами, называемыми покемонами. Их фигуры появляются на экране вашего смартфона так, словно они находятся рядом с вами в реальной обстановке: на заднем дворе ничего не подозревающего человека, на городской улице, в пиццерии, в парке, в аптеке. Поимка покемона вознаграждается игровой валютой – конфетами и звездной пылью, – а сам покемон используется для сражений с другими пользователями. Конечная цель состоит в том, чтобы собрать полный набор из 151 покемона, но по ходу игры игроки зарабатывают «очки опыта», последовательно поднимаясь по уровням опыта. На пятом уровне игроки могут присоединиться к одной из трех команд, чтобы сразиться с покемонами в специально отведенных местах, называемых спортзалами.

Подготовка началась еще за несколько лет до этого в виде Ingress, первой мобильной игры Niantic, разработанной, чтобы играть в реальном мире. Выпущенная в 2012 году, Ingress была предшественником и полигоном для испытания возможностей и методов, которые воплотятся в Pokmon Go. Игра заставляла пользователей передвигаться по городам и поселкам, чтобы находить и контролировать назначенные «порталы» и захватывать «территории», пока владельцы игры, используя GPS, отслеживали перемещения пользователей и составляли карту территорий, через которые те проходили.

Ханке размышлял над тем, чему он и его команда научились благодаря Ingress. Самым важным было «удивление» команды Niantic, когда они поняли, насколько сильно «меняется поведение игроков»[832]. Ханке осознал, что семена поведенческой модификации были заложены в правилах игры и социальной динамике:

Если вы хотите превратить мир в игровое поле, места, с которыми вы хотите, чтобы люди взаимодействовали, должны иметь определенные характеристики <…> Должны быть причины, по которым игрок может туда пойти <…> Игра задействует их и подталкивает вас к таким взаимодействиям[833].

Один из пользователей, чье имя в Ingress было Spottiswoode, приводит пример:

Когда я еду на велосипеде, я останавливаюсь рядом с тем местом, которое раньше уже обыскивал, где был слабый вражеский портал. Я атакую, используя накопленную XM («экзотическую материю»), чтобы уничтожить вражескую инфраструктуру <…> Во встроенном чате Ingress игрок по имени Igashu хвалит мою работу. «Хорошо поработал, Spottiswoode», – говорит он. Я доволен собой и двигаюсь дальше, обдумывая штурм следующих вражеских порталов[834].

По словам Ханке, Pokmon Go будет разработан, чтобы использовать то, что, как теперь понимает команда, является ключевыми источниками мотивации, побуждающими игроков изменить свое поведение: социальное игровое сообщество, основанное на действиях в реальном мире[835].

Все игры обставляют поведение правилами, вознаграждая одни формы действий и наказывая другие, и Niantic не первая из них, которая использует форму игры в качестве средства для изменения поведения своих игроков. Действительно, сегодня огромный интерес вызывает такой подход к поведенческой инженерии, как «геймификация», которой уже посвящен целый корпус академической и популярной литературы[836]. По словам профессора Уортонской школы бизнеса Кевина Вербаха, игры включают в себя три уровня действия. На самом высоком уровне находится «динамика», управляющая мотивационной энергией игры. Это могут быть эмоции, вызванные соревнованием с другими участниками или разочарованием, убедительным сюжетом, структурой последовательных этапов игры, которая создает опыт развития и продвижения к высшей цели, или человеческими отношениями, которые порождают такие чувства, как командный дух или агрессия. Следующий уровень – «механика». Это процедурные строительные блоки, которые управляют ходом игры, а также создают вовлеченность. Например, игра может быть структурирована как состязание с другими участниками или одиночный вызов, играться по очереди или вместе, как серия транзакций или «победитель получает все», как командный спорт или индивидуальное достижение. Наконец, есть игровые «компоненты», которые реализуют механику. Это наиболее заметные аспекты игры: точки, обозначающие прогресс, квесты, предложенные в виде заранее определенных задач, «значки», обозначающие достижения, «таблицы лидеров», визуально отображающие успехи всех игроков, «битва с боссом», означающая кульминацию уровня, и так далее[837].

Страницы: «« 23456789 »»

Читать бесплатно другие книги:

Книга о том, как разумные существа помогают друг другу развиваться и выживать, преодолевая трудности...
Только обретая власть над своим сознанием, эмоциями, энергией и телом, можно обрести власть над врем...
Смерть знаменитого писателя Алана Конвея поставила точку в редакторской карьере Сьюзен Райленд. Тепе...
Самая страшная тюрьма – та, что внутри тебя…Девочка-детоубийца… Как такое возможно? Автор, детский п...
От всемирно известного автора, чьи романы публикуются более, чем в 120 странах. Моментальный бестсел...
Почти весь набор наших установок, например человеческое равенство и достоинство, забота о слабых, ос...