Все компьютеры, включая «Элизу», не прошли тест Тьюринга. Бесконечное разнообразие нюансов человеческого общения пока не поддается программированию. Проще говоря, компьютеры еще не обладают чувствами, необходимыми, чтобы подняться на эмоциональный уровень человеческого общения.
Мы очень медленно ползем к этой цели. Существует огромная трудность на пути обучения компьютеров даже поверхностному сопереживанию. Наша эмоциональная экспрессия бесконечно сложна и включает в себя огромное количество выражений и эмоций: усталое выражение лица неудачно запрограммированный компьютер может прочитать как выражение «несчастья».
То, что воображал себе Тьюринг (интеллигентный компьютер, способный играть в человеческие игры хотя бы приблизительно как реальный человек), сейчас называют «аффективной технологией». Эти технологии активно разрабатываются. «Аффективный» — любопытное словечко, но в данном случае оно подходит как нельзя лучше. Слово напоминает нам об аффектации41, о настроении и чувствах, но надо помнить, что происходит это слово от латинского afficere — «влиять» или (звучит зловеще) «навести болезнь».
Совсем недавно группа ученых Массачусетского технологического института приблизилась к Святому Граалю42 afficere — перевела целый спектр человеческих эмоций в двоичный компьютерный код.
* * *
Помимо роботов, способных поддерживать компьютерный чат, мы располагаем программами, умеющими прослеживать положение 24 точек лица, что позволяет идентифицировать эмоциональное состояние человека и порождать соответствующие реакции машины. Кроме того, существуют Q-сенсоры — браслеты, измеряющие уровень «эмоционального возбуждения» по температуре и электропроводности кожи.
Главная проблема, однако, остается нерешенной. Говорим ли мы об «аффективных компьютерах» или о «компьютерном сопереживании», на базовом уровне мы все равно обсуждаем технологии, распознавание образов и более сложную сферу глубинного анализа данных. Тем не менее цель — «гуманизация» интерфейса. А ее невозможно достичь, не решив грандиозную задачу пропуска массы живого опыта через мелкую программную сеть.
Многие умы, работающие на переднем крае этой отрасли, собрались в Массачусетском технологическом институте, на факультете Media Lab, где они (по их собственным словам) «изобретают будущее». Я познакомился с одним из сотрудников Media Lab Картиком Динакаром, который по совместительству работает в «Майкрософт», помогая фирме усовершенствовать поисковую систему Bing. («Каждый раз, когда я набираю имя Хиллари Клинтон, — говорит он, — ответ вы получаете благодаря мне».)
Динакар — симпатичный и улыбчивый молодой человек двадцати восьми лет с густой копной черных волос. Как и Аманда Тодд, он не понаслышке знаком с травлей в детском коллективе. Его не любили, когда он был подростком, так как он был ботаником и считался помешанным на компьютерах. От травли он прятался в сети. «Я писал посты в блог и... да, знаете, мне становилось легче. Я думаю, что именно поэтому люди продолжают этим заниматься, поэтому они пишут в Twitter и подобные места. Думаю, что в сети люди ищут сочувствия».
Чувство непохожести у Картика усиливается его синестезиями. Синестезия — это способность органов чувств наряду со специфическими для них ощущениями воспринимать и ощущения, соответствующие другим органам чувств43. В какой-то степени мы все подвержены этому явлению. Мозг младенца в наибольшей степени склонен к синестезии. Дети в возрасте двух-трех месяцев обладают способностью к смешанным ощущениям. Однако в редких случаях такое состояние сохраняется и в более старшем возрасте. Если вы назовете Динакару число семь, он увидит определенный цвет. Пятница всегда окрашена в темно-зеленые тона. Воскресенье неизменно связано с черным цветом.
Естественно, эта особенность делает Динакара идеальным членом команды Media Lab. Так называемый компьютерный ботаник с мозгом, в котором образовались и сохранились нетипичные связи, — это как раз то, что нужно бастиону междисциплинарного научного подхода.
Когда осенью 2010 года Картик начал работать над докторской диссертацией, у него, как он вспоминает, «едва не лопнули мозги». Докторантам предложили представить самостоятельные проекты, но ему ничего не приходило в голову. «Меня совершенно не занимало то, что интересовало других. Не было никаких идей. Я уже думал, что меня отчислят».
Но однажды вечером, сидя дома, Динакар по телевизору услышал сообщение Андерсона Купера о Тайлере Клементи, восемнадцатилетнем студенте-скрипаче. Клементи бросился с моста Джорджа Вашингтона и утонул в реке Гудзон. Сокурсник Клементи, живший с ним в одной комнате в общежитии, показал своим друзьям запись того, как Клементи целуется с каким-то парнем. В программе выступил вездесущий доктор Фил, который поговорил с Купером о тяжелых последствиях кибертравли, которые не исчезают так же быстро, как последствия травли «в реальной жизни»: «Такой человек, объект травли, думает: ”Я опозорен и уничтожен — навсегда и непоправимо”. Это такое глубокое отчаяние, что оно может довести человека до самоубийства... Самое главное для жертвы и самое тяжелое — это то, что его позор и унижение видел весь мир. Жертва уверена, что все, кто это видел, отреагируют так же, как человек, который выставил его на всеобщее обозрение». Динакар смотрел программу и думал, что должен найтись способ пресекать такую жестокость, отслеживать неприемлемое сетевое поведение и устранять записи и посты его носителей.
Большинство социальных сайтов оставляют эту проблему на усмотрение сетевого сообщества. В Facebook, Twitter и подобных сетях есть кнопка, которая позволяет «пометить это как неприемлемое», если пользователь не одобряет контент. В нашу эпоху краудсорсинга, апофеозом которого стала «Википедия», такая общественная модерация не лишена здравого смысла, и, возможно, иногда это соответствует действительности44. «Но на самом деле происходит следующее: все эти отметки сливаются в один поток и направляются в команду модераторов, — объяснял мне Динакар, — которые должны их просмотреть. Никого в сети не банят автоматически, поэтому возникает большая проблема: каким образом справиться с восемьюстами миллионами пользователей, которые помечают флажками посты друг друга?» (В самом деле, у Facebook более миллиарда пользователей, действиями которых надо как-то управлять.) «Правда заключается в том, что команды модераторов смехотворно малы в сравнении с объемом контента, который подлежит модерированию. Понятно, что такая задача им не под силу. Я понял, что модераторам должна помочь технология. Мне даже показалось странным, что никто не работает над этой проблемой».
Самый элементарный алгоритм, который ищет признаки оскорбительного поведения, может отмечать такие слова, как «педик» или «шлюха». Но он не в состоянии поместить это слово в надлежащий контекст. Например, такой алгоритм способен пометить данный абзац как оскорбительный просто потому, что в нем содержатся эти слова. Однако наш мозг и наш рассудок не работают по принципу «вкл.-выкл.» Постижение смысла требует тонкого понимания контекста, а с этим у компьютера всегда возникают проблемы. Динакар решил создать способ идентифицировать темы. «Мозг, — сказал он, — это полином45. Другими словами, мы мыслим, комбинируя несколько понятий в определенном порядке и последовательности, а не распознавая отдельные слова. Если, например, я скажу парню, что ему пойдет губная помада, то компьютер не расценит это как оскорбление. Но человек поймет, что это издевка». Динакар захотел научить компьютер такому распознаванию.
Решение пришло в форме латентного размещения Дирихле (latent Dirichlet allocation, LDA), сложной модели семантического анализа текстов, разработанной в 2003 году. Модель позволяет обнаруживать темы внутри бесконечного числа словесных комбинаций, выбрасываемых мозгом. LDA полиномиально, как и наш мозг, и работает «с мешком неявных ассоциаций», как выразился Динакар. Он начал с простого допущения о том, что такой мешок существует: «Если нам удастся уловить дифференциал силы между людьми, то нам удастся искоренить и случаи травли».
Работа едва началась, когда Динакар получил письмо из управления делами президента США с вопросом, не придет ли он на совещание в округе Колумбия. Картик ответил утвердительно.
На совещании он познакомился с Анешем Чопрой, только что вступившим в должность главного управляющего США по развитию технологий. Чопра был назначен руководителем комитета по борьбе с травлей в интернете и пригласил Динакара участвовать в работе комитета. Три года спустя Белый дом поддержал новый проект Динакара под названием National Helpline (Национальная линия помощи). Этот проект продвигался усилиями как государственных, так и неправительственных организаций. Программа предусматривала работу с миллиардами отчаянных записок, вложенных подростками в цифровые бутылки и брошенные в волны всемирной сети. National Helpline сначала привлекает для анализа проблем, содержащихся в тексте писем, искусственный интеллект, затем — необходимые ресурсы и вырабатывает конкретные меры в связи с каждой проблемой. Получилась самая человечная нечеловеческая система. Рвение организации отчасти подогревается разочарованием Динакара в ограниченных возможностях традиционной психиатрии. Последняя в каждом научном исследовании, как правило, изучает только одну проблему и часто склонна обращаться к прошлому. В психиатрии, кроме того, принята очень расплывчатая терминология. Извлечь из нее полезные данные решительно невозможно, подчеркивает Динакар. «Думаю, что это очень своеобразная отрасль».
В противоположность этому National Helpline Динакара вдобавок к созданию автоматизированного конкретного совета накопит огромное количество данных, которые будут храниться и анализироваться в своего рода банках электронного здоровья. «Мы станем скрупулезно анализировать каждый случай, — говорит Динакар. — Возможно, это поможет психиатрии превратиться в более определенную науку. Мы думаем над этим, и нам предстоит еще так много сделать... Мы сможем анализировать фотографии людей и диагностировать у них депрессию с такой точностью, с какой это еще никогда не делалось».
Сведение нашей личной жизни к совокупности простых данных заключает в себе риск скатиться к игре по правилам Большого брата, когда алгоритмы Динакара будут прочесывать интернет на предмет недружественного поведения и предлагать те или иные меры исправления»46.
Алессандро Аквисти, ученый из Университета Карнеги — Меллона, показал, что в некоторых случаях программа распознавания лиц может проанализировать фотографию человека и в течение тридцати секунд определить номер его карточки социального страхования. Сравним это с алгоритмами, предложенными Динакаром, и я смогу точно описать вам эмоциональное состояние человека, которого я, допустим, сфотографирую на улице своим телефоном. Динакар превосходно осведомлен о конфиденциальности, условиями которой обставлены все наши сетевые излияния, но считает, что это дело политиков. «У меня нет ответа на этот вопрос, — сказал он мне. — Думаю, что все зависит от того, как используется та или иная технология. Но я не знаю ответа на то, как ее надо использовать»47. Полагаю, что ответа на этот вопрос не знает никто. В стремлении к признанию и связям — ко всем этим повышениям статуса и загрузке фотографий с метками географических координат — мы редко задумываемся, насколько откровенными становятся наши «исповеди». Мы не интересуемся тем, какому органу власти передаем свои признания. Причина в том, что само средство исповеди — технологические устройства — выглядит на редкость дружелюбным. Динакар создает более приветливый сетевой мир, и это хорошо. Но мы должны критически относиться к алгоритмическому управлению.
* * *
В каком-то смысле Динакар и его коллеги из Media Lab стремятся воплотить мечту Алана Тьюринга. «Я хочу создать компьютер, способный к сопереживанию, — сказал мне в конце нашей беседы Динакар. — Я не хочу никого банить. Я просто хочу... чтобы мир перестал быть местом одиночества». Конечно, чтобы компьютеры, обрабатывающие эмоции, функционировали так, как желают их создатели, нам надо быть готовыми отдаться на их милость.
Насколько далеко может зайти это проникновение вглубь алгоритма? Насколько хорошо будут о нас заботиться? «Я сам иногда бываю чрезмерно импульсивным», — говорит Динакар. Он считает, что наступит день, когда такие технологии, как программное обеспечение, над которым он работает, сможет помочь всем нам справляться с различными основными инстинктами. «Я бы хотел, чтобы компьютер читал мои электронные письма и предупреждал о возможных последствиях, прежде чем я успею нажать кнопку “отправить”. Я хочу иметь компьютер, который иной раз советовал бы мне сделать пять глубоких вдохов. Мне хочется иметь технологию, которая учила бы меня самоконтролю и самообладанию».
Что-то во мне резко воспротивилось такому вмешательству в мое личное пространство. Неужели мы хотим, чтобы нами управляли так абстрактно, покровительственно и количественно?
Потом я подумал об Аманде Тодд и спросил себя: помогли бы ей такие сторожевые псы? Только в одном из шести случаев самоубийств люди оставляют предсмертные записки. Но установлено: трем четвертям попыток суицида предшествуют те или иные жесты отчаяния со стороны самоубийцы, только мы, невнимательные люди, не умеем их распознать. Иногда, конечно, эти признаки бывают абсолютно прозрачными. Например, Тайлер Клементи написал на своей странице в Facebook: «Простите, но я прыгну с моста Джорджа Вашингтона». Порой сигнал бывает не таким отчетливым. Видеоролик Аманды Тодд говорил лишь о тяжелейшей депрессии. Что мы можем сделать, когда такие предостерегающие сигналы попадают в бесчувственный интернет? Разве не стоит хотя бы попытаться сделать человечным то пространство, которому мы доверяем так много сокровенного? Программа, над которой работает Динакар, сможет помочь тем, кто к ней обратится. Но возникает еще одно затруднение: выходя в интернет, мы отдаемся на милость сетевых механизмов, получаем цифровую повязку на цифровую рану.
Мы скармливаем себя машинам, надеясь, что некий алгоритм переварит хаос наших переживаний и слепит из него нечто членораздельное, более значимое, чем «мешок ассоциаций», коим мы себя видим. При этом подробности личной жизни не приходится вытаскивать из нас клещами. Мы делаем все сами, добровольно.
Нам нравится быть публичными персонами, убеждаться в собственном существовании, нарушая при этом оглушительную тишину, которая в противном случае заполнила бы нашу жизнь. Возможно, девочки-подростки, заполняющие интернет своими аватарами в сопровождении сотен селфи (автофотопортретов, сделанных с телефона на расстоянии вытянутой руки), представляют собой крайний случай этого явления. Причем позы у них обычно вызывающие — и это тренд Facebook (социолог Бен Эггер характеризует его фразой «мужественный взгляд стал заразительным»). Однако Нора Янг в своей книге The Virtual Self пишет, что пламенное стремление к документальному самозапечатлению простирается далеко за пределы тщеславия проблемных девочек-подростков. Некоторые носят на себе устройства, регистрирующие все движения и фазы сна, а затем выкладывают результаты в сеть, на сайты, посвященные сравнению физиологических констант. Другие выкладывают в интернет отчеты о своей сексуальной или физической активности. Мы «отмечаемся» в каких-то местах, пользуясь системой GPS, делимся своими размышлениями, отсылаем в интернет фотографии блюд и коктейлей перед тем, как их съесть и выпить, — и делаем это с такой же самоотверженностью, с какой религиозные люди стремятся к благодати. Уделяя массу внимания технологиям, мы преднамеренно и целенаправленно выкладываем в интернет информацию — бесплатно и круглосуточно. Мы поем гимны наследникам машины Тьюринга, которые теперь не столько занимаются нейтральными вычислениями, сколько отправляют в свои недра наши праздники, трагедии и мельчайшие житейские подробности. Мы выкладываем в интернет видео с детьми, открывающими рождественские подарки, людьми средних лет, сидящими на стульях от IKEA, влюбленными, вычурно оформляющими предложение руки и сердца.