Есть вещи, которые невозможно рассказать ни друзьям, ни родителям. Их можно рассказать ИИ (искусственному интеллекту). Он даст совет, в котором ты можешь быть уверен… Я думаю, что такого робота стоит запрограммировать предыдущим знанием о такой ситуации и о том, как из нее выбраться. Это могут быть ваши знания, знания ваших друзей, которые помогут найти правильное решение. Я знаю многих подростков, запутавшихся в своих эмоциях и поэтому делающих серьезные ошибки.
Правда, такого робота для Говарда пока не создали.
* * *Почти библейские попытки снабдить компьютеры эмоционально окрашенным разумом – «вытащить» их из тьмы – давно занимали человеческое воображение и делятся на две переплетающиеся между собой категории. В одной, описанной, например, Мэри Шелли в романе «Франкенштейн, или Современный Прометей»[37], появление искусственного интеллекта имеет страшные последствия вопреки благим намерениям его создателей. Во второй категории мы сталкиваемся с роботом как со спасителем или бескорыстным помощником, таким, например, как механический рыцарь, спроектированный в 1495 году Леонардо да Винчи. Однако в большинстве случаев обе категории пересекались – искусственное существо является одновременно и спасителем, и злодеем.
Известно, что Адам и Ева согрешили и разочаровали Бога. И наши писатели-фантасты считают, что интеллектуальный робот, начав с благородных намерений, в дальнейшем неизбежно совершит грехопадение. Такая двойственность просматривается в пьесе чешского драматурга Карела Чапека «Р.У.Р.» («Россумские универсальные роботы»). Предложенное Чапеком слово «робот» прижилось, им стали обозначать искусственный интеллект. В пьесе роботы – безропотные и умелые слуги и работники – в конце концов перерождаются, восстают и убивают всех людей.
Полки книжных магазинов и частных собраний ломятся от подобных антиутопий. Но никакая фантастика не способна уничтожить надежду, что нашим творениям будет ведомо то, что недоступно нам самим, и поэтому они смогут облегчить наши страдания. Мы тянемся к этим обещаниям искусственного интеллекта, повинуясь инстинкту потерявшегося ребенка. Мы просим искусственный разум придать смысл нашей жизни, помочь избежать мертвящей тишины одиночества. Поэтому неудивительно, что первым роботом, созданным в реальной действительности и заговорившим с человеческими интонациями, стал бесконечно терпеливый и снисходительный психотерапевт по имени Элиза.
В середине шестидесятых годов специалист по вычислительной технике из Массачусетского технологического института Джозеф Вейценбаум написал уникальную программу. Она позволяла компьютеру после прочтения текста породить новый фрагмент текста, который невероятным образом напоминал некое подобие продолжения диалога. Нового робота назвали в честь Элизы Дулитл, главной героини пьесы Бернарда Шоу «Пигмалион». (В ней профессор Генри Хиггинс делает из цветочницы Элизы Дулитл, болтающей на типичном кокни[38], великосветскую даму, говорящую на безупречном английском.) Попытка такого общения при помощи компьютера выглядела примитивно, а сами диалоги поразительно напоминали беседы с клиентами психотерапевтов школы Карла Роджерса[39]. Скажите «Элизе»: «Я не люблю ходить в школу», и она спросит: «Скажите мне, почему вы не любите ходить в школу?» Сообщите «Элизе», что в комнате темно, и она поинтересуется, действительно ли вы думаете, что в комнате темно.
Я воспользовался программой «Элиза», думая, что так лучше пойму принципы, по которым она работает. Вот протокол нашей первой беседы:
Привет, меня зовут Элиза. Чем я могу вам помочь?
Я хочу написать о вас книгу.
О?..
Да, я пишу книгу, и в ней есть глава, в которой я упоминаю о вас.
Как долго вы пишете книгу, где есть глава, в которой вы упоминаете меня?
Уже несколько месяцев.
Не уверена, что я вполне вас понимаю.
Я тоже в этом не уверен.
Вы считаете, что это нормально, что вы не вполне меня понимаете?
Думаю, что это нормальный ответ на ваши ответы.
Почему вас так занимают мои ответы?
Главным образом потому, что они совершенно бессмысленны.
Это очень интересно.
Вы так думаете?
Вы говорите не обо мне, не так ли?
Такое общение очень скоро становится невыносимым. Но, возможно, подумал я, эксперимент поставлен некорректно. «Элизу» создавали не для рефлексии и самокопания. Она хотела помочь мне решить мои проблемы и не собиралась раскрывать свои секреты. Я сделал вторую попытку, постаравшись проявить максимум эмоциональности.
Привет, меня зовут Элиза. Чем я могу вам помочь?
У меня стресс, потому что я пишу книгу.
Как давно у вас стресс из-за того, что вы пишете книгу?
Несколько месяцев.
Отлично… «У меня стресс, потому что я пишу книгу». Поясните подробнее.
Что именно?
Вас интересует этот вопрос?
Ох, отвяжись.
Расскажите мне больше…
Отвяжись, отвяжись, отвяжись.
Почему вы повторяетесь?
Отвяжись, отвяжись, отвяжись.
Прошу вас, поясните свою мысль.
Отстань, иди к черту.
Скажите, у вас есть психологические проблемы?
Вторая попытка коммуникации со старомодной программой оказалась не лучше первой. Но меня поразило, насколько я был эмоционально захвачен этим уродливым общением.
Когда Вейценбаум допустил своих студентов к общению с «Элизой», он и сам был удивлен, насколько глубоко они погружались в него. Многие из них находили подход «Элизы» приятным и полезным. В какой-то степени она действительно была идеальным собеседником: повторяла ваше мнение, а потом бесконечно спрашивала, как вы себя чувствуете и почему вы себя чувствуете именно так, а не иначе. Некоторые психотерапевты (видимо, забыв о своей выгоде) заговорили, что «Элиза» могла бы стать дешевой альтернативой дорогостоящим психоаналитическим сеансам. Какой бы утомительной и скучной ни была «Элиза», она давала людям то, чего они хотят от слушателя, – механическое подтверждение своим мыслям. «Необычайно короткий сеанс работы с простой компьютерной программой, – писал позже Вейценбаум, – может индуцировать бредовое мышление у абсолютно нормального человека».
Сегодня мы на каждом шагу наблюдаем такую бредовую индукцию. Иногда в довольно забавной форме. Фирма BMW была вынуждена отозвать партию навигаторов GPS, потому что немецкие мужчины не терпят указаний, произнесенных женским голосом. Когда армия США разрабатывала свою систему Sergeant Star (бота, беседующего с потенциальными рекрутами на сайте goarmy.com), военные компьютерщики, естественно, постарались синтезировать мужественный голос старого вояки из компьютерной игры-стрелялки «Чувство долга». Одурачивание людей и вовлечение их в эмоциональное общение с неодушевленным предметом (часто сделанным по заказу крупной корпорации или государства) – это новый, многообещающий и очень опасный рубеж. Однако первооткрыватель этого рубежа, Колумб неодушевленной эмоциональности, поднял свои паруса больше полувека назад.
* * *Знаменитый и не слишком счастливый английский математик Алан Тьюринг, крестный отец компьютера, твердо верил, что неизбежно наступит будущее, населенное эмоциональными и общительными компьютерами. Он утверждал: «Наступит время, когда дамы будут брать на прогулку в парк свои компьютеры, а потом рассказывать друг другу: “Мой малыш сказал мне, что сегодня чудесное утро”». Тьюринг настаивал, что машину можно назвать разумной только в том случае, если человек, обменявшийся с ней письмами, не сможет отличить ее от человека. (Я знаю нескольких человек, которые едва ли выдержат такой тест, но это уже другая история.)
Этот вызов – который до сих пор называют «тестом Тьюринга» – продолжает жить в виде ежегодного конкурса на приз Лебнера (литая золотая медаль плюс сто тысяч долларов наличными). Этот приз получит любой компьютер, беседа которого окажется настолько беглой и достоверной, что его невозможно будет отличить от живого собеседника[40]. На этом конкурсе (учрежденном в 1990 году нью-йоркским филантропом Хью Лебнером) группа судей, сидя перед экраном монитора, вступает в краткую переписку с людьми и компьютерами. Судьи не знают, с кем именно они переписываются в данный момент. Потом голосованием решается, кто это был – человек или компьютер. Такие программы, как Clevervbot (самый гуманный компьютер 2005 и 2006 годов), содержат огромную базу данных из типичных высказываний, которые произносятся в ответ на самые разнообразные предложения. Такие фрагменты программа связывает в достаточно внятные (хотя и несколько причудливые) диалоги. Другие программы, например Chip Vivant – победитель 2012 года, не имели больших баз данных, но пытались сами синтезировать нечто напоминающее человеческие рассуждения. Иногда случалось, что людей, участвовавших в конкурсе, принимали за машины. Участница по имени Синтия Клей – специалист по творчеству Шекспира – тремя судьями была названа компьютером, когда завела разговор о бардах. Судьям показалось, что она «слишком много знает». (Брайан Крисчен писал в книге The Most Human Human, что Клей восприняла эту ошибку как комплимент.)
Все компьютеры, включая «Элизу», не прошли тест Тьюринга. Бесконечное разнообразие нюансов человеческого общения пока не поддается программированию. Проще говоря, компьютеры еще не обладают чувствами, необходимыми, чтобы подняться на эмоциональный уровень человеческого общения.
Мы очень медленно ползем к этой цели. Существует огромная трудность на пути обучения компьютеров даже поверхностному сопереживанию. Наша эмоциональная экспрессия бесконечно сложна и включает в себя огромное количество выражений и эмоций: усталое выражение лица неудачно запрограммированный компьютер может прочитать как выражение «несчастья».
То, что воображал себе Тьюринг (интеллигентный компьютер, способный играть в человеческие игры хотя бы приблизительно как реальный человек), сейчас называют «аффективной технологией». Эти технологии активно разрабатываются. «Аффективный» – любопытное словечко, но в данном случае оно подходит как нельзя лучше. Слово напоминает нам об аффектации[41], о настроении и чувствах, но надо помнить, что происходит это слово от латинского afficere – «влиять» или (звучит зловеще) «навести болезнь».
Совсем недавно группа ученых Массачусетского технологического института приблизилась к Святому Граалю[42] afficere – перевела целый спектр человеческих эмоций в двоичный компьютерный код.
* * *Помимо роботов, способных поддерживать компьютерный чат, мы располагаем программами, умеющими прослеживать положение 24 точек лица, что позволяет идентифицировать эмоциональное состояние человека и порождать соответствующие реакции машины. Кроме того, существуют Q-сенсоры – браслеты, измеряющие уровень «эмоционального возбуждения» по температуре и электропроводности кожи.
Главная проблема, однако, остается нерешенной. Говорим ли мы об «аффективных компьютерах» или о «компьютерном сопереживании», на базовом уровне мы все равно обсуждаем технологии, распознавание образов и более сложную сферу глубинного анализа данных. Тем не менее цель – «гуманизация» интерфейса. А ее невозможно достичь, не решив грандиозную задачу пропуска массы живого опыта через мелкую программную сеть.
Многие умы, работающие на переднем крае этой отрасли, собрались в Массачусетском технологическом институте, на факультете Media Lab, где они (по их собственным словам) «изобретают будущее». Я познакомился с одним из сотрудников Media Lab Картиком Динакаром, который по совместительству работает в «Майкрософт», помогая фирме усовершенствовать поисковую систему Bing. («Каждый раз, когда я набираю имя Хиллари Клинтон, – говорит он, – ответ вы получаете благодаря мне».)
Динакар – симпатичный и улыбчивый молодой человек двадцати восьми лет с густой копной черных волос. Как и Аманда Тодд, он не понаслышке знаком с травлей в детском коллективе. Его не любили, когда он был подростком, так как он был ботаником и считался помешанным на компьютерах. От травли он прятался в сети. «Я писал посты в блог и… да, знаете, мне становилось легче. Я думаю, что именно поэтому люди продолжают этим заниматься, поэтому они пишут в Twitter и подобные места. Думаю, что в сети люди ищут сочувствия».
Чувство непохожести у Картика усиливается его синестезиями. Синестезия – это способность органов чувств наряду со специфическими для них ощущениями воспринимать и ощущения, соответствующие другим органам чувств[43]. В какой-то степени мы все подвержены этому явлению. Мозг младенца в наибольшей степени склонен к синестезии. Дети в возрасте двух-трех месяцев обладают способностью к смешанным ощущениям. Однако в редких случаях такое состояние сохраняется и в более старшем возрасте. Если вы назовете Динакару число семь, он увидит определенный цвет. Пятница всегда окрашена в темно-зеленые тона. Воскресенье неизменно связано с черным цветом.
Естественно, эта особенность делает Динакара идеальным членом команды Media Lab. Так называемый компьютерный ботаник с мозгом, в котором образовались и сохранились нетипичные связи, – это как раз то, что нужно бастиону междисциплинарного научного подхода.
Когда осенью 2010 года Картик начал работать над докторской диссертацией, у него, как он вспоминает, «едва не лопнули мозги». Докторантам предложили представить самостоятельные проекты, но ему ничего не приходило в голову. «Меня совершенно не занимало то, что интересовало других. Не было никаких идей. Я уже думал, что меня отчислят».
Но однажды вечером, сидя дома, Динакар по телевизору услышал сообщение Андерсона Купера о Тайлере Клементи, восемнадцатилетнем студенте-скрипаче. Клементи бросился с моста Джорджа Вашингтона и утонул в реке Гудзон. Сокурсник Клементи, живший с ним в одной комнате в общежитии, показал своим друзьям запись того, как Клементи целуется с каким-то парнем. В программе выступил вездесущий доктор Фил, который поговорил с Купером о тяжелых последствиях кибертравли, которые не исчезают так же быстро, как последствия травли «в реальной жизни»: «Такой человек, объект травли, думает: ”Я опозорен и уничтожен – навсегда и непоправимо”. Это такое глубокое отчаяние, что оно может довести человека до самоубийства… Самое главное для жертвы и самое тяжелое – это то, что его позор и унижение видел весь мир. Жертва уверена, что все, кто это видел, отреагируют так же, как человек, который выставил его на всеобщее обозрение». Динакар смотрел программу и думал, что должен найтись способ пресекать такую жестокость, отслеживать неприемлемое сетевое поведение и устранять записи и посты его носителей.
Большинство социальных сайтов оставляют эту проблему на усмотрение сетевого сообщества. В Facebook, Twitter и подобных сетях есть кнопка, которая позволяет «пометить это как неприемлемое», если пользователь не одобряет контент. В нашу эпоху краудсорсинга, апофеозом которого стала «Википедия», такая общественная модерация не лишена здравого смысла, и, возможно, иногда это соответствует действительности[44]. «Но на самом деле происходит следующее: все эти отметки сливаются в один поток и направляются в команду модераторов, – объяснял мне Динакар, – которые должны их просмотреть. Никого в сети не банят автоматически, поэтому возникает большая проблема: каким образом справиться с восемьюстами миллионами пользователей, которые помечают флажками посты друг друга?» (В самом деле, у Facebook более миллиарда пользователей, действиями которых надо как-то управлять.) «Правда заключается в том, что команды модераторов смехотворно малы в сравнении с объемом контента, который подлежит модерированию. Понятно, что такая задача им не под силу. Я понял, что модераторам должна помочь технология. Мне даже показалось странным, что никто не работает над этой проблемой».
Самый элементарный алгоритм, который ищет признаки оскорбительного поведения, может отмечать такие слова, как «педик» или «шлюха». Но он не в состоянии поместить это слово в надлежащий контекст. Например, такой алгоритм способен пометить данный абзац как оскорбительный просто потому, что в нем содержатся эти слова. Однако наш мозг и наш рассудок не работают по принципу «вкл. – выкл.» Постижение смысла требует тонкого понимания контекста, а с этим у компьютера всегда возникают проблемы. Динакар решил создать способ идентифицировать темы. «Мозг, – сказал он, – это полином[45]. Другими словами, мы мыслим, комбинируя несколько понятий в определенном порядке и последовательности, а не распознавая отдельные слова. Если, например, я скажу парню, что ему пойдет губная помада, то компьютер не расценит это как оскорбление. Но человек поймет, что это издевка». Динакар захотел научить компьютер такому распознаванию.
Решение пришло в форме латентного размещения Дирихле (latent Dirichlet allocation, LDA), сложной модели семантического анализа текстов, разработанной в 2003 году. Модель позволяет обнаруживать темы внутри бесконечного числа словесных комбинаций, выбрасываемых мозгом. LDA полиномиально, как и наш мозг, и работает «с мешком неявных ассоциаций», как выразился Динакар. Он начал с простого допущения о том, что такой мешок существует: «Если нам удастся уловить дифференциал силы между людьми, то нам удастся искоренить и случаи травли».
Работа едва началась, когда Динакар получил письмо из управления делами президента США с вопросом, не придет ли он на совещание в округе Колумбия. Картик ответил утвердительно.
На совещании он познакомился с Анешем Чопрой, только что вступившим в должность главного управляющего США по развитию технологий. Чопра был назначен руководителем комитета по борьбе с травлей в интернете и пригласил Динакара участвовать в работе комитета. Три года спустя Белый дом поддержал новый проект Динакара под названием National Helpline (Национальная линия помощи). Этот проект продвигался усилиями как государственных, так и неправительственных организаций. Программа предусматривала работу с миллиардами отчаянных записок, вложенных подростками в цифровые бутылки и брошенные в волны всемирной сети. National Helpline сначала привлекает для анализа проблем, содержащихся в тексте писем, искусственный интеллект, затем – необходимые ресурсы и вырабатывает конкретные меры в связи с каждой проблемой. Получилась самая человечная нечеловеческая система. Рвение организации отчасти подогревается разочарованием Динакара в ограниченных возможностях традиционной психиатрии. Последняя в каждом научном исследовании, как правило, изучает только одну проблему и часто склонна обращаться к прошлому. В психиатрии, кроме того, принята очень расплывчатая терминология. Извлечь из нее полезные данные решительно невозможно, подчеркивает Динакар. «Думаю, что это очень своеобразная отрасль».