Со всеми и ни с кем. Книга о нас — последнем поколении, которое помнит жизнь до интернета - Майкл Харрис 7 стр.


Каждый человек явно или тайно любит исповеди. Вечером, в день смерти Аманды, ее мать смотрела видео и заметила, что за день набралось 2800 просмотров. На следующее утро их было уже десять тысяч. Через две недели — семнадцать миллионов.

Видео было загружено в YouTube 7 сентября 2012 года. Кадры черно-белые. Аманда Тодд стоит перед камерой, она видна до пояса. Молча она поднимает и показывает зрителям плакаты с надписями, повествующими обо всех ее мучениях за последние годы. Я до сих пор помню свои мучения и страхи, которыми я никогда и ни с кем не делился. Поэтому мне было неловко наблюдать за признаниями девочки в YouTube. Звуковым фоном видео служила песня ансамбля Jimmy Eat World под названием Hear You Me. Тодд, неподвижно стоя перед камерой, один за другим поднимает плакаты. Надписи на них просты и трогательны, может быть, чересчур сентиментальны, на взгляд взрослого человека. Это был отчаянный крик о помощи, на который YouTube отреагировал бесполезными похвалами и холодным презрением. А девочки, бившие Аманду, через несколько часов после того, как Тодд загрузила свой ролик, выложили в сеть видео с ее избиением.

* * *

При всей трагичности судьбы Аманды Тодд мы должны отметить: эта непоправимая реакция на сетевую травлю и оскорбления не является аномалией. Недавно проведенное в Университете штата Мичиган исследование доказало, что, например, сингапурские дети, которых травили в сети, столь же часто задумывались о самоубийстве, как и те, кого травили в реальной жизни. Ученые выяснили: сетевая травля чаще доводит подростков до самоубийства. 22 процента подростков, подвергавшихся издевкам в реальной жизни, говорили, что у них возникали мысли о суициде. Доля потенциальных самоубийц среди тех, кто подвергался травле в сети, достигала 28 процентов.

В этом Аманда Тодд едва ли была одинока. Истории о бессердечном сетевом мире множатся ежедневно. Недавно я прочел о двадцатилетнем студенте из Университета Гвельфа, который решил транслировать в сети свое самосожжение, воспользовавшись скандально известной доской электронных объявлений 4chan. (Парню не дали сгореть до конца, его вытащили из комнаты общежития и доставили в госпиталь.) Вот его обращение к зрителям: «Думаю, что мне наконец удастся вернуть долги сообществу, рассчитаться с ним наилучшим образом: для всех вас я покончу с собой перед камерой». Другой пользователь 4chan поделился с ним своей «комнатой для сетевых бесед». Двести человек (комната не вмещает больше) смотрели, как самоубийца принял снотворные таблетки, запил их водкой, поджег комнату и залез под одеяло. Когда огонь добрался до кровати, парень написал из-под одеяла зрителям: #omgimonfire («О боже, я горю!»). Некоторые зрители принялись поучать его, уговаривая выбрать более поэтичный способ самоубийства. Конечно, это экстремальные, исключительные случаи, но думаю, что они обращены к какому-то чувству, общему для всех нас. В большинстве своем мы не хотим отдавать свои жизни анонимному интернету, но присутствует какое-то маниакальное желание саморекламы в сети, которой мы уже привыкли восхищаться.

В какой-то степени все мы проживаем эмоциональную жизнь при помощи технологий. Мы срослись с нашими гаджетами именно потому, что наш мозг одержим страстью к общению, ежеминутным контактам, а новые технологии предлагают великолепные инструменты для удовлетворения этих устремлений. Многие мои друзья спят в обнимку со своими телефонами и смот­рят почту, прежде чем встать с постели. Создается впечатление, что телефон — это возлюбленная, требующая своего утреннего поцелуя. Сообщения и твиты могут быть неприятными, страшными или скучными, но сам аппарат безупречен и воспринимается как надежный и верный товарищ. Узы, связывающие нас с нашими «дружественными к пользователю» машинами, настолько прочны, что мы доверяем то, чего не доверили бы ни одному человеку.

Тем не менее каждый раз, когда мы используем технологию, чтобы избавиться от элементов хаоса в нашей жизни, и пытаемся справиться с неприятностями, демонстрируя себя в видеороликах и записях на Facebook, мы непроизвольно меняем отношение к той части нашей жизни, которую стараемся взять под контроль. Мы всегда пытаемся дистанцироваться от какой-то части окружающего нас мира. Но поскольку мы навсегда к нему привязаны, то в конечном счете дистанцируемся и от какой-то части нашей жизни. Результат такого отчуждения может быть абсолютно банальным (я слышал от многих молоденьких девушек, что они всерьез обеспокоены тем, добавят ли одноклассники их в друзья или удалят). А может обернуться непоправимой трагедией.

Вероятно, нам не стоит удивляться, что аборигены цифрового мира ищут утешения в той самой среде, которая мучает и терзает их. Что еще, собственно говоря, могут они придумать? Как подчеркивает Евгений Морозов в книге The Net Delusion: The Dark Side of Inter­net Freedom, если единственный молоток, который у вас есть, —это интернет, то «нет ничего удивительного, что каждая из возможных социальных и политических проблем представляется в виде сетевого гвоздя». К этой же аналогии Морозов прибегает в своей более поздней книге To Save Everything, Click Here, где он пишет: «Это очень мощный набор молотков, и масса людей — большая часть их обретается в Кремниевой долине — просто жаждут услышать ваш крик: “Гвоздь!” независимо от того, на что вы в этот момент смотрите». Другими словами, людей очень легко убедить в том, что решение обусловленных технологиями проблем заключается в самих технологиях. В особенности это легко, когда технология захватила все поле нашего зрения. Несмотря на то что некоторые представители моего поколения думают, будто интернет не исчерпывает весь набор доступных нам инструментов, для Аманды Тодд и ее ровесников отключение интернета или даже отказ от него как от рупора кажется немыслимым.

Для тех, кто не помнит времена, когда мир не был подключен к сети, подчинение человеческих эмоций системам сетевого управления представляется самым лучшим, удобным и, безусловно, самым легким способом решения всех проблем.

В конечном счете мы хотим получить такую машину, которая смогла бы вполне понимать наши чувства и даже направлять и формировать их за нас.

Однако в наших отношениях с «социальными» сетями заключена ирония. Социальные сети скрадывают расстояния, но делают нас одинокими. Они держат нас «на связи», но порождают тревожность по отношению к физическому взаимодействию. Шерри Теркл из Массачусетского технологического института сформулировала это емко и кратко: «Мы с нашим новым одиночеством поклоняемся неодушевленному предмету». Молодые люди, с которыми она обсуждала использование технологий вместо реального общения с людьми, регулярно утверждали, будто общение с живыми людьми «рискованно», а технология абсо­лютно «надежна». Вот одно из самых показательных интервью. С молодым человеком по имени Говард обсуждаются возможности робота-опекуна:

Есть вещи, которые невозможно рассказать ни друзьям, ни родителям. Их можно рассказать ИИ (искусственному интеллекту). Он даст совет, в котором ты можешь быть уверен... Я думаю, что такого робота стоит запрограммировать предыдущим знанием о такой ситуации и о том, как из нее выбраться. Это могут быть ваши знания, знания ваших друзей, которые помогут найти правильное решение. Я знаю многих подростков, запутавшихся в своих эмоциях и поэтому делающих серьезные ошибки.

Правда, такого робота для Говарда пока не создали.

* * *

Почти библейские попытки снабдить компьютеры эмоционально окрашенным разумом — «вытащить» их из тьмы — давно занимали человеческое воображение и делятся на две переплетающиеся между собой категории. В одной, описанной, например, Мэри Шелли в романе «Франкенштейн, или Современный Прометей»37, появление искусственного интеллекта имеет страшные последствия вопреки благим намерениям его создателей. Во второй категории мы сталкиваемся с роботом как со спасителем или бескорыстным помощником, таким, например, как механический рыцарь, спроектированный в 1495 году Леонардо да Винчи. Однако в большинстве случаев обе категории пересекались — искусственное существо является одновременно и спасителем, и злодеем.

Известно, что Адам и Ева согрешили и разочаровали Бога. И наши писатели-фантасты считают, что интеллектуальный робот, начав с благородных намерений, в дальнейшем неизбежно совершит грехопадение. Такая двойственность просматривается в пьесе чешского драматурга Карела Чапека «Р.У.Р.» («Россумские универсальные роботы»). Предложенное Чапеком слово «робот» прижилось, им стали обозначать искусственный интеллект. В пьесе роботы — безропотные и умелые слуги и работники — в конце концов перерождаются, восстают и убивают всех людей.

Полки книжных магазинов и частных собраний ломятся от подобных антиутопий. Но никакая фантастика не способна уничтожить надежду, что нашим творениям будет ведомо то, что недоступно нам самим, и поэтому они смогут облегчить наши страдания. Мы тянемся к этим обещаниям искусственного интеллекта, повинуясь инстинкту потерявшегося ребенка. Мы просим искусственный разум придать смысл нашей жизни, помочь избежать мертвящей тишины одиночества. Поэтому неудивительно, что первым роботом, созданным в реальной действительности и заговорившим с человеческими интонациями, стал бесконечно терпеливый и снисходительный психотерапевт по имени Элиза.

В середине шестидесятых годов специалист по вычислительной технике из Массачусетского технологического инсти­тута Джозеф Вейценбаум написал уникальную программу. Она позволяла компьютеру после прочтения текста породить новый фрагмент текста, который невероятным образом напоминал некое подобие продолжения диалога. Нового робота назвали в честь Элизы Дулитл, главной героини пьесы Бернарда Шоу «Пигмалион». (В ней профессор Генри Хиггинс делает из цветочницы Элизы Дулитл, болтающей на типичном кокни38, великосветскую даму, говорящую на безупречном английском.) Попытка такого общения при помощи компьютера выглядела примитивно, а сами диалоги поразительно напоминали беседы с клиентами психотерапевтов школы Карла Роджерса39. Скажите «Элизе»: «Я не люблю ходить в школу», и она спросит: «Скажите мне, почему вы не любите ходить в школу?» Сообщите «Элизе», что в комнате темно, и она поинтересуется, действительно ли вы думаете, что в комнате темно.

Я воспользовался программой «Элиза», думая, что так лучше пойму принципы, по которым она работает. Вот протокол нашей первой беседы:

Привет, меня зовут Элиза. Чем я могу вам помочь?

Я хочу написать о вас книгу.

О?..

Да, я пишу книгу, и в ней есть глава, в которой я упоминаю о вас.

Как долго вы пишете книгу, где есть глава, в которой вы упоминаете меня?

Уже несколько месяцев.

Не уверена, что я вполне вас понимаю.

Я тоже в этом не уверен.

Вы считаете, что это нормально, что вы не вполне меня понимаете?

Думаю, что это нормальный ответ на ваши ответы.

Почему вас так занимают мои ответы?

Главным образом потому, что они совершенно бессмысленны.

Это очень интересно.

Вы так думаете?

Вы говорите не обо мне, не так ли?

Такое общение очень скоро становится невыносимым. Но, возможно, подумал я, эксперимент поставлен некорректно. «Элизу» создавали не для рефлексии и самокопания. Она хотела помочь мне решить мои проблемы и не собиралась раскрывать свои секреты. Я сделал вторую попытку, постаравшись проявить максимум эмоциональности.

Привет, меня зовут Элиза. Чем я могу вам помочь?

У меня стресс, потому что я пишу книгу.

Как давно у вас стресс из-за того, что вы пишете книгу?

Несколько месяцев.

Отлично... «У меня стресс, потому что я пишу книгу». Поясните подробнее.

Что именно?

Вас интересует этот вопрос?

Ох, отвяжись.

Расскажите мне больше...

Отвяжись, отвяжись, отвяжись.

Почему вы повторяетесь?

Отвяжись, отвяжись, отвяжись.

Прошу вас, поясните свою мысль.

Отстань, иди к черту.

Скажите, у вас есть психологические проблемы?

Вторая попытка коммуникации со старомодной программой оказалась не лучше первой. Но меня поразило, насколько я был эмоционально захвачен этим уродливым общением.

Когда Вейценбаум допустил своих студентов к общению с «Элизой», он и сам был удивлен, насколько глубоко они погружались в него. Многие из них находили подход «Элизы» приятным и полезным. В какой-то степени она действительно была идеальным собеседником: повторяла ваше мнение, а потом бесконечно спрашивала, как вы себя чувствуете и почему вы себя чувствуете именно так, а не иначе. Некоторые психотерапевты (видимо, забыв о своей выгоде) заговорили, что «Элиза» могла бы стать дешевой альтернативой дорогостоящим психоаналитическим сеансам. Какой бы утомительной и скучной ни была «Элиза», она давала людям то, чего они хотят от слушателя, — механическое подтверждение своим мыслям. «Необычайно короткий сеанс работы с простой компьютерной программой, — писал позже Вейценбаум, — может индуцировать бредовое мышление у абсолютно нормального человека».

Сегодня мы на каждом шагу наблюдаем такую бредовую индукцию. Иногда в довольно забавной форме. Фирма BMW была вынуждена отозвать партию навигаторов GPS, потому что немецкие мужчины не терпят указаний, произнесенных женским голосом. Когда армия США разрабатывала свою систему Sergeant Star (бота, беседующего с потенциальными рекрутами на сайте goarmy.com), военные компьютерщики, естественно, постарались синтезировать мужественный голос старого вояки из компьютерной игры-стрелялки «Чувство долга». Одурачивание людей и вовлечение их в эмоциональное общение с неодушевленным предметом (часто сделанным по заказу крупной корпорации или государства) — это новый, многообещающий и очень опасный рубеж. Однако первооткрыватель этого рубежа, Колумб неодушевленной эмоциональности, поднял свои паруса больше полувека назад.

* * *

Знаменитый и не слишком счастливый английский математик Алан Тьюринг, крестный отец компьютера, твердо верил, что неизбежно наступит будущее, населенное эмоциональными и общительными компьютерами. Он утверждал: «Наступит время, когда дамы будут брать на прогулку в парк свои компьютеры, а потом рассказывать друг другу: “Мой малыш сказал мне, что сегодня чудесное утро”». Тьюринг настаивал, что машину можно назвать разумной только в том случае, если человек, обменявшийся с ней письмами, не сможет отличить ее от человека. (Я знаю нескольких человек, которые едва ли выдержат такой тест, но это уже другая история.)

Этот вызов — который до сих пор называют «тестом Тьюринга» — продолжает жить в виде ежегодного конкурса на приз Лебнера (литая золотая медаль плюс сто тысяч долларов наличными). Этот приз получит любой компьютер, беседа которого окажется настолько беглой и достоверной, что его невозможно будет отличить от живого собеседника40. На этом конкурсе (учрежденном в 1990 году нью-йоркским филантропом Хью Лебнером) группа судей, сидя перед экраном монитора, вступает в краткую переписку с людьми и компьютерами. Судьи не знают, с кем именно они переписываются в данный момент. Потом голосованием решается, кто это был — человек или компьютер. Такие программы, как Clevervbot (самый гуманный компьютер 2005 и 2006 годов), содержат огромную базу данных из типичных высказываний, которые произносятся в ответ на самые разнообразные предложения. Такие фрагменты программа связывает в достаточно внятные (хотя и несколько причудливые) диалоги. Другие программы, например Chip Vivant — победитель 2012 года, не имели больших баз данных, но пытались сами синтезировать нечто напоминающее человеческие рассуждения. Иногда случалось, что людей, участвовавших в конкурсе, принимали за машины. Участница по имени Синтия Клей — специалист по творчеству Шекспира — тремя судьями была названа компьютером, когда завела разговор о бардах. Судьям показалось, что она «слишком много знает». (Брайан Крисчен писал в книге The Most Human Human, что Клей восприняла эту ошибку как комплимент.)

Назад Дальше