Великий переход: что готовит революция облачных технологий - Карр Николас Дж. 7 стр.


Как показывают наблюдения Гроува, дефицит пропускной способности коммуникационных систем уже давно считается препятствием для эффективной обработки данных. Было ясно, что теоретически вычислительная мощность, как и электроэнергия, может поставляться через сеть крупными компаниями коммунального обслуживания и что такие централизованные сервисы станут работать гораздо более эффективно и гибко, чем множество частных центров обработки данных. Еще в 1961 году, когда ученые только начинали искать способы, позволяющие компьютерам общаться друг с другом, Джон Маккарти, эксперт в молодой области сетевых технологий, предсказал, что «процесс обработки данных однажды может превратиться в коммунальную услугу наподобие системы телефонной связи». Каждый прорыв в области сетевых технологий вызывал появление предпринимателей, которые надеялись превратить коммунальные вычисления в крупный бизнес. В эпоху мейнфреймов компании, осуществлявшие обработку данных в режиме разделения времени, устанавливали центральные компьютеры и сдавали их в аренду другим компаниям, позволяя напрямую подключаться к ним через телефонную линию. В 1970-х годах такие компании, как Automated Data Processing, начали предлагать некоторые рутинные вычислительные работы, в частности по расчету заработной платы, в качестве платной услуги. А в 1990-х годах при значительной поддержке венчурного капитала появилось множество «провайдеров прикладных услуг», которые собирались предоставлять компаниям доступ к программному обеспечению через интернет.

Однако все эти начинания в сфере коммунальных вычислений были либо обречены на провал, либо сильно ограничены из-за отсутствия достаточной пропускной способности. Даже в конце 1990-х годов, когда в отрасли телекоммуникаций началась модернизация сетей, пропускная способность по-прежнему не позволяла предоставлять услуги по обработке данных с той же скоростью и надежностью, которые обеспечивали компаниям их собственные машины. И поэтому компании продолжали запутываться в своих цифровых системах передачи мощности, смиряясь с их сложностью, неэффективностью и пустыми тратами как платой за автоматизацию своей деятельности.

Однако теперь все меняется. В последние несколько лет сетевой барьер начал рушиться. Благодаря проложенным коммуникационными компаниями во время бума доткомов оптоволоконным кабелям, длины которых, по некоторым оценкам, достаточно, чтобы обмотать земной шар более 11 тысяч раз, пропускная способность интернета резко увеличилась и подешевела. Закон Гроува был аннулирован. И это меняет все, по крайней мере в сфере обработки данных. Теперь, когда данные можно передавать через интернет со скоростью света, пользователи могут получить доступ к полной мощности компьютеров независимо от своего местоположения. Неважно, где находится серверный компьютер, управляющий вашей программой: в центре обработки данных дальше по коридору или в другой части страны. Все машины теперь объединены и используются совместно – они превратились в единую машину. Как в 1993 году предсказал исполнительный директор компании Google Эрик Шмидт, бывший в то время техническим директором Sun Microsystems, «когда передача данных станет такой же быстрой, как процессор, компьютеры перестанут быть отдельными устройствами и превратятся в сеть».

Оптоволоконный интернет для сферы обработки данных – то же, что сеть переменного тока для электроэнергетики: местоположение оборудования не имеет для пользователя никакого значения. Что еще важнее, интернет, приспособленный к любому типу компьютера и любой форме цифровой информации, играет роль роторного трансформатора Инсулла: он позволяет разрозненным и несовместимым ранее машинам работать в качестве единой системы. Он превращает какофонию в гармонию. Предоставляя универсальную среду для передачи данных, интернет стимулирует создание централизованных вычислительных станций, которые могут одновременно обслуживать тысячи или даже миллионы пользователей. То, чем раньше компании были вынуждены обеспечивать себя сами, теперь они могут приобрести в качестве платной услуги. Это означает, что они могут наконец избавиться от своих цифровых систем передачи мощности.

Системе коммунальных вычислений потребуется много лет, чтобы достичь зрелости. Как когда-то Эдисон и Инсулл, пионеры новой отрасли столкнутся с множеством проблем. Им предстоит найти оптимальный способ измерения и ценообразования на разные виды услуг. По мере роста спроса нужно будет сбалансировать нагрузку и управление коэффициентом неодновременности. Они станут сотрудничать с правительствами, чтобы создать эффективные режимы регулирования. Им необходимо будет достичь нового уровня безопасности, надежности и эффективности. А самая серьезная задача – это убедить крупные компании отказаться от своих систем и центров обработки данных, в которые они вложили так много денег. Однако все эти задачи будут решены, как и раньше. Экономические условия в сфере обработки данных изменились, а в настоящее время прогресс обусловливается именно новой экономикой. На смену эре персональных компьютеров приходит эпоха коммунальных вычислений.

Глава 4 Прощайте, мистер Гейтс

«Мы находимся на пороге следующего кардинального изменения», – эти слова появились во внеочередном меморандуме, который Билл Гейтс отправил топ-менеджерам и инженерам Microsoft 30 октября 2005 года. Скромно озаглавленный документ «Программное обеспечение как интернет-услуга» на самом деле прозвучал как сигнал тревоги, который предупреждал компанию о том, что развитие сферы коммунальных вычислений угрожает ее традиционному бизнесу. Господство Microsoft над настольным ПК быстро таяло. Гейтс сообщил своим сотрудникам, что пользователи могут не устанавливать программное обеспечение на своих компьютерах: оно превращалось в коммунальную услугу, поставляемую через интернет. «На широкой и богатой почве интернета возникнет множество мгновенно доступных приложений, – писал он. – Услуги, доступные десяткам или сотням миллионов [пользователей], кардинально изменят характер и стоимость решений, поставляемых крупным компаниям и представителям малого бизнеса». Эта новая волна, заключил он, «будет крайне разрушительной».

Нетрудно понять, почему был написан меморандум. Пока Гейтс составлял его в своем кабинете в штаб-квартире Microsoft в городе Редмонд, штат Вашингтон, его опасения по поводу будущего компании материализовались на расстоянии всего пары сотен километров в сонном городке под названием Даллес в северном штате Орегон. Ранее в том же году таинственная компания, известная под названием Design LLC, вступила в переговоры с местными чиновниками о покупке 30 акров земли, принадлежащей государственным органам. Этот участок, будучи частью большого промышленного парка, располагался вдоль берегов реки Колумбия. Надеясь сохранить переговоры в тайне, компания потребовала от должностных лиц города подписать соглашение о конфиденциальности. Однако вскоре детали тайной сделки стали известными. Компания Design LLC, как оказалось, была лишь ширмой. В покупке участка земли была заинтересована доминирующая компания интернет-поиска Google, которая быстро становилась самым опасным конкурентом Microsoft.

В феврале 2005 года компания Google закрыла сделку, купив участок земли чуть менее чем за 2 миллиона долларов после того, как власти города согласились на предоставление налоговых льгот. Несколько сотен строителей и целый парк экскаваторов, самосвалов и бетономешалок приступили к работе по реализации плана под кодовым названием «Проект 2» (Project 2). Этот проект предусматривал то, что Эрик Шмидт позже назвал «массивными инвестициями». По мере выполнения работ масштабы объекта становились очевидными. Участок был занят двумя большими, размером с футбольное поле, складами без окон. Над ними возвышались четыре градирни, которые придавали комплексу зловещий вид. Статья в журнале International Herald Tribune описывала этот комплекс как «атомную электростанцию информационной эпохи».

Это было весьма точное описание. Компания Google создавала огромную станцию обработки данных, судя по всему, крупнейшую и сложнейшую на планете. Предполагающая взаимодействие десятков или даже сотен тысяч компьютеров, она должна была стать вычислительным эквивалентом атомной электростанции, динамо-машиной невиданной мощности для обработки данных. Когда-нибудь мы будем вспоминать станцию Google в Даллесе как ранний и относительно примитивный пример центральной вычислительной станции, так же как сегодня воспринимаем электростанцию Инсулла на Фиск-стрит. Однако сегодня она представляет собой самый высокотехнологичный пример компании сферы коммунальных вычислений. И, как Гейтс, несомненно, понимал в октябре 2005 года, эта станция символизирует переворот, который изменит компьютерную индустрию и поставит будущее корпорации Microsoft под сомнение.

К тому времени, как компания Google начала строительство станции, она уже создала десятки «серверных ферм» по всему миру. Всего они насчитывали полмиллиона компьютеров. Однако их потребность в вычислительных мощностях продолжала расти. Город Даллес, который одна из орегонских газет описала как «место, где можно остановиться, чтобы заправиться и перекусить гамбургером по дороге из Портленда в Пендлтон», оказался идеальным местом для создания самого крупного и мощного центра компании. Удаленность города позволяла обеспечить безопасность объекта и усложняла конкурентам Google задачу переманивания ее сотрудников. Что еще важнее, этот город предоставлял доступ к двум ресурсам, которые напрямую влияли на эффективность работы центра обработки данных: дешевой электроэнергии и большой пропускной способности. Компания Google обеспечивала свои компьютеры электроэнергией, вырабатываемой многочисленными гидроэлектростанциями, расположенными вдоль реки Колумбия, в частности соседней плотиной Даллес с генерирующей мощностью 1,8 гигаватта. Кроме того, компания могла уменьшить потребление электроэнергии, используя ледяную воду реки для охлаждения своих машин. Что касается пропускной способности, то город сделал солидные инвестиции в строительство крупной оптоволоконной сети, связанной с международным интернетузлом, расположенным неподалеку в Харбор Пуанте, Вашингтон. Эта сеть обеспечила компании Google интернет-соединение, необходимое для предоставления своих услуг пользователям по всему миру.

Центры обработки данных компании Google разрабатывались лучшими умами в области компьютерных технологий. Подобно машине Эдисона, они работают как единая тонко настроенная система, которую легендарный разработчик компьютеров Дэнни Хиллис назвал «самым большим компьютером в мире», все компоненты которого спроектированы так, чтобы работать совместно. В каждом центре находится один или несколько «кластеров» серверных компьютеров. Серверы представляют собой чуть более крупные компьютеры, чем домашние ПК, собранные из дешевых типовых микропроцессоров и жестких дисков, которые компания Google покупает у производителей оптом. Вместо того чтобы быть жестко связанными друг с другом внутри корпуса, компоненты просто присоединяются к высоким металлическим стойкам, что облегчает процесс их замены в случае выхода из строя. Каждый компьютер получает электроэнергию через блок питания, созданный инженерами Google, который минимизирует потребление энергии. На машинах установлена версия бесплатной операционной системы Linux, оптимизированная программистами Google. Компания также владеет большей частью оптоволоконных кабелей, связывающих вместе ее центры, что позволяет ей точно контролировать поток данных между ними и общественным интернетом.

Наиболее важный объединяющий элемент системы – это программное обеспечение, созданное компанией Google для координации работы всех серверов в кластере на одном уровне и всех кластеров во всех центрах на более высоком уровне. Несмотря на то что компания держит свою технологию в тайне, мы в общих чертах знаем, как работает ее программное обеспечение при выполнении поиска в интернете. База данных Google содержит копии практически всех интернет-страниц и постоянно обновляется специальным поисковым роботом-«пауком», который «ползает» по ссылкам Всемирной паутины и сканирует содержимое миллиардов страниц. Набор секретных алгоритмов анализирует все сайты для создания всеобъемлющего индекса, в котором каждой странице присваивается рейтинг, отражающий ее соответствие определенным ключевым словам. Затем индекс дублируется в каждом кластере. Когда пользователь вводит ключевое слово в поисковой системе Google, программа направляет запрос в один из кластеров, где он одновременно обрабатывается сотнями или тысячами серверов. Поскольку каждому серверу необходимо просто сравнить ключевое слово с небольшой частью всего индекса, которую Google называет «осколком индекса», такая «параллельная обработка» идет значительно быстрее, чем если бы один компьютер сравнивал ключевое слово со всем индексом. Программное обеспечение собирает и обобщает все ответы серверов, располагает найденные страницы в порядке значимости и отправляет список результатов на компьютер пользователя.

Хотя, по словам инженеров Google, обработка типичного поискового запроса требует «десятков миллиардов циклов [микропроцессора]» и считывания «сотни мегабайт данных», весь процесс происходит в течение доли секунды. Координирующее программное обеспечение гарантирует, что вычислительная нагрузка сбалансирована между всеми кластерами и отдельными серверами. Она поддерживает быструю и эффективную работу системы. При поломке компьютера или одного из компонентов программа просто обходит его. Поскольку система состоит из тысяч полностью взаимозаменяемых компонентов, она не может выйти из строя.

Ни одна корпоративная вычислительная система не может сравниться с системой Google по эффективности, скорости и гибкости. Один из аналитиков считает, что по сравнению с типичной компанией стоимость обработки данных для Google в десять раз меньше. Вот почему система Google заставляет Билла Гейтса и других руководителей компаний сферы информационных технологий так нервничать. Она обладает разрушительным потенциалом коммунальных вычислений. Если компании смогут использовать центральные станции, наподобие станций Google, чтобы решать все или большую часть своих задач по обработке данных, то они сократят расходы на собственные аппаратные средства и программное обеспечение. А все эти сэкономленные доллары пополнили бы казну Microsoft и других технологических гигантов. Эти поставщики не могут успокоить себя даже надеждой на то, что будут продавать свою продукцию новым компаниям коммунального обслуживания. В конце концов, Google создает собственные компьютеры и работает на бесплатном программном обеспечении с открытым исходным кодом. Эта компания практически не нуждается в старых поставщиках.

Нарастив свои вычислительные мощности, компания Google смогла быстро предоставить новые сервисы, а также приобрести те, что были разработаны другими компаниями. Большинство из этих сервисов – от картографического инструмента Google Earth и видеохостинга YouTube до платформы Blogger – созданы в основном для потребителей. Однако компания Google вышла и на бизнес-рынок. Она запустила популярный пакет услуг Google Apps, непосредственно конкурирующий с одним из наиболее прибыльных продуктов компании Microsoft – пакетом Office. Google Apps включает текстовый редактор, электронные таблицы, электронную почту, календари, систему мгновенных сообщений, возможности для разработки сайта и хостинг. Все это стоит 50 долларов в год на одного сотрудника, а базовую версию с рекламой можно использовать бесплатно. Чтобы пользоваться программой, требуется дешевый ПК и браузер. Уже сейчас многие небольшие компании могут решать значительную часть своих повседневных задач с помощью программного обеспечения, работающего в центрах обработки данных Google. По мере роста компании (а в 2007 году она объявила о планах строительства новых центров в Северной Каролине, Южной Каролине, Оклахоме и Айове) в эту категорию будут попадать все больше компаний.


Несмотря на то что на данный момент компания Google – крупнейшая компания в сфере коммунальных вычислений, это не единственный пионер в данной новой сфере бизнеса. Другие компании, предоставляющие программное обеспечение в качестве услуги, предлагают традиционные бизнес-программы (например, для управления финансами, продажами и маркетингом) через интернет. И уже понемногу завоевывают корпоративный рынок.

Сегодняшний лидер в этой области – быстрорастущая компания из Сан-Франциско Salesforce.com. Ее основатель Марк Бениофф совсем не похож на Сэмюэла Инсулла. Дородный экстраверт с взъерошенными волосами и бородой, Бениофф получил прозвище «самого большого болтуна в Кремниевой долине», однако его история не слишком отличается от истории Инсулла. Он тринадцать лет проработал в крупной технологической компании Oracle, где обрел наставника в лице харизматичного СЕО Ларри Эллисона[17]. Программное обеспечение Oracle для работы с реляционными базами данных, как и операционная система Microsoft и бизнес-приложения, в 1980-х и 1990-х годах стало неотъемлемым компонентом систем «клиент-сервер», что способствовало выходу компании на лидирующие позиции и сделало Эллисона мультимиллиардером. Бениофф достиг в компании больших успехов и стал одним из ее топменеджеров.

Однако так же, как Инсулл разочаровался в Эдисоне и бизнесстратегии, принятой в General Electric, в конце 1990-х годов Бениофф разочаровался в Oracle. Хотя в то время компания буквально чеканила деньги благодаря эйфории «электронной коммерции», Бениофф считал, что индустрия корпоративного программного обеспечения обречена. Традиционный способ ведения бизнеса, заключавшийся в установке сложных программ на компьютерах клиентов и дальнейшем сборе высокой абонентской платы, не мог работать вечно. Бениофф предвидел, что развитие интернета в скором времени позволит компаниям избежать головной боли и высокой стоимости владения собственными приложениями.

Назад Дальше