Вскоре компании уже соревновались не только в качестве своей продукции, но и в возможностях аппаратного и программного обеспечения. Как только одна компания вводила новую систему для автоматизации деятельности, другие, боясь отстать, следовали ее примеру. Первые битвы в сфере, которой позже будет дано название мировой информационно-технологической гонки вооружений, начались в отрасли авиаперевозок. В 1959 году Сайрус Роулетт Смит, президент компании American Airlines, объявил о запуске амбициозного проекта по созданию системы автоматизации бронирования и продажи авиабилетов. Эти два трудоемких процесса лежали в основе бизнеса. Система, над созданием которой более пяти лет трудились 200 специалистов, получила название Sabre. Она включала два самых мощных компьютера IBM, 16 носителей для хранения информации и более тысячи терминалов, используемых агентами по продаже билетов. Кроме работ по монтажу аппаратных средств проект предусматривал написание миллиона строк программного кода. Когда в конце 1965 года эта система была введена в эксплуатацию, она была в состоянии обработать бронирование 40 000 и продажу 20 000 билетов за день – впечатляющие цифры для того времени.
Система Sabre дала American Airlines такое же огромное преимущество, как водяное колесо Бердена – его заводу. Теперь компания могла обеспечить более высокую производительность, имея меньшее количество сотрудников, чем другие авиакомпании, которые продолжали производить обработку информации вручную. Она также получила бо́льшие преимущества в сфере обслуживания клиентов, поскольку отвечала на запросы путешественников гораздо быстрее, чем конкуренты. Кроме того, компания получила возможность исследовать спрос на различные маршруты и с большей точностью корректировать цены на билеты. Создание и запуск компьютерных систем оказались столь же важным фактором для успеха American Airlines, как безопасность полетов и удовлетворение потребностей пассажиров. В последующие несколько лет все остальные крупные авиакомпании, в том числе Pan American, Delta и United, создали подобные системы. Они поняли, что у них не было выбора, если они хотели оставаться конкурентоспособными. Неудивительно, что они нашли партнеров в лице таких производителей, как IBM, Sperry Rand и Burroughs, которые получали огромную прибыль, продавая типовые системы разным компаниям.
Холдинг Bank of America инициировал аналогичный процесс в банковской сфере, когда в 1960 году представил свою новаторскую версию компьютера Electronic Recording Machine Accounting (ERMA) в телевизионной феерии с участием Рональда Рейгана. В течение двух лет банк установил 32 компьютера ERMA для обслуживания почти 5 миллионов текущих и сберегательных счетов, работа с которыми до тех пор производилась вручную. Способность компьютеров обрабатывать транзакции с беспрецедентной скоростью и точностью заставила все крупные финансовые учреждения последовать примеру холдинга Bank of America. То же самое вскоре произошло во всех остальных отраслях: компании подражали друг другу, инвестируя в новейшие компьютерные системы.
Однако эпоха универсальных ЭВМ оказалась лишь началом великого мирового компьютерного бума. В конце 1960-х годов средняя американская компания выделяла на информационные технологии менее 10 % своего бюджета капитальных вложений. Тридцать лет спустя, по данным Министерства торговли, эта цифра увеличилась более чем в четыре раза: до 45 %. Другими словами, к 2000 году средняя американская компания вкладывала в компьютерные системы почти столько же, сколько во все остальные виды оборудования, вместе взятые. Расходы на программное обеспечение увеличились более чем в сто раз за это же время: с одного миллиарда долларов в 1970 году до 138 миллиардов долларов в 2000 году. В остальных развитых странах наблюдались аналогичные изменения. В начале 1970-х годов мировые расходы на информационные технологии составляли менее 100 миллиардов долларов в год, а в начале 2000-х годов – более триллиона долларов в год.
Что же произошло за эти тридцать лет? Изменилась деловая среда, изменились и компьютеры. Поскольку в экономике увеличилась доля сферы услуг по отношению к промышленности, инвестиции начали смещаться от промышленного оборудования в область информационных технологий. В то же время сами компьютеры стали меньше, дешевле, мощнее, их стало проще программировать, что значительно расширило перечень задач, которые можно было решить с их помощью. Что еще важнее, появились персональные компьютеры, превратившиеся в инструмент, который могли использовать практически все офисные сотрудники.
В эпоху мейнфреймов компьютеры стали институциональными машинами. Из-за высокой стоимости покупки или аренды мейнфрейма (в середине 1960-х годов аренда типового компьютера IBM составляла около 30 000 долларов в месяц) компании были вынуждены использовать машину постоянно, чтобы оправдать расходы. Это означало, что отдельные сотрудники практически никогда не имели доступа к компьютеру. Как их предшественники – перфокарточные табуляторы, мейнфреймы и все сопутствующие устройства были изолированы в специальных помещениях и управлялись специалистами в белых костюмах, которых Церуззи называл «священнослужителями среди технических специалистов». Чтобы машина работала, сотрудник должен был сохранить нужную программу вместе со всеми необходимыми данными на ленте или картах, а затем поместить все это в очередь вместе с заданиями его коллег. Операторы ЭВМ выполняли одно задание за другим, распечатывая результаты. Если сотрудник обнаруживал ошибку, ему приходилось повторно проходить через весь цикл.
Пакетная обработка обеспечивала одно серьезное преимущество: благодаря ей компьютер использовался эффективно. Ни одна машина не простаивала без дела, по крайней мере в течение длительного времени. Обычный корпоративный мейнфрейм был загружен на 90 %. А недостатком пакетной обработки было то, что процесс вычисления был безличным. Организационные и технологические барьеры, которые стояли между сотрудником и машиной, подавляли стремление к экспериментированию и ограничивали область применения вычислительной мощности, в то время как задержка в получении результатов не позволяла использовать компьютеры для решения множества мелких повседневных задач, связанных с работой компании.
Такая ситуация длилась недолго. По мере ускорения технологических инноваций в период 1960–1970-х годов компьютеры становились дешевле и уменьшались в размерах. Крошечные транзисторы заменили громоздкие вакуумные трубки, а дешевые стандартизированные компоненты – дорогие изготовленные на заказ части, что позволило создать относительно недорогие мини-компьютеры, которые помещались рядом с рабочим столом. Мини-компьютеры не вытеснили мейнфреймы – они стали дополнением к более крупным и мощным машинам. Однако они значительно расширили область применения компьютеров в компаниях. Поскольку мини-компьютеры соединялись с настольными терминалами, они позволяли рядовым сотрудникам задействовать мощности компьютера для решения широкого спектра задач – от инвестиционного анализа и разработки новых продуктов до составления расписания работы сборочных линий, написания писем и отчетов. Языки программирования также были сильно упрощены за это время. Программисты могли писать код, используя простые английские слова и синтаксис вместо длинных строк, состоящих из цифр. Это значительно расширило индустрию компьютерного программирования, в результате чего увеличилось количество программистов и видов приложений, которые они разрабатывали. К началу 1970-х годов компания могла купить миникомпьютер менее чем за 10 000 долларов и быстро запрограммировать его для выполнения специальных задач.
Бизнес мини-компьютеров процветал, делая такие компании, как Digital Equipment Corporation[15], Wang и Apollo, лидерами компьютерной индустрии. Однако эта пора была недолгой. Мини-компьютер оказался переходным звеном. Прорывы в области проектирования интегральных схем, в частности изобретение микропроцессора инженерами Intel в 1971 году, привели к появлению и быстрому распространению нового вида машины – микрокомпьютера, или персонального компьютера, который был еще меньше, дешевле и легче в работе, чем мини-компьютер. Появление ПК произвело переворот в промышленности и положило начало новой эры в области бизнес-вычислений.
Как и в случае с мейнфреймами, поначалу эксперты не разглядели потенциал персональных компьютеров. Однако на этот раз у них появились сомнения иного рода. Мейнфреймы считались слишком мощными для компаний, а персональные компьютеры, наоборот, слишком слабыми. Они воспринимались как игрушки для любителей. Доминирующие в то время компании от IBM до Digital не обращали внимания на новые машины. А вот исключенный из колледжа любитель по имени Билл Гейтс осознал потенциал персональных компьютеров. В 1975 году Гейтс и его школьный приятель Пол Аллен основали небольшую компанию под названием Micro-Soft, которая занялась созданием программного обеспечения для ПК. Вскоре Гейтс понял, что эта машина не просто найдет свою нишу, но в силу своей универсальности и низкой стоимости вытеснит мейнфреймы. Компания, которая сумела бы получить контроль над операционной системой ПК, заняла бы лидирующее положение в компьютерной индустрии. Ви́дение Гейтса в итоге превратило компанию, которую он переименовал в Microsoft, в доминирующего игрока ИТ-индустрии и сделало самого Гейтса невероятно богатым человеком.
Появление персонального компьютера привело к демократизации вычислений. Исчезла необходимость в корпоративных центрах обработки данных и ИТ-отделах, ПК превратился в универсальный бизнесинструмент. ПК также внес изменения в организацию вычислений. Персональные компьютеры, установленные на рабочих столах офисных сотрудников, вскоре были объединены в сеть, и это позволило им обмениваться файлами и совместно использовать принтеры. Прежние комнаты с мейнфреймами не исчезли. Они были преобразованы в новый вид центра обработки данных. В этих центрах находились системы хранения, которые содержали наиболее важные данные, а также мощные серверные компьютеры с программами для управления финансами и операциями компании. Отдельные сотрудники могли на своих ПК работать с такими программами, как Microsoft Word и Excel, а подключаться к программам и файлам на центральных серверах. Поскольку ПК выступал в качестве «клиента» общих серверов, такая система получила название «клиентсервер». Эта модель стала определяющей в эпоху ПК и по сей день остается доминирующей.
Модель «клиент-сервер» оказалась противоположностью мейнфреймовых систем. Она сделала вычислительный процесс личным, но при этом крайне неэффективным. Корпоративные компьютерные системы и сети – цифровая система передачи мощности современной компании – усложнялись по мере расширения сферы их применения. Одной из основных причин этого усложнения было отсутствие стандартов в области вычислительного оборудования и программного обеспечения. Производители, как правило, продвигали собственные продукты, а они недостаточно хорошо сочетались с продуктами конкурентов. В результате корпоративные программы, как правило, создавались для работы в конкретной операционной системе, для конкретного микрочипа, конкретной базы данных и конкретного оборудования. В отличие от многоцелевых мейнфреймов, большинство серверных компьютеров предназначались для работы с одним приложением или одной базой данных. Всякий раз, когда компания покупала или создавала новое приложение, ей приходилось приобретать и устанавливать новый набор специализированных компьютеров. Каждый из этих компьютеров необходимо было настроить на обслуживание с пиковой нагрузкой, даже если эта пиковая нагрузка никогда не возникала.
Распространение узкоспециализированных систем привело к чрезвычайно низким уровням использования вычислительных мощностей. Недавнее исследование шести корпоративных центров обработки данных показало, что в большей части серверов, количество которых достигало тысячи, задействовано менее четверти их вычислительной мощности. Согласно другим исследованиям, так же нерационально используются системы хранения данных: в среднем на 25–50 %. До наступления эры персональных компьютеров специалисты по обработке данных старались сохранять вычислительные ресурсы не только по экономическим, но и по этическим соображениям. «Тратить цикл центрального процессора или байт памяти было недопустимо, – вспоминает научный писатель Брайан Хейс. – Решать несложную задачу с помощью мощного компьютера считалось таким же безвкусным и неспортивным, как ловля форели с помощью динамита». Модель «клиент-сервер» шла вразрез с принципом экономии ресурсов. Вместо бережливости определяющей характеристикой бизнес-вычислений стало расточительство.
За последнюю четверть века сложность и неэффективность модели «клиент-сервер» только возросли. Компании задействовали все больше приложений, поэтому им приходилось расширять свои центры обработки данных, устанавливать новые машины, перепрограммировать старые и нанимать все больше специалистов для управления ими. Если учесть еще и то, что компаниям приходилось покупать резервное оборудование на случай, если сервер или система хранения данных выйдут из строя, вы поймете, что бо́льшая часть триллионных инвестиций, сделанных компаниями в информационные технологии, пропала даром.
Кроме этого, существуют и другие издержки. По мере расширения центров обработки данных, все более плотно укомплектованных компьютерами, резко растет потребление электроэнергии. Согласно исследованию, проведенному в декабре 2005 года Национальной лабораторией имени Лоуренса в Беркли[16], современный корпоративный центр обработки данных «может потреблять в 100 раз больше энергии на квадратный фут, чем обычное офисное здание». Исследователи обнаружили, что компания тратит свыше одного миллиона долларов в месяц на электричество, необходимое для работы одного большого центра обработки данных. И счета за электричество продолжают быстро расти с увеличением количества серверов и мощности компьютерных чипов. Луис Андре Баррозу, компьютерный инженер компании Google, делает вывод, что, если эффективность компьютеров существенно не возрастет, «в течение ближайших нескольких лет затраты на электроэнергию могут легко превысить затраты на аппаратное обеспечение, возможно, с большим отрывом».
Непроизводительные расходы, присущие модели «клиент-сервер», обременительны для отдельных компаний. Однако в отраслях картина намного хуже. Бо́льшая часть программ и аппаратных средств, с которыми сегодня работают компании, имеется у их конкурентов. Компьютеры, системы хранения данных, сетевое оборудование и наиболее популярные приложения стали товарами массового потребления с точки зрения компаний, которые их покупают. Они не отличают одну компанию от другой. То же самое касается сотрудников ИТ-отделов. Большинство из них занимаются рутинным обслуживанием, выполняя такие же задачи, что и их коллеги в других компаниях. Существование десятков тысяч независимых центров обработки данных, использующих аналогичные аппаратные средства, программное обеспечение и виды работ, негативно влияет на экономику. Это привело к наращиванию чрезмерных ИТ-активов почти в каждом секторе промышленности и уменьшению выгоды от компьютерной автоматизации.
Ведущие ИТ-поставщики стали самыми быстрорастущими и прибыльными компаниями в мире. Компания Билла Гейтса – идеальный тому пример. Почти каждая компания сегодня покупает копии операционной системы Microsoft Windows и офисного пакета приложений Microsoft Office для всех своих сотрудников, устанавливая программное обеспечение на каждом отдельном ПК и регулярно производя обновления. Большинство компаний также используют ОС Windows, по крайней мере на некоторых из своих серверов, и устанавливают другие дорогостоящие программы Microsoft в своих центрах обработки данных (например, Exchange для управления электронной почтой). За три десятилетия с момента своего основания годовые объемы продаж компании Microsoft выросли почти до 50 миллиардов долларов, годовая прибыль – до 12 миллиардов, а сумма наличных денежных средств – до 30 миллиардов долларов. И компания Microsoft не одинока. Многие другие производители программного обеспечения, вроде Oracle и SAP, поставщики серверов, например IBM и Hewlett-Packard, производители ПК типа Dell, а также сотни консалтинговых компаний извлекают выгоду из сложности современной отрасли бизнес-вычислений. Все они с готовностью играли роль поставщиков оружия в гонке вооружений, происходившей в сфере информационных технологий.
Почему сфера вычислений развивалась таким, казалось бы, неправильным образом? Почему персонализация компьютеров сопровождалась усложнением и напрасными затратами? Причина довольно проста. Она сводится к двум законам. Первый и самый известный был сформулирован в 1965 году блестящим инженером Intel Гордоном Муром. Закон Мура гласит, что мощность микропроцессоров удваивается каждый год или два. Второй закон был озвучен в 1990-х годах Энди Гроувом, коллегой Мура. По закону Гроува, пропускная способность телекоммуникационных систем удваивается каждые сто лет. Закон Гроува скорее выражает его неприятие умирающей телефонной индустрии, чем констатирует технический факт, тем не менее он обнаруживает простую истину: на протяжении всей истории развития вычислительной техники вычислительная мощность растет намного быстрее, чем пропускная способность коммуникационных сетей. Это несоответствие означает, что компания может воспользоваться преимуществами передовых компьютеров только в том случае, если установит их в собственных офисах и объединит их в собственную локальную сеть. Как это было с электричеством в эпоху систем постоянного тока, нет никакого практического способа эффективной передачи вычислительной мощности на большие расстояния.
Как показывают наблюдения Гроува, дефицит пропускной способности коммуникационных систем уже давно считается препятствием для эффективной обработки данных. Было ясно, что теоретически вычислительная мощность, как и электроэнергия, может поставляться через сеть крупными компаниями коммунального обслуживания и что такие централизованные сервисы станут работать гораздо более эффективно и гибко, чем множество частных центров обработки данных. Еще в 1961 году, когда ученые только начинали искать способы, позволяющие компьютерам общаться друг с другом, Джон Маккарти, эксперт в молодой области сетевых технологий, предсказал, что «процесс обработки данных однажды может превратиться в коммунальную услугу наподобие системы телефонной связи». Каждый прорыв в области сетевых технологий вызывал появление предпринимателей, которые надеялись превратить коммунальные вычисления в крупный бизнес. В эпоху мейнфреймов компании, осуществлявшие обработку данных в режиме разделения времени, устанавливали центральные компьютеры и сдавали их в аренду другим компаниям, позволяя напрямую подключаться к ним через телефонную линию. В 1970-х годах такие компании, как Automated Data Processing, начали предлагать некоторые рутинные вычислительные работы, в частности по расчету заработной платы, в качестве платной услуги. А в 1990-х годах при значительной поддержке венчурного капитала появилось множество «провайдеров прикладных услуг», которые собирались предоставлять компаниям доступ к программному обеспечению через интернет.