О серверах и сервисах

На текущий год ведущие аналитические агентства предсказывали падение на серверном рынке. А с началом пандемии и связанных с ней ограничений эти прогнозы корректировались в сторону еще большего снижения. Однако реальность была не столь драматичной. В первом полугодии рынок продолжал расти, а в третьем квартале снижение было незначительным. Так что пандемия не привела к свертыванию программ цифровизации, реализация которых просто невозможна без модернизации серверного парка.

В 2011 году агентство IDC констатировало приход третьей платформы. Ее характеризуют "конвергенция и взаимное усиление четырех взаимозависимых тенденций: социальное взаимодействие, мобильность, облака и информация". Основу первой платформы составляли мэйнфреймы и мини-машины, второй — ПК, компьютерные сети (как локальные, так и глобальные, включая Интернет) и клиент-серверные технологии.

Однако, как и ранее, этот переход стал результатом естественного развития, и системы, составляющие основу первых двух платформ, никуда не исчезли. К примеру, на переходе от первой платформы ко второй неоднократно давались прогнозы о том, что мэйнфреймы в обозримом будущем будут сняты с эксплуатации. Но они заняли место на серверном рынке, обеспечивая выполнение тех задач, где наиболее велики требования к отказоустойчивости при большой нагрузке.

Ведущие мировые поставщики серверов — объем поставок, штук

Компания

Поставки III кв. 2020 г.

Доля в III кв. 2020 г.

Поставки в III кв. 2019 г.

Доля в III кв. 2019 г.

Рост/снижение

Dell Technologies

502409

16,39%

502306

16.36%

0.0%

HPE/New H3C Group

425117

13,87%

459395

14.96%

-7,5%

Inspur/Inspur Power Systems

296121

9,66%

314975

10.26%

-6,0%

Huawei

177729

5,80%

156150

5.08%

13,8%

Lenovo

163908

5,35%

204040

6.64%

-19,7%

ODM Direct

989024

32,26%

896625

29.19%

10,3%

Прочие

511482

16,68%

537752

17.51%

-4,9%

Всего

3065791

100%

3071244

100%

-0,2%

Источник: IDC, декабрь 2020.

Рождение концепции

В период первой платформы деления на рабочие станции и серверы не было. Диалог между оператором и компьютером проходил с помощью различных устройств: пишущих машинок, телетайпов, перфораторов, печатающих устройств, позднее различных терминалов. Кстати, первые персональные компьютеры часто использовались и как интеллектуальные терминалы для мэйнфреймов и мини-машин.

На заре развития второй платформы, когда серверы решали относительно простые задачи, например, обеспечение общего доступа к файлам и принтерам, была популярна практика использования в качестве сервера обычного персонального компьютера в усиленной конфигурации. Такие недосерверы работали в типичном офисном режиме: 5 дней в неделю по 8 часов.

Но с появлением групповых приложений, часто портированных с мэйнфреймов и мини-машин, оказалось, что в ПК-переростках, словами основателя Sun Скотта Макнили, все, начиная от блока питания, не ориентировано на обеспечение бесперебойной работы. В итоге появились специализированные системы, часто многопроцессорные и предназначенные для монтажа в специальных шкафах-стойках. Для размещения такого оборудования нужны были выделенные серверные комнаты, и данное обстоятельство привело к серьезным изменениям в стандартах на офисные здания, особенно после того, как плотность размещения элементов привела к существенному росту веса серверов. К середине нулевых она превысила тонну на квадратный метр, а межэтажные перекрытия в типичном здании 60-70 годов 20 века могли выдержать существенно меньше.

Никита Солодун, эксперт по интеллектуальным системам Huawei:

"Главным отличием современных серверов является их универсальность и гибкость применения в различных вычислительных нишах. В этом их отличие от мэйнфреймов и серверов на RISC архитектурах (IBM POWER, Sun SPARC, Itanium), которые задействованы в небольшом количестве сценариев"

К слову, эти системы являлись прямыми наследниками мини-машин, которые на первое время заняли довольно заметную нишу в серверном сегменте, прежде всего, среди старших моделей, ориентированных на наиболее ответственные применения в крупных компаниях.

Но с развитием технологий виртуализации с одной стороны и появление многоядерных процессоров стандартной архитектуры с другой количество таких ниш начало резко сокращаться. Еще в середине нулевых для работы под большой нагрузкой, например, для баз данных и ПО, которое работало поверх них, например, ERP-систем, альтернативы у RISC-серверов, работающих под управлением коммерческих Unix вроде Sun SOLARIS, IBM AIX, HP-UX просто не было. "В принципе, SAP R/3 должен работать на x86, но, к сожалению, не обязан. Так что если вы хотите, чтобы система не просто запускалась, а продуктивно функционировала, то нужно использовать серверы Sun или IBM", — вот типичная позиция интегратора где-то 2005 года.

Но уже в конце первого десятилетия 21 века большинство типичных задач могли решать и системы стандартной архитектуры на Linux. Тем более, что на Linux были успешно портированы все популярные бизнес-приложения и базы данных. В итоге, по данным Mercury Research, уже в 2016 году доля архитектуры x86/x86-64 составила 99,7%.

К тому же многие технологии повышения отказоустойчивости из старших сегментов мигрировали в младшие. В итоге типичная современная блейд-платформа массового рынка по многим параметрам не уступает типичному мэйнфрейму. Также появились способы обеспечить повышенную отказоустойчивость и при использовании типовых башенных и стоечных серверов.

С появлением облачных технологий рынок центров обработки данных сильно изменился. Компаниям малого и среднего бизнеса создавать свой ЦОД оказалось и вовсе не нужно. Выгоднее арендовать виртуальный облачный сервер и развернуть на нём все необходимые бизнес-приложения. Несмотря на это, остаётся потребность в частных ЦОД для компаний, которые, например, работают с персональными или другими чувствительными данными и опасаются несанкционированного доступа к их информации. Стоит помнить и о специализированных программно-аппаратных решениях для осуществления специфических задач телекома, промышленности, государства и банковского сектора, где использование облачных платформ по тем или иным причинам, как правило, регуляторным, невозможно.

Впрочем, крупные компании создают частные облака, тем самым сочетая облачную гибкость и полный контроль над инфраструктурой. К примеру, начальник Департамента ИТ, автоматизации и телекоммуникаций ПАО "Газпром нефть" Антон Думин на VI Федеральном форуме нефтегазовой отрасли "Smart Oil & Gas 2020" так описал преимущества частного облака: "Всю необходимую ИТ-инфраструктуру филиалы могут получать из единого частного облака по модели IaaS. В итоге решается задача быстрого запуска новых сервисов, что является основным вызовом для современных корпоративных ИТ".

В последние годы частные облака трансформируются в корпоративные цифровые платформы. Они объединяют облачные сервисы со средствами сбора, хранения, обработки и анализа различных типов данных, включая неструктурируемые. "Цифровая платформа – предприятие, обеспечивающее взаимовыгодные взаимодействия между сторонними производителями и потребителями. Она дает открытую инфраструктуру для участников и устанавливает новые правила", – такое преимущество платформенного подхода называется ключевым в книге Джеффри Паркера и Санджита Чаудари "Революция платформ". Именно широкое применение таких платформ, наряду с поощрением цифрового новаторства и избавлением от архаичных подходов, по мнению глобального директора по индустриальным исследованиям Gartner Саймона Кушинга, которое он высказал в своем выступлении на форуме "Smart Oil & Gas 2020", является основным способом избежать сложностей при реализации программ цифровой трансформации.

Реальный сектор экономики будет продолжать испытывать давление и адаптироваться, а цифровой – расти и развиваться. В долгосрочной перспективе понадобится больше вычислительных ресурсов, пространства для хранения данных, увеличения емкости сети для передачи большего объема данных", – уверен генеральный директор Lenovo Data Center Group Россия и СНГ Дмитрий Паршин.

"При этом строительным материалом для построения облачных платформ должны стать гетерогенные вычислительные комплексы, которые включают в себе как серверы, так и другие вычислительные элементы: системы хранения данных, сетевое оборудование, инженерные системы. Так что спрос на серверы все равно будет сохраняться. Они находятся в положении даже не крокодилов, а куда более многочисленных ящериц или змей", – уверен Никита Солодун.

Пришествие ARM

В середине нулевых на рынке серверов появилась новая архитектура — ARM. Надо сказать, она существовала и до того, но ее применение было ограничено другими сегментами ИТ-рынка. Изначально она была разработана еще в 1980-е годы для настольных систем, но популярность получила позже в качестве основы для мобильных устройств и сетевого оборудования. ARM базировался на концепции RISC, но, в отличие от процессоров от DEC, HP, IBM, Silicon Graphics, Sun и других, ставка была сделана на массовость и дешевизну, пусть в первое время и в ущерб производительности. Ведь изначально процессор ARM предназначался для компьютера Archimed, ориентированного на сферу образования.

Первоначально ARM в серверном сегменте была занята довольно узкая ниша систем хранения данных начального, практически бытового уровня. Долгое время аналитики считали, что ARM оттуда очень быстро вытеснит появившаяся тогда же платформа Intel Atom, но эта ниша со временем только расширялась. Сейчас не редкость СХД корпоративного класса на базе ARM. Довольно широкую линейку таких систем вывел на рынок, в том числе, Huawei.

Однако уже через несколько лет ниша для серверных ARM начала расширяться. Этому благоприятствовало динамичное развитие архитектуры, чему, в свою очередь, способствовала ее открытая спецификация: консорциум ARM лицензирует ее практически всем желающим. При этом каждый из лицензиатов имеет право вносить разного рода изменения, и многие компании-лицензиаты, среди которых Apple, AMD, Huawei, Samsung и многие другие этим правом активно пользуются.

Архитектура ARM с самого начала была одной из наиболее энергоэффективных на рынке, и сейчас это преимущество является одним из определяющих как раз для серверного сегмента. Ведь на отвод тепла приходится тратить практически столько же энергии, сколько потребляет само оборудование.

К тому же на рубеже нулевых и десятых появились такие востребованные функции как поддержка 64-битных вычислений или возможность аппаратной поддержки систем виртуализации. А в середине 2010 годов производительность серверных ARM в целом сравнялась с x86-64, по крайней мере, в целочисленных операциях. При этом оборудование оказалось еще и компактным. Серверы на ARM возможно размещать более плотно, чем x86. В том объеме, которое занимает сервер форм-фактора 2U можно разместить целую блейд-платформу из 20 серверов на ARM. Так что даже при формальном паритете в производительности у SoC на базе x86 и ARM у последних оказалось заметное преимущество. А в текущем году ARM вырвался вперед и по производительности SoC, по крайней мере, по сравнению с продукцией Intel.

"Результаты поразительные. В них даже сложно поверить, но, как говорится, мы всё видели своими глазами. Никаких ошибок здесь нет. Да-да, в стабилизации видео 4К новинка почти на порядок обгоняет аналог с процессором Intel (хотя у него 16 ГБ оперативной памяти, а не 8). Более того, сильно позади оказывается даже iMac! Разве что Mac Pro впереди, но, как говорится, могло ли быть иначе... При создании прокси-файла из видео 8К новинке проиграли и Mac Pro, и iMac", – так сотрудник тестовой лаборатории IXBT Николай Синцов прокомментировал результаты тестирования на реальных приложениях показала новейшая модель Macbook Pro на базе процессора M1 .

Серверные процессоры, где еще больше ядер, чем в SoC для мобильных и настольных систем, показывают еще более впечатляющие результаты. К примеру, Ascend 910 от Huawei обходит лучшие Intel Xeon почти на три порядка. Вице-президент по развитию "Рикор" Борис Иванов видит проблему лишь в недостатке ПО: "Технологически ARM побеждает, но проблема – в адаптации программного обеспечения: далеко не все приложения имеют ARM-версии. Не будь этой проблемы с ПО, в России ARM-сервера заняли бы до 20% рынка"

"Также в последние годы растет доля специализированных процессоров, ориентированных для обучения нейросетей, обработки больших массивов данных или высокопроизводительных вычислений. Сейчас почти каждый независимый разработчик или даже студент профильного ВУЗа может позволить себе купить в личное пользование мощнейший вычислительный комплекс и начать разработку своих программных решений" – делится своими наблюдениями Никита Солодун.

Растёт и спрос на сервисы, использующие искусственный интеллект (ИИ). Банки всё чаще используют ИИ в своих скоринговых системах, многие из которых сами могут принять решение о том, можно ли выдать кредит заявителю или нет. Широко востребованы системы анализа потребностей клиента или сервисы "умного видео-наблюдения" для анализа поведения покупателей в розничной торговле или системах безопасности. Все они требуют выделенной специализированной вычислительной платформы на месте, а не, скажем, в облаке или удалённом ЦОД.

При этом цифровизация перестала восприниматься бизнес-руководителями как нечто сложное, что стало прямым следствием работы в удаленном режиме во время пандемийного локдауна. К примеру, ИТ-директор "Сургутнефтегаза" Ринат Гимранов на конференции "Smart Oil & Gas 2020" поделился таким своим наблюдением: "Новая тенденция – упрощение взгляда на цифровизацию: если раньше к ней приглядывались как к чему-то неведомому (цифровые двойники, цифровой след, виртуальная реальность и проч.), то теперь она ассоциируется со Skype, Zoom, Teams. И все менеджеры стали говорить, что цифровизация – это просто".

Что будет дальше

Концепция универсального сервера теряет свою актуальность при переходе к Индустрии 4.0. С появлением ИИ, интернета вещей, автономных транспортных средств, различного рода роботов и других новых технологий в будущем, обработка данных будет осуществляться как на месте, так и в облаке, что потребует диверсификации вычислений, и они сами будут более адаптированы для обработки уже не на серверах (концепция граничных вычислений или edge computing).

"Если говорить об аппаратной архитектуре, то в целом решение "процессор — системная плата — память" является универсальным и сохранится, но форм-фактор будет сильно зависеть от области применения. У многих компаний, в том числе и Huawei, есть целая линейка "железа", чей форм-фактор существенно отличается в зависимости от сценария использования", – уверен Никита Солодун. Где-то нужна энергоэффективность и низкое тепловыделение, где-то критичны габариты, для некоторых задач важны устойчивость к перегрузкам и вибрации, где-то вычислительная мощность или скорость передачи данных. И чем больше будет новых ниш для использования серверов, тем ярче будут выражены различия.

В итоге продолжают появляться новые процессорные архитектуры и даже возрождаться старые, иногда хорошо забытые. Помимо x86/x86-64 и ARM, перспективы имеет полностью свободная архитектура RISC-V, использование которой не требует лицензирования. Вспоминая мэйнфремы или возрождение архитектуры "Эльбрус", говорить о закате тех или иных архитектур рано. Другой вопрос – это сегментация рынков и снижение уровня использования тех или иных архитектур в разных сценариях. Тут активно идёт процесс диверсификации использования различных архитектур под конкретные задачи заказчиков. Так что место найдется для всех.