НовостиМнениеЦитатыДокументыПроектыКто есть кто
»

Цифровая экономика

Михаил Золотарев: "Ради улучшения энергоэффективности своего проекта в России можно потратить около 10% от стоимости базового варианта — более высокие затраты попросту не окупаются"

ЦОДы в России и на Западе: в чем отличия?

Михаил Золотарев,
начальник отдела управления проектами дата-центра Xelent
© ComNews
01.10.2018
Михаил Золотарев: "Ради улучшения энергоэффективности своего проекта в России можно потратить около 10% от стоимости базового варианта — более высокие затраты попросту не окупаются"

Российские технологичные компании часто оглядываются на опыт зарубежных игроков, и дата-центры не исключение. О том, что отличает отечественные ЦОДы от иностранных, есть ли между ними сходства и какие зарубежные инициативы наши компании могли бы перенять рассказал начальник отдела управления проектами дата-центра Xelent Михаил Золотарев.

Отличие №1. География дата-центров

Российские коммерческие центры обработки данных находятся в крупных городах, в основном, в Москве и в Санкт-Петербурге, и попытки построить объект даже в ближнем Подмосковье при всех технических преимуществах сталкиваются с недостатком спроса. За рубежом все наоборот: в США, например, уже в начале двухтысячных годов было нормой, когда компания из Нью-Йорка размещала свои серверы в дата-центре в Орегоне — на другом побережье, поскольку там электричество дешевле, погода прохладнее, а оптика по стране проложена давно. Похожим образом и в Европе скандинавские дата-центры размещают оборудование из южных регионов, снижая тарифы за счет своих природных преимуществ.

Менталитет российского заказчика пока не готов к географически удаленным объектам, да и каналы связи у нас достаточно дорогие. Плюс, возникают проблемы со стороны службы безопасности, которая часто требует цельнопаяной оптики без стыков. На Западе глубже понимают вопросы безопасности — там специалисты не возражают и против качественной VPN.

Отличие 2. Корпоративная инфраструктура

Глобальный тренд — уход в hyperscale или сверхбольшие объекты. Рассчитанные на мощности в десятки и сотни мегаватт центры обработки данных строятся прежде всего глобальными провайдерами облачных услуг и владельцами крупных социальных сетей — Google, Amazon, Microsoft и Facebook.

Сам масштаб в этом новом сегменте диктует смену подходов и приоритетов. Многие из этих дата-центров совершенно не похожи по конструкции на традиционные – начиная от бескорпусных серверов с относительно коротким плановым сроком замены, который определяется устареванием, а не износом, и заканчивая упрощенными системами питания и охлаждения, спроектированными с учетом того, что отключение одного зала или целого дата-центра не нарушает работу глобального сервиса. Например, если не акцентировать внимание на максимальном сроке службы микросхем в ИТ-оборудовании, а ограничиться тремя годами их службы, то можно поднять рабочую температуру. В этом случае уже не нужны холодильно-компрессорные машины – охлаждение круглый год будет происходить естественным образом за счет прямой вентиляции. Это позволит сэкономить и на оборудовании, и на затратах энергии на охлаждение.

Аналитики дают разные оценки роста hyperscale-сегмента, вплоть до 40% в год, и все мировые поставщики оборудования сосредоточены именно на нем. У нас по этому направлению идет, пожалуй, только "Яндекс" со своими крупными дата-центрами, где применяются, например, бездизельные схемы бесперебойного питания.

Отличие 3. Энергоэффективность

Еще один важный мировой тренд — борьба за энергоэффективность ЦОД — для нашей страны не столь актуален. В России относительно дешевая электроэнергия и более дорогое оборудование, в том числе, за счет дорогих кредитов, пошлин, НДС и прочего. Ради улучшения энергоэффективности своего проекта в России можно потратить около 10% от стоимости базового варианта — более высокие затраты попросту не окупаются.

Например, дата-центр Xelent проектировался в тот момент, когда спрос на размещение colocation значительно превышал имеющиеся мощности, что толкало рынок вверх. При том валютном курсе цена электроэнергии относительно оборудования была выше. Поэтому мы использовали решение Kyoto Cooling на основе роторных теплообменников, которое заметно дороже традиционных систем типа чиллер-фанкойл.

Благодаря этому мы избавились не только от затрат на перекачку жидкого антифриза, но и от риска протечек и других проблем. Например, прошлой зимой дата-центр одного уважаемого банка перегрелся в сильный мороз только из-за того, что в идущих по улице трубах порвало швы из-за их тепловой деформации. Наша система таких проблем лишена изначально, но в нынешних экономических условиях более высокие капитальные затраты на нее, скорее всего, не были бы оправданными.

Крупный ЦОД может продавать и гигакалории тепла — есть чиллеры, которые выдают в систему отопления воду с температурой 70°C. Например, дата-центр "Яндекса" в Финляндии отапливает целый городок. В России же тепло очень трудно продать по любой цене из-за монополизации распределения. Опять же, надо принять во внимание, что утилизация тепла помогает охлаждать ЦОД только зимой, а на лето все равно нужно иметь полноценную систему охлаждения. На это накладывается дороговизна капитала, и экономический смысл таких вложений исчезает.

Отличие 4. Нормативы

Российский сегмент ЦОДов довольно сильно отличается от западного. Если за границей тренд задают гигантские корпоративные объекты и курс на энергоэффективность, то у нас в ходу иные драйверы роста рынка. Кроме того, на Западе проектировщики встречаются с условиями и проблемами, которые для России пока неактуальны. Например, один из крупных дата-центров Франкфурта расположен в непосредственной близости от жилых домов. Проектировщикам пришлось вписываться в очень жесткие нормативы по уровню шума — всего 37 децибел. Они построили технологическое здание, наверху поставили тихие градирни, компрессоры опустили в подвал, использовали шумопоглощающие экраны и так далее. У нас таких проектов нет, хотя в самой Москве, например, есть крупные ЦОДы. В России проще и многие нормативы, и отношение к их соблюдению.

И, наоборот, у нас категорически запрещена параллельная работа локальной генерации с сетью. Это упрощает обеспечение безопасности, но из-за этого при обслуживании динамического источника бесперебойного питания (ИБП) нужно ждать несколько часов, пока его маховик замедлится и остановится сам. А где-нибудь в Германии можно за пару минут сбросить запас энергии в сеть, да еще и немного "провернуть счетчик назад".

Заключение

Развитие этой отрасли у нас идет с отставанием от передовых стран примерно в 10-15 лет. Сегодня у нас введены в эксплуатацию действительно надежные качественные крупные дата-центры и идет естественный процесс миграции в них ИТ-систем из собственных мелких серверных комнат предприятий и организаций. Этот процесс можно сравнить с ведущим трендом в США в начале нулевых, с поправкой на большую зрелость облачных решений сегодня. Многие предприятия предпочитают перескочить ступеньку размещения собственного оборудования в большом ЦОД и мигрировать сразу в облако в этом большом ЦОД.