10 лет сервера нормально работали в каморке рядом с офисом, и вдруг системный администратор заводит разговор о переносе оборудования в ЦОД. Зачем? Почему? По какой причине? На самом деле причин несколько и все они обоснованы.

Сложности температурно-влажностного режима

Серверные 2000-2005 гг. работали по принципу «чем холодней, тем лучше». И действительно, для сохранения работоспособности оборудования начала XXI века в помещении требовалось поддерживать температуру 16-20°C. Современная электроника нормально работает в более широком диапазоне — 20-27°C, однако даже этот интервал тяжело держать круглые сутки, круглый год.

Самое неприятное, что выход за пределы оптимума дает о себе знать не сразу. Сегодня на градус ниже, завтра на градус выше, и вот уже срок полезного использования серверов снижается до 1,5 лет.

Уровень влажности в серверной — лезвие ножа. Чуть пересушил и статическое электричество угрожает повредить компоненты сервера. Чуть недосмотрел и корпус покрывается конденсатом. Безопасным считается диапазон относительной влажности 30-70%, но балансировать точно в этих пределах способны только прецизионные кондиционеры с испарителями.

Илл 1. [Прецизионные кондиционеры в дата-центре]

Нестабильность электропитания

220В — идеальное значение напряжения в сети. В действительности утром это может быть 210, а после обеда 230В. Офисной микроволновке и чайнику такие скачки не страшны, а серверное оборудование очень чувствительно к качеству электрического тока. Ему требуются стабильные параметры. До определенного момента этот вопрос закрывают стабилизаторы и ИБП, но с надежностью у них не все хорошо: выход из строя стабилизатора сводит на нет все усилия по борьбе с фазовыми сдвигами, а типовые ИБП абсолютно бесполезны, когда электричество в офисе отключается более чем на 3-4 часа.

Если IT-инфраструктура критична для бизнеса, стабильность работы обеспечит только ЦОД с собственными подстанциями, дизель-роторными источниками бесперебойного питания и системой резервирования компонентов. Не забываем и про резерв топлива, на котором до включения электроснабжения должны продержаться ДГУ.

Илл 2. [ДГУ и ДИБП в ЦОД GreenBushDC]

В надежных дата-центрах резерв топлива, независимо от режима работы, поддерживается на стабильном уровне. В GreenBushDC в Зеленограде, например, запас топливохранилища рассчитан на 24 часа автономной работы при полной загрузке. А на сколько хватит ИБП в серверной?

Опасная пыль и постоянный шум

Благодаря особой конструкции серверного оборудования, воздушный поток вентиляторов проходит через все критичные элементы сервера. Это хорошо для охлаждения, но плохо для чистоты: вместе с воздухом внутрь попадает пыль. При этом качество и регулярность влажной уборки проблему не решают. Пыльцу растений, споры плесневых грибков, бумажную пыль каждый день приносит на одежде и обуви системный администратор и добавляют сотрудники, заглядывающие в серверную. С ними же в помещение попадают частички кожи, песчинки, остатки моющих средств. Все это накапливается на контактах и оседает на вентиляторах, вызывая короткие замыкания, перегрев оборудования.

Избавиться от пыли можно двумя способами:

  1. Регулярно вычищать вручную, отключив все сервера и прервав работу.

  2. Установить систему обеспыливания с фильтрами в системе кондиционирования, специальным напольным покрытием и комплексом санитарно-гигиенических правил. Как в дата-центрах.

Шум — вишенка на торте: шум от одного сервера на пиковой нагрузке достигает 70 дБ. Это сравнимо с разговором на повышенных тонах. Если серверов больше десятка, звук работающего оборудования слышен в соседних кабинетах даже через стены. В определенной степени спасают акустические перегородки, но они занимают полезную площадь, стоят недешево и нивелируют не более 20% уровня звука.

С ростом IT-инфраструктуры пыль, шум, нестабильность электроснабжения и сложности с климатическим режимом достигают критической массы. И рано или поздно наступает момент, когда системный администратор понимает — трудозатраты и расходы на поддержание работоспособности серверной превышают адекватные значения. Это значит, что пришло время меняться: переносить офисную IT-систему в надежный дата-центр, сокращать непрофильные траты и минимизировать риски простоя. Как это сделать быстро, бережно и безопасно — спросите у специалистов GreenBushDC.

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here