Коэффициент pue – Коварный PUE / ua-hosting.company corporate blog / Habr

Коварный PUE / ua-hosting.company corporate blog / Habr

PUE, довольно спорный, но от того не менее интересный параметр энергоэффективности функционирования ЦОД, недавно получил очередной удар по своему авторитету универсального мерила оптимальности потребления электроэнергии. Компания NGD (Next Generation Data) объявила о достижении их дата-центром коэффициента PUE, равного 1.0! Что это? Фундаментальный прорыв в технологиях, маркетинговая манипуляция не слишком расторопным коэффициентом, или откровенная ложь? Далее в этой статье и попробуем разобраться в столь нетривиальном заявлении о достижении неимоверного PUE, которое сделал на прошлой неделе в Лондоне Ник Разей (Nick Razey), генеральный директор NGD.

«Говорите, что хотите, но не называйте мое заявление маркетинговой профанацией», — вот каков был ответ Ника Разея, когда его остро спросили на проходящей ИТ конференции в Лондоне по поводу озвученного его компанией коэффициента энергоэффективности своего уэльского дата-центра в Ньюпорте.

Размещенный на западе страны ЦОД бесспорно является зеленым, но гарантированный клиентам в заключаемых договорами PUE 1.0 — это весьма смело, если не сказать безрассудно. Судовые иски еще никто не отменял.

Ознакомившись на сайте компании с предоставленной там информацией, можно четко увидеть, что никакого подвоха, недопонимания тут нет: «Гарантированная энергоэффективность контрактного PUE для дата-центра 1.0 – это на сегодняшний день является наивысшим уровнем энергоэффективности среди всех проанализированных по этой методике ЦОД-ов».

Генеральный директор NGD вообще называет свой дата-центр «Первым в мире» по этому показателю. Тут он, конечно, прав, такого рода прецедентов еще не было. Но вся проблема в том, что, строго говоря, это невозможно.

Как известно, значение PUE определяется как соотношение общей мощности, которую потребляет весь ЦОД, к мощности, потребляемой непосредственно ИТ-оборудованием, которое задействовано в процессе обработки и хранения данных этого ЦОДа. Исходя из этой логики, заявленный коэффициент 1.0 означает, что вся электроэнергия, поступающая на ЦОД, расходуется исключительно на серверные стойки и не используется больше нигде в сооружении, в том числе и на освещение, кондиционирование воздуха, охлаждение серверных стоек.

Озвученная ситуация, очевидно, невозможна. Достигаемый титаническими усилиями результат современных храмов ИТ-инфраструктуры в районе PUE 2.0 – это объективная реальность. Наилучшего же показателя на этой ниве в данный момент достигли дата-центры от Facebook. К примеру размещенный в г. Принвиль (США) ЦОД в результате неимоверных усилий и сложных технических решений поддерживает свое значение PUE на уровне феноменальных 1.08! При таком положении вещей возникает логический вопрос: каким же образом компания NGD контрактом гарантирует столь высокое значение коэффициента?

Размещенный в Уэльсе дата-центр площадью без малого 70 000 квадратных метров, является самым большим дата-центром в Европе. Основные его потребности в электропитании обеспечивает линия в 35 кВ, которая тянется от размещенной неподалеку ГЭС. Само здание дата-центра было возведено еще в 1990 году корпорацией LG под создание полупроводников, но корпорация так и не запустила там свое производство. Используя тот факт, что здание унаследовало от типового промышленного объекта просторную плоскую крышу, инженеры компании NGD разместили на ней целую солнечную ферму. Это весьма разумный шаг, ведь со слов Ника солнечные панели могут генерировать «до миллиона киловатт-часов в год». Тем самым, выдавая энергию в сеть, солнечная станция будет покрывать собственные нужды энергопотребления.

Установленная система вентиляции серверных помещений весьма прогрессивна. Новейшая разработка, представленная одним из лидеров на рынке, позволяет очень точно отслеживать температуру в помещениях и подавать в нужное место необходимый объем воздуха, что максимально снижает расход электроэнергии на ее функционирование.

Хотя компания NGD и имеет свою солнечную электростанцию, но для функционирования ЦОДа этого, конечно же, недостаточно. Как ранее отмечал один из инженеров Amazon Джеймс Гамильтон (James Hamilton): «На широте Северной Каролины для функционирования одного квадратного метра серверных стоек необходимо в среднем 362 квадратных метра солнечных батарей».
Хватит ли заявленного миллиона киловатт-часов в год от солнечных панелей на покрытие хотя бы операционных нужд ЦОДа, пока не понятно. Генеральный директор NGD Ник Разей утверждает, что хватит с лихвой, и что именно эта генерируемая панелями электроэнергия позволит обеспечить для потребителей их услуг тот контрактный PUE 1.0, о котором, собственно, и шла речь.

После такой трактовки коэффициента генеральным директором NGD, как и следовало ожидать, на него посыпалась лавина критики от коллег по отрасли. Профессор Ян Биттерлин (Ian Bitterlin), технический директор компании Emerson Network Power, прокомментировал это несколько возмущённо: «Такого рода интерпретации PUE абсолютно некорректны, и более того, идут вразрез со здравым смыслом, ведь из общего значения входящей электроэнергии умышленно вычитается ее часть». Технический аналитик Клайв Лонгботтом (Clive Longbottom) не был таким задержанным в терминах и назвал всю эту шумиху с компанией NGD «зеленым очковтирательством» и так задевшим Ника Разея словосочетанием «маркетинговая профанация».

Но даже после такого холодного «приема» ИТ-сообществом идей Ника, он не кается в содеянном и настаивает на своем. «Мы возвели современный ЦОД, применив в нем самые передовые технологии. Если считать его PUE по классической схеме, то мы вышли на коэффициент 1.18. То, что наши дополнительные инвестиции в солнечные батареи позволяют получать сейчас свободную энергию и перекрывать ею часть потребностей дата-центра, дает нам возможность честно предлагать клиентам озвученные контракты. Предлагать контракты, в стоимость которых будут входить энергозатраты лишь на функционирование серверных стоек, — это наше право». Парируя далее выпады в свою сторону, Ник откровенно подытожил: «Со здравым смыслом у нас все хорошо, и он нам говорит, что если бы мы на объекте имели больше мощностей восстанавливаемой энергии, которая могла бы уже перекрывать хоть частично потребности в питании серверных стоек, мы бы озвучили свой PUE и ниже 1.0, хоть до нуля».

Настолько ли сотрудники NGD уж не правы, интерпретируя цифры? Очевидно, что в погоне за сенсацией, за желанием попасть на заглавные страницы интернет изданий и была заварена вся эта каша. Оставляя каждого при своем мнении, сама поднятая тема и попутно возникающие вопросы невольно дают нам почву для размышлений, а главное, в очередной раз показывают условность и слабости универсального мерила энергоэффективности дата-центров.

habr.com

ЦОД как на ладони | Журнал сетевых решений/LAN

 

ИТ-менеджерам необходимы реальные данные о количестве электроэнергии, расходуемой компонентами ЦОД, но проблема состоит в том, что получить их очень трудно. Часто анализ ограничивается сложением данных об энергопотреблении серверов, систем хранения и сетевого оборудования, указанных производителями. Но таким образом можно получить только приблизительные значения, которые не позволят оптимизировать энергопотребление всего ЦОД.

ОПРЕДЕЛЕНИЕ ЗНАЧЕНИЙ PUE

В настоящее время эффективность ЦОД обычно определяется с помощью коэффициентов Power Usage Effectiveness (PUE) и Data Center Infrastructure Efficiency (DCIE) (см. врезку и Рисунок 1). Оба параметра были введены консорциумом The Green Grid Consortium и считаются теперь общепризнанными мерилами эффективности. По данным HP и Fujitsu, среднее значение коэффициента PUE для большинства ЦОД в Германии составляет около 1,6–2. Это означает, что в ЦОД должно поступить 1,6–2 Вт электроэнергии, чтобы системы ИТ получили 1 Вт. Оставшиеся 0,6–1 Вт расходуются на охлаждение, освещение и на нужды прочих потребителей. Только в ЦОД новейшего поколения удается достичь показателей PUE на уровне 1,1–1,2.

 

Показатели энергоэффективности в ЦОД

Консорциум The Green Grid Consortium определил четыре параметра для численной оценки экологичности и энергоэффективности центров обработки данных:

Эффективность использования электроэнергии (Power Usage Effectiveness, PUE). Этот показатель указывает, какая часть общего энергопотребления в ЦОД приходится на долю систем ИТ. Значение PUE получается при делении показателя общего энергопотребления всего ЦОД на количество электроэнергии, расходуемой оборудованием ИТ.

PUE = общее энергопотребление ЦОД: расход систем ИТ. Чем выше результат, тем больше энергии расходуется не на снабжение компонентов ИТ, а на сопутствующие процессы: охлаждение, освещение, ИБП и т. д. Так, значение PUE, равное 2,0, означает, что из 2 Вт, поступающих в ЦОД, системам ИТ достается только 1 Вт.

Эффективность инфраструктуры ЦОД (Data Center Infrastructure Efficiency, DCIE). Этот параметр определяет общую эффективность ЦОД, выраженную в процентах. Коэффициент DCIE представляет собой обратное значение коэффициента PUE. Так, если PUE равен 1,6, то значение DCIE составляет 1: 1,6 х 100 = 62,5%.

Эффективность использования воды (Water Usage Effectiveness, WUE). Этот параметр определяет соотношение между израсходованной водой и каждым киловаттом, потребленным оборудованием ИТ (литры на кВт×ч, л/кВт×ч). Данный коэффициент показывает, насколько экономно ЦОД обходится с водой для охлаждения.

Эффективность использования углерода (Carbon Usage Effectiveness, CUE). Этот параметр рассчитывается на основе количества выброса углекислого газа, выделяемого при производстве электроэнергии для снабжения всего ЦОД, помноженного на значение PUE.

CUE = выброс углекислого газа (CO2 в кг) при производстве энергии × PUE. Этот параметр определяет экологичность источников энергии, снабжающих ЦОД электричеством. Чем выше его значение, тем ниже экологическая эффективность ЦОД. В будущем данный коэффициент станет еще более важен, в том числе потому, что в 2013 году Европейский союз собирается ввести налог на выбросы углекислого газа, который затронет и владельцев ЦОД.

ЦОД как на ладони
Рисунок 1. Значение PUE утвердилось в качестве общепринятого эталона для определения энергоэффективности систем ИТ в ЦОД.

 

Чтобы определить значение коэффициентов PUE и DCIE, необходимо замерить общее энергопотребление всего ЦОД. Этот трудоемкий и чреватый ошибками процесс существенно упрощается при использовании решения для управления производительностью ЦОД (Data Center Performance Management, DCPM). На основании информации, поступающей от электрических счетчиков, систем энергоснабжения, охлаждающих установок, насосов и осветительных систем, DCPM определяет суммарное потребление электроэнергии в ЦОД. Частично эти данные предоставляются посредством SMTP или через специализированные приложения. Результаты измерений могут комбинироваться с данными из других источников, в том числе из таблиц Excel или уже упомянутой документации, предоставляемой производителями.

На втором этапе необходимо определить энергопотребление самих систем ИТ. К ним относятся серверы, коммутаторы, системы хранения информации и прочие сетевые компоненты. В ходе этой ревизии важно учесть и виртуализированные компоненты (серверы, устройства хранения и сети). На основании двух полученных результатов — общего энергопотребления всего ЦОД и непосредственно оборудования ИТ — можно рассчитать значения PUE и DCIE (см. Таблицу 1). Еще одним преимуществом такой инвентаризации является то, что в ходе этой работы появляется возможность выявить наличие неиспользуемых серверов. Согласно данным исследования, проведенного в 2010 году специалистами из The Green Grid Technical Forums, в ЦОД обычно имеется 10–15% «брошенных» серверов. Такие компьютеры напрасно расходуют электроэнергию и охлаждающую мощность, не предоставляя ничего взамен.

ЦОД как на ладони
Таблица 1. Оценка значений PUE и DCIE.

 

ПРЕДВАРИТЕЛЬНОЕ МОДЕЛИРОВАНИЕ ЗАПЛАНИРОВАННЫХ ИЗМЕНЕНИЙ

На основе полученных данных можно запланировать меры по повышению энергоэффективности и экологичности ЦОД. Проблемы возникают, когда такие изменения реализуются по методу проб и ошибок. Попытки в качестве эксперимента изменить расположение серверных стоек в ЦОД или по-быстрому организовать «горячую зону» (Hot Zone) трудоемки, чреваты просчетами и могут привести к нарушению работы систем. Гораздо эффективнее предварительно смоделировать запланированные изменения с помощью инструментов DCPM. Для этого в программе необходимо создать виртуальные модели всех компонентов ИТ (к примеру, серверных стоек, систем охлаждения и элементов энергоснабжения), после чего специалистпланировщик сможет увидеть на экране возможные последствия предполагаемых изменений. В частности, он сможет понять, удастся ли обеспечить достаточную подачу электроэнергии, если разместить в определенной зоне еще одну серверную стойку высокой плотности (High Density), не возникнет ли проблем с перегревом или где еще есть место для серверного кластера.

Важно, чтобы планирование базировалось на реальных показателях, то есть на результатах измерений действительного потребления электроэнергии, а также реальной загруженности и тепловыделения систем ИТ и соответствующих вспомогательных систем, обеспечивающих подачу электроэнергии, охлаждение и т. п. Эти базисные измерения следует проводить довольно долго. Тогда можно быть уверенным в том, что программа учтет и нестандартные ситуации, к примеру пиковые нагрузки на оборудование.

Не только на этапе планирования, но и в процессе текущей эксплуатации важно контролировать в режиме реального времени такие параметры, как нагрузка на серверы, потребление электроэнергии, выделение тепла и охлаждающая мощность. Это не только позволит избежать неприятных сюрпризов, но и предоставит информацию для дальнейшего планирования мощностей. Так, программы DCPM способны проигрывать сценарии на основе фактических и желаемых показателей. К примеру, если в грядущем году потребуется повысить вычислительную мощность ЦОД на 5%, то соответствующий инструмент способен рассчитать, достаточно ли для этого имеющихся ресурсов серверов, систем энергоснабжения, ИБП и систем охлаждения — при этом учитываются предельные значения, заданные производителями отдельных компонентов.

КОНТРОЛЬ В ПРОЦЕССЕ ТЕКУЩЕЙ ЭКСПЛУАТАЦИИ

Указанные функции выходят далеко за пределы чистого измерения и оптимизации энергоэффективности, ведь одна из слабых сторон концепции учета значений PUE и DCIE заключается в том, что она недостаточно оценивает такие факторы, как продуктивность и загруженность ЦОД. К примеру, повышение эффективности оборудования ИТ в результате виртуализации серверов или систем хранения не отражается в показателях PUE и DCIE. В то же время такие особенности не игнорируются в программных пакетах DCPM, поэтому последние предоставляют администратору ИТ более наглядную картину. В Таблице 2 перечислены действия, которые следует предпринимать в первую очередь.

ЦОД как на ладони
Таблица 2. Меры по снижению расхода электроэнергии в ЦОД.

 

Штефан Боссерт — директор по продажам в регионе EMEA, в Центральной и Восточной Европе в компании nlyte Software.

Поделитесь материалом с коллегами и друзьями

www.osp.ru

знать, чтобы снижать / CompTek corporate blog / Habr

Центры обработки данных – это «фабрики» новой Цифровой Экономики. Функционирующие на их базе ИТ-сервисы играют всё более важную роль в деятельности компаний и организаций. Во многих случаях они становятся основой производственных и бизнес-процессов. Поэтому от надежной и эффективной работы ЦОДа зависит успех компании на рынке. А проблемы и перебои в такой работе чреваты серьезными финансовыми потерями.

Помимо надежности, ключевой характеристикой современных центров обработки данных является эффективность использования энергии. Этому показателю уделяется все больше внимания. Неудивительно, ведь по итогам 2017 года общее энергопотребление всех центров обработки данных в мире оказалось сопоставимо с энергопотреблением России. А это порядка 800 ТВтч. Индустрия ЦОДов постоянно развивается, они потребляют все больше и больше энергии. По оценкам, ежегодное увеличение мощности ЦОДов в мире составляет 8-12%. В России ситуация схожая.

Использование зеленых технологий позволяет не только сэкономить на электричестве, но и снизить стоимость инженерного оборудования, необходимого для функционирования центра обработки данных. Чем ниже уровень потребляемой центром обработки данных электроэнергии, тем меньше необходимо будет заплатить за источники бесперебойного питания, системы кондиционирования и другие элементы инженерной инфраструктуры.

Для оценки энергоэффективности ЦОД используется показатель PUE (Power Utilization Efficiency), предложенный организацией Green Grid. Он определяется как соотношение полной электрической энергии, потребляемой центром обработки данных, к той энергии, которая расходуется непосредственно ИТ-оборудованием. Приведем пример. Если центр обработки данных получает из электросети мощность 2 МВт, а до ИТ-оборудования доходит только 1 МВт, значит, коэффициент PUE этого объекта будет равен 2. Если удастся снизить «накладные расходы» и довести до ИТ-оборудования 1,5 МВт, то PUE снизится до 1,33 (2/1,5=1,33). Чем меньше значение PUE, тем эффективнее используется электроэнергия.

По данным организации Uptime Institute, в 2007 году средний PUE ЦОДов находился на уровне 2,5. В 2018-му этот показатель снизился до значения 1,58. Более того, существуют ЦОДы, в которых PUE находится на уровне 1,1 и даже ниже. Идеальный вариант, когда PUE=1. Но на практике он недостижим, поскольку КПД инженерного оборудования, например ИБП, не может быть равен 100%.

Существуют различные способы повышения энергоэффективности (снижения коэффициента PUE). Одна из наиболее энергоемких систем современных ЦОДов – система охлаждения. Использование технологий естественного охлаждения (фрикулинга) позволяет существенно снизить энергозатраты на охлаждение. Суть фрикулинга – применение для охлаждения прохладного внешнего воздуха. Этот воздух может через систему фильтров подаваться непосредственно в серверные залы (прямой фрикулинг) или же, проходя через теплообменники, охлаждать воздух, циркулирующий внутри ЦОДа (непрямой фрикулинг). Понятно, что снижению PUE способствует использование ИБП с более высоким КПД, а также снижение потерь при передаче электричества – когда энергия по кабелям или шинопроводам поступает к ИТ-оборудованию.

Чтобы повысить энергоэффективность, необязательно тратить большие средства нза закупку нового оборудования с более высоким КПД. Существует немало рецептов по модернизации уже эксплуатируемых объектов с минимумом вложений. Например, можно закрыть щели в шкафах, чтобы устранить утечки холодного воздуха, изолировать горячий или холодный коридор, оптимизировать размещение серверов в шкафах, например, перенеся высоконагруженный сервер в более «холодную» стойку, и пр.

Но чтобы проводить такую работу надо, в первую очередь, иметь информацию о текущем энергопотреблении. Общее потребление ЦОДа (числитель при расчете коэффициента PUE) измерить не сложно – для этого достаточно установить соответствующие измерительные устройства на вводах электрораспределительных щитов. А вот чтобы получить знаменатель, необходимо измерить энергопотребление непосредственно в местах подключения ИТ-оборудования, т.е. в стойках. Для этого необходима установка распределительных блоков PDU со средствами контроля потребления электроэнергии (такие PDU еще называют интеллектуальными). Рассмотрим возможности этих устройств на примере оборудования английской компании PDU eXpert.

Компания PDU eXpert разрабатывает и выпускает широкий спектр продуктов PDU: от простых неинтеллектуальных блоков с различным числом розеток разного типа до интеллектуальных блоков линейки KWX.

Блоки семейства KWX-N выпускаются в четырех вариантах:

  • Модели N1 обеспечивают общий контроль мощности, проходящей через весь PDU, включая общий ток (A), входное и выходное напряжение (В) и общее потребление электричества (кВт*ч) всеми подключенными к PDU устройствами;
  • Модели N2 отличаются от моделей N1 тем, что позволяют осуществлять мониторинг на уровне каждой отдельной розетки. Они дают возможность получать данные по энергопотреблению отдельных устройств, подключенных к PDU;
  • Устройства N3 имеет все те же функции, что модели N1, но дополнительно позволяют пользователю удаленно включать и выключать отдельные розетки. Это может оказаться удобно для обслуживания ИТ-комплексов, например, когда надо удаленно перезагрузить тот или иной сервер;
  • Наконец, наиболее функциональные модели N4 обеспечивают и возможность мониторинга отдельных розеток (как N2) и их удаленного включения/отключения (как N3). Они востребованы в тех случаях, когда требования к контролю и удаленному обслуживанию максимальны.

В семейство KWX входят и «продвинутые» устройства с функциями АВР. Устройства серии KWX-ATS (Automatic Transfer Switch), помимо возможностей интеллектуального PDU, наделены функционалом автоматического ввода резерва (АВР) и последовательного включенияе оборудования (sequential startup). Они обеспечивают автоматическое переключение между основным и резервным источниками питания без прерывания подачи электричества на нагрузку. В случае, когда основной источник подачи электроэнергии становится недоступен, KWX-ATS переведет нагрузку на резервный источник, причем переключение происходит за 8 мс. Устройство способно работать при температуре до +55°С, что позволяет размещать его в горячем коридоре серверных залов.


Кроме того, линейка продуктов PDU eXperts KWX-ATS имеет встроенную функцию мониторинга окружающей среды. Подключаемые к устройству датчики можно соединять в цепочку – до восьми датчиков. Это могут быть датчики температуры, влажности, детекторы дыма или присутствия воды. Для повышения уровня безопасности могут применяться датчики дверного затвора и инфракрасного излучения. Мониторинг окружающей среды обеспечивается из удобного интерфейса программного управления, с помощью которого также осуществляется ввод учетных записей пользователей, установка пороговых значений и настройка выдачи сигналов о неисправностях.

Программное управление KWX-ATS имеет удобный интерфейс, обеспечивающий легкий доступ к управлению основным устройством, а также подсоединенных к нему подчиненных АВР-PDU (до трех устройств в цепочке). Через этот интерфейс можно как отслеживать текущее потребление электроэнергии, так и устанавливать предельные значения. В случае превышения предельных значений происходит автоматическое включение визуальных и звуковых сигналов. Предупреждающие сообщения могут направляться посредством SMS-сообщений или по электронной почте определённым пользователям.

Сочетая в себе функции интеллектуального PDU, системы автоматического ввода резерва, мониторинга параметров окружающей среды и контроля доступа, устройство KWX-ATS может стать идеальным решением для небольшого ЦОДа. А наличие в портфеле продуктов PDU eXpert мощной системы управления Symbiosis делает их эффективным инструментом для крупного ЦОДа и даже комплекса из нескольких дата-центров. Кстати, ПО Symbiosis поддерживает как устройства производства PDU eXpert, так и PDU от Raritan, APC (Schneider Electric), Eaton и других компаний, различные кондиционеры и датчики.

Рассмотрим на примере, как использование устройств KWX-ATS позволяет повысить энергоэффективность ЦОДа, и при этом избежать дополнительных расходов на его модернизацию. Предположим, необходимо установить в работающий ЦОД несколько новых серверов. Наличие информации о текущем энергопотреблении уже установленного оборудования позволит определить, в каких шкафах имеется энергетический резерв для подключения нового оборудования. Использование же функции мониторинга рабочей среды даст возможность увидеть, где температура ниже всего, а значит, достаточно ресурсов для охлаждения дополнительного оборудования. Сопоставив эти данные, можно выбрать оптимальное место, куда можно установить новые серверы без модернизации имеющихся систем охлаждения и электропитания. Получается, что вы добавите ИТ-нагрузку без увеличения мощности системы охлаждения, что, очевидно, позволит снизить коэффициент PUE.

Но дело не только в оптимизации энергопотребления. При отсутствии информации о текущем энергопотреблении можно принять ошибочное решение по выбору стойки для размещения серверов. Это решение может базироваться просто на данных о наличии свободного места в стойке. Но если в стойке установлены высоконагруженные серверы, возможно, добавление еще одного устройства приведет к превышению допустимого предела, что чревато отключением этой стойки от системы электропитания.

В случае использования KWX-ATS такой негативный сценарий практически исключен. Эти устройства позволяют наиболее эффективно использовать такие дорогие для любого ЦОДа ресурсы, как электричество, холодный воздух и физические места в стойках. Кроме того, функции АВР обеспечат надежное переключение ИТ-оборудования на резервный источник. Так что KWX-ATS это не только эффективность, но и высокая надежность.

Это прекрасно понимают и ценят ведущие компании по всему миру, которые активно используют оборудование KWX-ATS. В частности, эти технические решения установила в своих ИТ-комплексах нефтяная компания Aramco из Саудовской Аравии. Поставщик услуг коммерческих ЦОДов компания Hostdime оснастила такими устройствами все свои объекты в Бразилии, Великобритании и США.

Среди причин использования KWS-ATS заказчики выделяет обеспечение бесперебойной работы ИТ-оборудования – как уже говорилось, переключение с основного источника питания на резервный происходит за 8 мс безболезненно для оборудования, – а также отличный баланс
цены и качества. Например, модель KWX-ATS32A1h2 имеет один выход 32A, куда подсоединяется 48-розеточный базовый блок PDU – такая связка обеспечивает существенную экономию средств.

habr.com

Интернет-издание о высоких технологиях

Русская зима повысит энергоэффективность ЦОДов?

С ростом масштаба российских ЦОД-проектов увеличивается значение рационального потребления электроэнергии, на которую приходится более половины операционных издержек дата-центров. Географическое положение России стимулирует применение энергосберегающих технологий с использованием холодного воздуха «с улицы», но распространению решений free cooling мешают высокие капитальные затраты при реализации таких проектов.

Потребность в ресурсах дата-центров продолжает расти, и уже сейчас на их долю приходится 1,5% промышленных выбросов парниковых газов. При этом в мире насчитывается не менее полумиллиона ЦОД. По данным Pike Research, при сохранении нынешнего тренда к 2016 г. на долю ЦОД придется 1326 млн тонн выбросов углекислого газа. Огромные потребности дата-центров связаны не только с требованиями самого ИТ-оборудования, но также с необходимостью охлаждать помещения, так как во время работы сервера выделяют много тепла. Кроме того, часть энергии теряется при транспортировке.

В современном ЦОД не менее 50% операционных затрат приходится на электроэнергию. При эксплуатации площадки в течение десяти лет расходы на электроэнергию составляют почти половину совокупной стоимости владения, поэтому вопрос рационального использования энергии в дата-центрах имеет не только экологический, но и экономический аспект. 

Для определения энергоэффективности в отрасли принято использовать два показателя: PUE и DCIE. Параметр PUE (Power Usage Effectiveness) определяется как отношение энергопотребностей ИТ-инфраструктуры ко всей энергии, поступающей в дата-центр. Идеальное значение PUE равно единице, в этом случае вся используемая площадкой энергия идет на поддержку работы серверов. На практике такая ситуация невозможна, минимальные значения PUE достигают около 1,1-1,15.

Что такое PUE?

Источник: APC by Schneider Electric, 2010

Аббревиатура DCIE расшифровывается как эффективность инфраструктуры дата-центра (Data Center Infrastructure Efficiency) и выражает в процентах то же самое, что и PUE.

Предел совершенства

Средний показатель энергоэффективности дата-центра в мире составляет около 2,5, о чем свидетельствуют данные EPA. Согласно исследованию Uptime Institute, cредний показатель PUE колеблется между 1,8 и 1,89, но эксперты этой организации обращают внимание на то, что в их статистике учитываются только крупные ЦОД, и если принять во внимание небольшие площадки, эффективность расходования энергии окажется существенно ниже. Опрошенные CNews эксперты сходятся в том, что в России средний показатель энергоэффективности также находится на уровне 1,8-2,5. При этом участники рынка обращают внимание на то, что заказчикам не следует гнаться за экстремально низкими показателями PUE.

«В среднем по миру показатель PUE для дата-центров TIER III составляет 1,98. А для TIER IV –больше 2. Это происходит, потому что на дата-центры накладываются дополнительные условия по резервированию и гарантированию бесперебойной работы, – рассказывает заместитель директора Сервисного подразделения «Ай-Теко» Дмитрий Митрофанов. – Можно сделать как Google: построить свою электростанцию и быть уверенным, что не будет колебаний напряжения — соответственно, сократить затраты на ИБП и уменьшить потребление энергии. Но мы в России пользуемся общими сетями и должны учитывать их особенности, в том числе их техническое несовершенство. Кроме того, нужно принимать во внимание особенности окружающей среды, например, в Москве и Московской области серьезным фактором риска для ЦОД является тополиный пух, поэтому нужны дополнительные затраты для защиты систем вентиляции. В эту же категорию попадают защита от кислотных дождей или от выбросов на мусоросжигательных заводах, и так далее».

Оценка значений PUE и DCIE

Значение PUE Значение DCIE Оценка
1,3 77% Оптимальная организация ЦОД
1,6 62,5% Организация с учетом «лучших методов»
2 50% Есть возможность для улучшений
3 33% Меры для повышения PUE не предпринимаются

Источник: The Green Grid Consortium, 2012

«На мой взгляд, коэффициент PUE должен быть неким компромиссом между энергоэффективностью и экономической целесообразностью,  – говорит директор департамента инженерных систем «ЭнвижнГруп» Игорь Анисимов. – Да, строя ЦОД в «чистом поле», можно собрать технологии, которые обеспечат среднегодовой PUE на уровне 1,05 и ниже. Но пытаясь внедрить эти же технологии в ЦОДе, который размещается в малоприспособленном здании, можно натолкнуться на глобальное увеличение капитальных затрат, которые будут окупаться очень долго. Как правило, заказчику это неинтересно. К тому же PUE часто является не самым главным показателем для владельцев ЦОД. Во многих случаях гораздо важнее доступность, надежность и бесперебойность работы».

Какие технологии внедряются в России?

Тем не менее, российские интеграторы уже готовы строить ЦОД с показателями PUE cущественно более низкими, чем в среднем по рынку.  Например, в компании «Техносерв» заявляют, что нормой является проектирование и строительство площадок с коэффициентом энергоэффективности 1,3.

«На наш взгляд, при проектировании новых ЦОДов в Москве можно ставить себе целью среднегодовой PUE 1.5, что вполне достижимо при современных технологиях холодоснабжения без применения революционных технических решений», – делится своим мнением технический директор DataLine Сергей Мищук.

Интерес к проблеме энергоэффективности связан с ростом масштаба проектов. «Лет 5-6 назад энергоэффективность в нашей стране мало кого волновала. С одной стороны, электроэнергия была достаточно дешевой, с другой — мощности большинства ЦОД измерялись десятками киловатт. Соответственно, затраты на энергоснабжение казались ничтожными по сравнению со стоимостью ИТ-оборудования, – объясняет директор департамента инженерных систем «Энвижн Груп» Игорь Анисимов. – Сейчас ситуация в корне изменилась: электричество дорожает, мощности дата-центров быстро растут. Например, сейчас мы проектируем в Москве ЦОД с мощностью ИТ-нагрузки 22,5 МВт. Очевидно, что при таких масштабах счета за электроэнергию ощутимо «ударят по карману» заказчика».

Первым шагом на пути снижения энергопотребления ЦОД является более рациональное использование ИТ-ресурсов за счет внедрения высокоплотных blade-серверов и технологий виртуализации. В результате сокращается объем работы дата-центра «вхолостую». «За счет использования технологии виртуализации и blade-систем, а также за счет балансировки нагрузки и активного управления приложениями можно сократить энергопотребление и тепловыделение основного оборудования на 10–20%, а это снижает энергозатраты и на охлаждение», – объясняет начальник отдела инженерных решений компании «Техносерв» Александр Перведенцев.

По его словам, основной идеей этого подхода является повышение загрузки оборудования без снижения качества услуг: «Простаивающий сервер тратит 15-30% от пиковой мощности абсолютно бесполезно. К этим пустым затратам добавляется нагрузка на систему охлаждения, блоки питания, систему резервирования и т.д. При использовании технологий виртуализации можно разместить на одном физическом сервере несколько виртуальных. При грамотном мониторинге нагрузки или при построении вычислительных кластеров (объединение нескольких серверов в одну вычислительную ячейку) можно повысить загрузку оборудования, сократив не только прямые экономические потери на простоях, но и холостое потребление энергии».

После оптимизации использования ресурсов наступает очередь модернизировать систему электропитания и охлаждения. Александр Перведенцев также отмечает следующие статьи сокращения издержек: «До 15% экономии электроэнергии позволяет получить выбор эффективной архитектуры кондиционирования помещения, до 12 % —правильная планировка машинных залов, до 10 % — выбор эффективного оборудования электропитания».

Изоляция горячих и холодных коридоров в ЦОДе

Источник:  DataCenterForum, 2010

«Например, примененеие высокоэффективных теплообменников и насосов наряду с использованием двухконтурной системы позволяет добиться общей эффективности системы кондиционирования ЦОД на уровне 7-10 (показатель COP), то есть для производства 7-10 кВт холода затрачивается 1 кВт электроэнергии. При этом такого уровня эффективности можно добиться на классических технологиях без значительного удорожания системы кондиционирования ЦОД. Что касается эффективной системы бесперебойного снабжения, то КПД динамических дизельных ИБП доходит до 96-97%».

«Третьим фактором, способствующим снижению PUE, является тщательно спроектированная автоматическая система управления (АСУ) объекта, которая позволяет устранить неэффективность в работе оборудования, например, поддерживать минимально допустимые параметры влажности в ЦОД, сокращая затраты электроэнергии на увлажнение, или минимизировать расход жидкости при уменьшении нагрузки», – рассказывает господин Перведенцев.

Есть множество других решений, которые позволяют повысить энергоэффектиность ЦОД. Например, это nригенерация – комбинированное производство электричества, тепла и холода. При этом холод вырабатывается абсорбционной холодильной машиной, потребляющей не электрическую, а тепловую энергию. Электрическую и тепловую энергию в этой системе производит микротурбинная установка, работающая на газе. Кроме того, можно спроектировать «горячие» и «холодные» коридоры (разделение потоков воздуха разной температуры), построить систему адиабатического охлаждения (за счет испарения, это удобно, если есть много дешевой пресной воды). Наконец, можно сократить затраты на энергию просто повысив температуру в серверном помещении: последние испытания показывают, что современное оборудование устойчиво к работе при температурах выше 25, а иногда и 30 градусов. Еще один вариант, который пока кажется экзотическим для России, это сбор тепла, выделяемого серверами, и его продажа вовне. 

При использовании стандартных решений снизить PUE вполне возможно до 1,3, подводит итог ведущий консультант департамента системных решений IBS Константин Зиновьев.

Холодный климат поможет сэкономить энергию

Из современных энергосберегающих технологий наиболее перспективной для использования представляется система естественного кондиционирования free cooling, когда помещение охлаждается за счет холодного воздуха снаружи. Очевидно, что большая часть территории России представляет собой отличное место для внедрения таких разработок.

«У технологии free cooling есть хорошие перспективы в России, – утверждает заместитель директора департамента строительства и инженерных систем «Яндекса» Сергей Куприн. – У нас достаточно холодный климат в средней и северной полосе, что позволяет большую часть года использовать для охлаждения наружный воздух». «В российских климатических условиях данная технология очень перспективна, ее надо внедрять как можно активнее», – уверен Игорь Анисимов. По его оценкам, «фрикулинг» уже используется достаточно широко, и во многих ЦОДах, появившихся в России за последние 3-4 года, применяется та или иная его модификация (прямой, косвенный и т.д.).

Устройство системы Full free cooling (FFC)

Источник: AyaksEngineering, 2012

Тем не менее, другие эксперты, опрошенные CNews, говорят о том, что проектов с применением free cooling в России пока мало, и это связано с тем, что внедрение подобных систем значительно увеличивает капитальные затраты. «Нельзя сбрасывать со счетов тот факт, что система холодоснабжения с «фрикулингом» обычно оказывается существенно сложнее системы без него, что требует более высокой квалификации при проектировании, монтаже, настройке и на этапе эксплуатации, – объясняет Сергей Мищук. – Опыт создания систем с «фрикулингом» в России пока невелик, поэтому есть большая вероятность инженерных ошибок на любом этапе жизненного цикла. В результате фактическая эффективность системы может оказаться существенно хуже проектной, что снизит экономическую отдачу от вложений».

«Применение free cooling, во-первых, требует заметного увеличения первоначальных затрат на строительство ЦОД – до 100% и более – констатирует Сергей Куприн из «Яндекса», который одним из первых в России реализовал подобный проект. – Во-вторых, российские компании редко планируют проекты ЦОДов со сроком эксплуатации более 5 лет. Как правило, в среднесрочной перспективе такие технологии не окупаются. Ну а в-третьих, технологии free cooling чаще используются на масштабных и долгосрочных проектах, когда компания-владелец строит ЦОД мощностью в несколько десятков или сотен МВт. У нас пока практически нет таких проектов».

«Системы с роторным рекуператором (подобная система внедрена в подмосковном ЦОД «Яндекса», прим. CNews) требуют много места, объем помещений увеличивается раза в полтора, что не всегда экономически приемлемо, особенно в городе, а подавляющее большинство российских ЦОДов находятся в крупных городах», – рассказывает Сергей Мищук. По его словам, вариант «фрикулинга» с подмешиванием внешнего воздуха также не эффективен в условиях большого города, потому что требуется много места для вентиляционных камер, а также необходимы затраты на очистку городского воздуха и его увлажнение зимой.

Показатели работы системы FFC*

* показатель EERпоказывает эффективность работы кондиционера и определяется как отношение количество потребляемой электроэнергии к «количеству охлаждения»

Источник: AyaksEngineering, 2012

«Если за базовый вариант брать  схему с прямым расширением, а  в качестве энергоэффективного рассматривать «чиллерную» схему с  «фрикулингом», то второй вариант холодоснабжения обойдется  раза в два дороже, – объясняет Сергей Мищук. – Срок окупаемости вложений в этом случае, по нашим расчетам, составляет 3-5 лет.  Есть интересные идеи по снижению стоимости  свободного охлаждения, которые, по нашим оценкам, обеспечат возврат  инвестиций во «фрикулинг» за 2-3 года, но они пока не проверены нами на практике и их реализация связана с существенным экономическим риском».  

В «Яндексе» считают, что энергосберегающие технологии окупаются только в случае долгосрочных проектов со сроком эксплуатации ЦОД более 10 лет. Другого мнения придерживается Александр Перведенцев: по его словам, при загрузке ЦОД более 60% максимальная окупаемость будет не более трех лет. Константин Зиновьев предлагает следующую формулу для расчета эффективности использования энергосберегающих технологий при сроке окупаемости  10 лет: «Решение окупается, если достигнуто снижение PUE на 0,05 и при этом цена создания ЦОД не выросла более чем на 5%».

Стоимость внедрения free cooling cильно зависит от характера помещения ЦОДа. «Если нужно разместить дата-центр в готовом помещении, мы сильно ограничены в выборе инженерных решений, и обеспечить высокую энергоэффективность вряд ли удастся. Если же мы строим ЦОД «с нуля», обычно мы можем влиять на параметры помещения: обеспечить большие проемы, вентиляционные шахты и т.д. Зачастую это проще и дешевле, чем «вписываться» в готовое здание»,– рассказывает Игорь Анисимов. По его словам, нижняя планка затрат на «фрикулинг» составляет 10-15% общей суммы строительства ЦОД, а верхний предел «ограничен только фантазией исполнителя».

Павел Лебедев/CNewsAnalytics

cnews.ru

PUE – по-прежнему полезен? — Новости рынка ЦОД, обзор инженерных решений Дата-Центров

Необходимость повышения эффективности использования энергии в центрах обработки данных очевидна для всех. Правительства многих стран стремятся помочь операторам ЦОД при реализации потенциала подконтрольных объектов: чиновники предлагают всем желающим воспользоваться налоговыми вычетами, грантами и прочими программами стимулирования. Чтобы рассчитывать на помощь извне, владельцам дата-центров необходимо наглядно продемонстрировать действенность применяемых механизмов повышения энергоэффективности, а для этого нужны универсальные и относительно простые средства сравнительного анализа состояния одного и того же объекта в разрезе определенного периода времени или же универсальные метрики для сравнения одного ЦОД с другими.

С 2007 года разработанный консорциумом The Green Grid коэффициент эффективности использования энергии (Power Usage Effectiveness; PUE) был одним из основных инструментов для решения данной задачи. Но эта метрика по душе отнюдь не всем операторам и владельцам дата-центров. Если вспомнить про все альтернативы (пусть и менее популярные), уже используемые стандарты и перспективные аналоги, которые находятся на стадии разработки, то невольно задумаешься: а действительно ли именно коэффициент PUE является наилучшей метрикой для оценки энергоэффективности дата-центра?

Проблемы при работе с PUE

Сделать выбор в пользу PUE легко, так как данная метрика самая распространенная. Но есть множество сценариев, которые иллюстрируют ее недостатки. Возможно, самым очевидным примером будет ситуация, когда компания обновляет IT-оборудование в своем дата-центре на более энергоэффективные системы, забывая (или оставляя до лучших времен) провести соответствующую оптимизацию подсистем электропитания и охлаждения.

Допустим, изначально мощность установленного в ее ЦОД IT-оборудования составляла 12 МВт, а общая мощность объекта равнялась 20 МВт. Напомним, что PUE соответствует отношению общему энергопотреблению объекта к уровню энергопотребления IT-оборудования (чем значение ближе к единице, тем лучше). То есть PUE в данном случае был равен 1.67. Затем мы установили более энергоэффективные серверы, и мощность IT-оборудования упала до 11 МВт, при этом общая мощность объекта сократилась на все тот же 1 МВт. На выходе наблюдаем рост до PUE 1.72 (19 / 11), а не снижение. Незнакомому с реальной ситуацией на объекте стороннему наблюдателю такая динамика изменения коэффициента будет говорить о том, что объект стал менее эффективным. И это отнюдь не единственный сценарий подробного плана.

В некоторых модульных схемах ЦОД, где используются серверные стойки, применяются крупные стоечные вентиляторы вместо массива малоэффективных маленьких вентиляторов, которые встраиваются непосредственно в серверы. Серверные вентиляторы относят к IT-оборудованию, а вот стоечные – уже к инфраструктуре. В большинстве случаев энергопотребление таких охладителей может достигать существенного уровня, что оборачивается ростом PUE в дата-центрах, где используются стоечные вентиляторы.

Аналогичная ситуация и с электропитанием. Зачастую IT-оборудование предполагает использование отдельного блока питания для каждого сервера, но во многих схемах (например, в случае IBM iDataPlex) используется общий стоечный блок питания. Сама по себе схема крайне удобная и эффективная, и в будущем она будет активно внедряться, но в данном случае энергозатраты на обеспечение работоспособности IT-оборудования вновь переходят в категорию инфраструктуры. В подобной ситуации коэффициент PUE снова будет рассчитываться не совсем корректно.

Маркетинговые манипуляции с PUE

Помимо “подводных камней” метрики у нее есть еще один очевидный минус. Многие крупные компании манипулируют PUE в своих целях, чтобы пропиарить собственные дата-центры. PUE из инструмента для оценки степени повышения энергоэффективности ЦОД превратился в механизм маркетинга. Компании чувствуют давление со стороны рынка и стремятся всеми способами минимизировать свои показатели PUE и, возможно, идут на жульничество.

Например, некоторые операторы дата-центров исключают освещение из общего энергопотребления объекта — в конце концов, свет нужен только людям, а оборудование с его помощью работать эффективнее не станет. Другие операторы измеряются PUE во время зимних месяцев, когда энергопотребление систем охлаждения находится на минимуме.

Но можно ли утверждать, что это всего лишь манипуляции системой? Если да, то в какое именно время следует осуществлять измерения? Можно ли сказать, что измерения, проводимые при максимальной тепловой нагрузке точнее, чем те, которые осуществлялись при минимальной нагрузке? Возможно, измерения следует проводить круглый год, чтобы в итоге получить усредненный уровень. Но погодные условия текущего года могут сильно отличаться от того, что нас ждет в следующем. Аномально высокая длительность зимы в России – яркое тому подтверждение. Кроме того, дата-центры в более прохладных регионах будут иметь неоспоримое преимущество перед теми, которые эксплуатируются в жарком климате.

Еще один пример манипуляций метрикой. В контейнерные ЦОД часто встраиваются кондиционеры CRAH (Computer Room Air Handling) и CRAC (Computer Room Air Conditioning). Таким образом, существенная часть механической инфраструктуры фигурирует в расчетах рассматриваемого коэффициента, как IT-оборудование. В итоге контейнерные ЦОД кажутся более эффективными, чем они есть на самом деле.

Словом, лазеек хватает. Руководство той или иной компании может знать реальный PUE, но клиенты или другие компании, которые хотят сравнить ЦОД конкурента со своим, будут оставаться в неведении.

Тем не менее, несмотря на все проблемы, PUE остается основной метрикой для измерения уровня энергоэффективности дата-центров. Большинство компаний, которые хотят привлечь внимание заинтересованных сторон к продвинутой начинке своих ЦОД, в качестве основного аргумента будут приводить именно коэффициент PUE, а не какой-либо аналог из группы конкурирующих показателей. Остальные метрики были созданы с заметным опозданием, им не хватает пиара, при этом достойным альтернативам PUE крайне сложно выделиться из общей массы. Другими словами, нынешняя популярность PUE означает, что эта метрика вряд ли будет смещена альтернативным показателем в течение ближайшего времени.

У любого подхода есть недостатки

Давайте вспомним, как мы оцениваем интеллект человека. На ум практически сразу же приходит коэффициент интеллекта (Intelligence Quotient; IQ). Это основная метрика для данной цели, но у IQ есть серьезная проблема: это всего лишь число — оценка дается лишь по конечному результату без учета качественного своеобразия умственной деятельности. Иными словами, тест показывает, насколько умен (или глуп) человек, но ничего не говорит о том, в какой области знаний тот умен, и что именно за этой оценкой скрывается.

Проиллюстрируем это на примере. Представьте себе, что нужно оценить уровень интеллекта двух лиц с использованием системы IQ: блестящего музыканта и талантливого математика. Что следует сделать исследователю? Задавать вопросы о музыке? Проверять музыкальные навыки? Задавать вопросы о математике? Попросить испытуемых решить несколько задач? Независимо от того, как исследователь проведет свой тест, результаты будут разными в большинстве случаев. Но тест также может показать, что уровень интеллекта у музыканта и математика одинаковый. Как, скажем, у человека из эпохи Возрождения, который был одинаково хорошо развит в обеих областях. Но отражает ли это умения испытуемых?

В случае PUE наблюдается аналогичная ситуация: это всего лишь число — коэффициент, создатели которого, попытались добиться того, чтобы PUE отражал различные факторы, такие как эффективность инфраструктуры охлаждения и повышение эффективности IT-инфраструктуры. Проблема в том, что эти два фактора могут компенсировать друг друга (как было описано в примерах выше), что, в конечном счете, нивелирует улучшение уровня PUE. Но давайте не будем критиковать лишь только коэффициент эффективности использования энергии. Подобное можно сказать и о большинстве конкурирующих показателей.

Нужно отметить, что некоторые исследователи пытаются решить проблему повышения коэффициента PUE при улучшении энергоэффективности IT-оборудования путем расширения перечня оцениваемых характеристик, что приводило к еще большей путанице. Можно создать различные способы включения этих характеристик в единый коэффициент, но проблема никуда не денется: усовершенствования в одной области без соответствующих доработок в остальных могут обернуться не понижением, а ростом PUE, или (в лучшем случае) весьма посредственными положительными результатами в целом. Попытка использовать одну цифру для оценки эффективности всего дата-центра, это то же самое, что применение IQ, чтобы оценить интеллект: коэффициент может иметь широкое применение, но ему не хватает точности.

Простого и очевидного решения нет

Несомненным плюсом коэффициента PUE и аналогичных ему метрики является их простота: когда вам приходится использовать лишь одну цифру, характеризующую весь дата-центре, вы можете быстро сделать сравнение: центр обработки данных А более эффективен, чем центр обработки данных Б (по крайней мере, согласно общепринятой метрике). Эта простота, как уже упоминалось, превращается в удобный механизм маркетинга. Например, владельцы ЦОД с PUE ниже 1.10 могут быстро и эффективно привлечь к своему проекту внимание средств массовой информации, что приведет к повышению уровня заинтересованности дата-центром и самой компанией среди потенциальных клиентов.

А теперь представьте себе, что вместо одной цифры компании придется создать множество таблиц и объяснить представителям СМИ значения всех граф и элементов. Да, так она сможет предельно точно охарактеризовать уровень эффективности подконтрольного объекта. А вот журналист очень быстро начнет зевать от скуки и отправится искать более яркий материал, потому что лишь немногие читатели будут иметь достаточно терпения, чтобы усвоить всю эту информацию.

Сейчас эксперты консорциума The Green Grid работают над улучшением и уточнением PUE. Другие организации разработали аналогичные показатели, чтобы обойти проблемы PUE, но все эти метрики становятся жертвами сложностей, возникающих в результате попыток свести огромный комплекс характеристик (энергоэффективности) дата-центра к одной цифре. Таким образом, каждая альтернативная метрика может стать мишенью для жульничества и злоупотреблений со стороны недобросовестных компаний, которым нужен маркетинговый козырь.

Нужно четко понять еще одну вещь. Нельзя превращать снижение PUE в самоцель. Главное при работе по оптимизации ЦОД – добиться сокращения совокупных расходов на электроэнергию при сохранении и по возможности приумножении вычислительной мощности. Существует огромное количество механизмов, позволяющий добиться этой цели. Например, достичь прямого снижения энергопотребления IT-оборудования можно с помощью виртуализации, существенно повышающей коэффициент использования серверов, типовое значение которого сегодня находится на недопустимо низком уровне.

telecombloger.ru

Метрики PUE и DCiE | AboutDC.ru

Коэффициент эффективности использования энергии (PUE) можно использовать лишь в качестве грубого показателя эффективности работы дата-центра. Он позволяет говорить об эффективности распределения энергии внутри ЦОД, и о качестве работы механического оборудования без необходимости указывать тип используемых серверов и устройств хранения данных, или степень загрузки системы, или другие факторы, напрямую не связанные с конструкцией ЦОД.

http://linkyou.ru/ direct link отзывы.

Метрика PUE

Определение PUE можно найти в документе под редакцией Кристиана Белади Green Grid  Data Center Power Efficiency Metrics: PUE and DCiE  (Метрики энергоэффективности ЦОД от ассоциации The Green Grid: PUE и DCiE) (см. приложенные файлы). PUE представляет собой очень простую метрику, и это одна из причин, по которой он одновременно является полезным и обладает рядом недостатков. Определение выглядит следующим образом:

PUE = Общая мощность, потребляемая предприятием / Мощность, потребляемая ИТ-оборудованием

Общая мощность определяется, как «мощность, измеренная на счетчике электроэнергии». Мощность, потребляемая ИТ-оборудованием, определяется, как «общая нагрузка на ИТ-оборудование». Проще говоря, PUE является отношением величины мощности, поставляемой на предприятие, к величине мощности, потребляемой серверами, устройствами хранения и сетевым оборудованием. Он дает нам возможность измерить процент электроэнергии, фактически потребляемый серверами, в то время как остальная ее часть уходит на питание инфраструктуры ЦОД.

Потери на инфраструктуре включают в себя затраты на распределение энергии (коммутационное оборудование, ИБП, блоки распределения электроэнергии, розетки с дистанционным управлением и т.д.) и на питание механических систем (системы кондиционирования, охлаждающие водяные насосы, устройства для перемещения воздуха, чиллеры и т.д.).

Метрика DCiE

Величина, обратная PUE, называется DCiE (Data Center Infrastructure Efficiency, эффективность инфраструктуры ЦОД).

DCiE = Мощность, потребляемая ИТ-оборудованием / Общая мощность, потребляемая предприятием * 100%

Таким образом, если PUE = 1.7, то DCiE = 59%. В данном примере 41% энергии приходится на инфраструктуру дата-центра, а оставшиеся 59% потребляются ИТ-оборудованием.

Это полезно знать, поскольку сравнение значений коэффициентов для различных ЦОД позволяет нам сравнивать конструкции этих ЦОД и анализировать их достоинства и недостатки. К несчастью, когда дело доходит до финансовых вопросов, метрики очень часто фальсифицируются, и это также справедливо в отношении PUE. Рассмотрим теперь ряд недостатков, присущих PUE, и затем я предложу частичное их решение.

У нас вы можете заказать перевод иностранной технической литературы на русский язык.

www.aboutdc.ru

В методике расчёта PUE предложено отразить использование воды

Процедура расчета коэффициента PUE, который используется для оценки эффективности дата-центров по всему миру, вскоре может измениться. Критики предлагают отразить в формуле объем используемой инфраструктурой ЦОД воды, чтобы сделать итоговый коэффициент более справедливым применительно к дата-центрам в разных климатических зонах по всему миру. Соответствующее предложение вскоре поступит на рассмотрение специальной рабочей группы в раках консорциума The Green Grid, который отвечает за развитие рассматриваемой метрики.

Коэффициент PUE (Power Usage Effectiveness или эффективность использования электроэнергии) очень широко используется в качестве удобной метрики для оценки эффективности IT- и вспомогательной инфраструктуры дата-центров. Но критики говорят, что формула, используемая я настоящее время для расчета коэффициента PUE, не отражает существенную долю энергозатрат ЦОД и воздействия серверной фермы на окружающую среду. Следствием роста числа недовольных текущим положением вещей стало предложение о внедрении метрики PUER (PUE Revised или пересмотренный PUE).

Статьи на эту тему недавно были опубликованы популярным профильным информационным ресурсом DatacenterDynamics и корпоративным блогом вендора Emerson Network Power. Авторы статей предполагают включение в расчеты испарительную энергию воды, используемой в системах охлаждения дата-центров. Это позволит устранить необъективность метрики применительно к ЦОД, в которых развернуты системы испарительного охлаждения. Рекомендации по расчету коэффициента PUE в их нынешнем виде позволяют владельцам и операторам таких дата-центров получить серьезное преимущество.

Как отметил вице-президент Emerson Network Power Джек Пуше, коэффициент PUE был представлен без малого 9 лет назад. За эти годы индустрия ЦОД существенно изменилась. Операторы и владельцы дата-центров постепенно отказываются от энергозатратных механических систем охлаждения в пользу фрикулинга. При этом механические системы охлаждения также становятся все более энергоэффективными.

На данном этапе при расчете PUE полное энергопотребление дата-центра делится на количество электроэнергии, используемой IT-оборудованием в монтажных стойках ЦОД. Поскольку механические воздухоохладители с непосредственным испарительным охлаждением (DX) применяют электричество, чтобы охладить воздух в дата-центре, их использование увеличивает коэффициент PUE, в результате чего дата-центр классифицируется как неэффективный. В то же время системы адиабатического охлаждения используют испарение воды для охлаждения воздуха, что снижает потребление электроэнергии и счета за электричество. Как следствие, значительно снижается и коэффициент PUE.

Пуше и его коллеги предлагают включить в расчет энергию, которая используется для испарения воды. Как следствие в формуле появится новая переменная под названием WEE (Water Equivalent Energy или водный эквивалент энергии). Переменную WEE, по мнению экспертов, следует добавить к полному энергопотреблению дата-центра (то есть отнести в числитель). Также предлагается учесть еще один фактор, который в текущей формуле игнорируется PUE: нужно добавить еще одну переменную, отражающую электроэнергию, используемую при эксплуатации резервных дизель-генераторов. Соответствующая переменная получила рабочее название TGE (Total Generator Energy или Полная энергия генератора). Ее также следует добавить в числитель. Эксперты объясняют необходимость добавления TGE тем, что резервные дизель-генераторы могут эксплуатироваться в течение сотен часов в год во время тестов и во время простоев.

Добавление WEE в формулу обернется увеличением PUE ЦОД с испарительным охлаждением. Согласно расчетам Пуше, в случае дата-центра с PUE с 1,1, где используется прямое испарительное охлаждение, изменение формулы обернется ростом коэффициента до 1,42 (PUER). При этом в случае использования косвенного испарительного охлаждения PUE увеличится до 2,18 (PUER).

Источник: TelecomBloger.ru

hpc-lc.ru

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *