Помощь - Поиск - Пользователи - Календарь
Полная версия этой страницы: Кондиционирование серверных. 100% или 50% резервирование
Диалог специалистов АВОК > ОБЩИЙ ФОРУМ > Кондиционирование, вентиляция, микроклимат в помещениях
Blutsauger
Добрый день!
Подскажите пожалуйста, нормируется какими-либо документами наличие 100% или 50% резервирования при кондиционировании серверных или помещений аппаратуры связи? Проблема такая что в ТЗ про резервировании ничего не сказано, обычно всегда закладываю 100%, но в данном случае это проблематично, можно ли обойтись 50%?
VasilevskyME
Можно наверное и без резервирования.
До первого отключения.
Как директор по ИТ, я бы не согласовал. smile.gif

Отказ всегда приключается в жару.
Эффективность кондишна в этот момент на минимуме.
Если серверная плотненько набита, то через пол-часа- там сауна.
Больше 40 градусов на вдуве в сервер -уже очень нехорошо. Многие (типа SUN) сразу пугают гарантией.
50-65 на вдуве - все выключается.
Несколько таких упражнений - жди отказа блоков питания и вылета дисков в массивах.
Хоть HP, хоть IBM - без разницы.
В общем, по сравнению с затратами на сервера и СХД - не имеет смысла экономить.

Даже перебои в питании не так страшны, хотя тоже пакостны.
Blutsauger
Ну я без резервирования и не предлагаю. По сути надо обезопасить себя от аварийного отключения (поломки) одного кондиционера. А с этим справится как 100%, так и 50% резервирование. Вот меня и интересует вопрос нормирования этого вопроса.
VasilevskyME
Если справится 50% резервирование, то оно 100% -е. smile.gif

Простите, что немного не в тему, про нормирование не скажу, не знаю.
Но сам ни разу без 100% резервирования не согласовывал.
Пока серверная пустая, справится что угодно. В конце концов, можно на время поломки открыть дверь и поставить вентилятор.

А когда на 30 квадратах стоит 6-8 стоек с электронными калориферами smile.gif - курлы, никакой вентилятор не спасает.
Реально по мере освоения серверной плотность тепловыделений обычно больше расчетной, а не меньше.
Вчера были отдельные сервера, сегодня блэйды, завтра упакуют все ещё плотнее.
Помещение побольше уже не дадут, придется все запихивать в то что есть.

Поэтому если что - придется гасить часть серверов.
А СХД не загасишь.

Но это лирика, конечно. Про нормирование не скажу.
Blutsauger
Цитата(VasilevskyME @ 4.10.2012, 17:16) *
Если справится 50% резервирование, то оно 100% -е. smile.gif

Ну почему? Ставятся 3 сплита через согласователь, каждый на 50% от расчетной мощности. При поломке одного, два оставшихся справятся. 50% резервирование.
VasilevskyME
Вот черт.
Век живи, век учись, а дураком помрешь.
При такой схеме действительно можно жить.
vadim999

clap.gif Всем привет ... из "Песочницы"

Цитата(Blutsauger @ 4.10.2012, 20:02) *
Ставятся 3 сплита на 50% от расчетной мощности. При поломке одного, два оставшихся справятся. 50% резервирование.


Коллеги, росто, Вы не договорились на берегу...
Для достижения консенсуса, этот текст надо переложить исходя из целей и путей их решения (функция и аргумент). Примерно так.
В цедях достижения надежного обеспеченич внешних условий (температуры внутри помещения) работы серверного оборудования, используется (применимено) 100% резирвирование системы охлаждения за счет 50-ти% резервирования единиц "машин", производящих (это) охлаждение. Резервируется 100% функционала, за счет 50-ти % аргументации (в создании) этого! функционала. Примерно так, или более того.
Был случай (в до часто-регулирующую эру), когда функционал исполняли 4 насоса (жутнкая неравномерность расхода в производстве), так 100% резервирования водоснабжения производства обеспечивалось 25% количеством насосов - стоял 5-й.
Счас вылезу из "Песочницы", отряхнучь и продолжим.

По поводу "нормативной документации".
Что-то мне подсказывает, что в данном случае должен "рулить" г-н "Деректор АйТи".
По сути Вы спрашиваете о документе, который должен нормировать ВНУТРЕННЮЮ ТЕХНИЧЕСКУЮ сторону ведения бизнеса (прошу не путать с требованиями по безопасной эксплуатации сервернрго оборудования). А со стоимостной точки зрения, нормирование затрат на ведение бизнеса.
Не представляю (славо Богу, что и наша ПЖиВ, тож ...пока) как должен выглядить Сей докУмет для всей гаммы разнообразия назначения серверных, начиная от сервера "Салона красоты" (реклама салона, запись на прием) до серверов "карточных домиков" (обработка "пластика") и филиала Международной Финансовой Биржи (работа в режиме реального времени), в БАНКАХ.

Хочу обратить внимание Дам и Г-д специалистов на мысль, высказанную г-ном "ДиАйТи".
Не взирая на естественое развитие АйТи технологии (снижение затрат (элентро)энергии на обработку (прием, хранение, "перепаковку" и передачу) еденицы информации (ТБайт/Вт)), всё равно растет суммарное электропотребление ( пр. не забывать и о 25...30-ти% доли для комперсации и растущих тепловыделений в этом случае) всего оборудования.
Жизнь эксплуатации подтверждает эту мысль - О_Д_Н_О_З_Н_А_Ч_Н_О. Каждыу два года, "вынь, да положЪ", ещё до 15% мощи "от достигнутого" (проектная цифирь давно и нерно курит в помойки).

Примерно так. wub.gif Уффффф!


Vik
Делал серверные по резервированию по системе N+1. Если речь о сплитах или др. машинках, в т.ч. и прецизионниках, то если их нужно 5, то ставлю 6. 1 - резервный. Никогда одновременно 2 не выходили из строя. Время ремонта одного - не более 2 недель.
Всегда хватает.
А 100% мощности резервировать - это, если денег не куда девать.
Akela
Цитата(Vik @ 5.10.2012, 11:56) *
Делал серверные по резервированию по системе N+1...


Полностью поддерживаю предыдущего оратора. Правильно спроектированная система охлаждения серверной должна быть такой, чтобы можно было безболезненно выключить полностью 1 любую машину (чиллер, прецизионник, сплит).
А то бывает пытаются сэкономить - ставят двухконтурную машину вдвое большей мощности (она же дешевле, чем 2 одноконтурных и местам меньше занимает) и говорят :"у нас 100% резервирование, один контур сломается - будем на 2-м работать".
А как первый ремонтировать, не выключая второй ? А если контроллер выйдет из строя ? Фигня это, а не резервирование.
Для просмотра полной версии этой страницы, пожалуйста, пройдите по ссылке.
Форум IP.Board © 2001-2025 IPS, Inc.