Сколько стоит дата центр?

Григорий ВАСЮКОВ&nbsp 20 декабря 2013

Создание такого сложного объекта, как дата-центр (ЦОД) – комплексная задача, для решения которой нужно не только учесть множество разных факторов, но и предусмотреть в бюджете проекта соответствующие статьи расходов.

Сам «комплект» факторов остается практически неизменным. А вот структура их влияния на общую стоимость проекта с годами меняется. Итак — на что предстоит потратиться тем, кто займется созданием дата-центра (неважно — собственного или коммерческого, то есть предназначенного для предоставления мощностей клиентам)?

Об этом нашему изданию рассказали эксперты, чья деятельность связана либо с эксплуатацией, либо со строительством ЦОДов.

Что нам стоит ЦОД построить

Аналитическая справка:
Российский рынок дата-центров в 2012 году вырос на 22,8% и составил 6,2 млрд руб. (для сравнения, весь российский рынок связи вырос на 5,1%). На сегодня в России насчитывается более 170 крупных и средних коммерческих дата-центров. В 2012 году было введено в строй порядка 14 крупных и средних коммерческих дата-центров – 8,3 тыс. кв.м. полезной площади. Общая полезная площадь коммерческих дата-центров в 2012 году достигла 62,6 тыс. кв.м, за год объем площадей вырос на 18,6%. Число стоек выросло на 17,8% и составило 18,7 тыс. Темпы роста рынка сохраняются на высоком уровне: по оценкам аналитиков, в 2013 году суммарная площадь дата-центров увеличится еще на 22 тыс. кв.м. (источник — iKS Consulting)

В самых общих чертах, расходы на ЦОД складываются из затрат на помещение (аренда, строительство, инженерия), оборудование (собственно стойки, система кондиционирования, дизель-генератор, система пожаротушении, ИБП), системы мониторинга, физической безопасности, энергоснабжение, заработную плату сотрудников и телекоммуникационную инфраструктуру (каналы связи). Причем цена на электроэнергию существенно отличается в разных регионах, что может оказать довольно сильное влияние на коммерческие показатели эксплуатации дата-центра и даже на выбор региона расположения будущего ЦОДа.

Специфика ЦОДов такова, что не всякий объект недвижимости может быть использован для их создания. Например, перекрытия зданий должны выдерживать колоссальную нагрузку (не менее 735кг/м² при нагрузке сверху плюс 125кг/м² нагрузки снизу, по нормам международного стандарта Tier III), минимальная высота потолков – 2 м 44 см, а сами здания не могут располагаться в сейсмически опасных зонах, вблизи водоемов, линий электропередач и различных объектов повышенной опасности. Кроме того, помещения должны располагаться вблизи магистральных линий связи, которые к тому же необходимо резервировать во избежание проблем с организацией качественного подключения к Интернету. Отдельные требования предъявляются к помещениям для персонала дата-центра, организации контроля доступа, обеспечению резервного электропитания и возможностям подключения достаточных для работы всех систем ЦОД энергомощностей.

С учетом всего этого, по мнению гендиректора компании «Миран» Игоря Ситникова, сегодня оптимально строить помещение под ЦОД самому и на собственной, а не арендуемой, земле, поскольку в долгосрочной перспективе это выйдет дешевле.

Обратная сторона этого подхода – сроки. Поиск и подготовка объектов недвижимости для организации дата-центра в среднем занимает год-полтора. В случае, если речь идет о строительстве дата-центра с нуля — прибавляется еще два-три года. Всевозможные хлопоты по получению необходимых разрешений, сертификатов и ресурсных квот могут продлиться около года. Особенно много времени занимает поиск подходящего «пятна» под стройку и оформление документов на землеотвод. В среднем, по оценке Евгения Щепилова, руководителя компании «Сервионика» (ГК «Ай-Теко»), в управлении которой находится один из крупнейших российских дата-центров «ТрастИнфо», процесс создания нового дата-центра и его подготовки к выводу на рынок занимает 2-3 года, а в отдельных случаях — и больше.

Возможно, именно этим объясняется многолетнее превышение спроса над предложением качественных дата-центров в России, особенно — в столичном регионе. 9 из 10 крупнейших дата-центров России находятся здесь: в Москве и Московской области сосредоточено 77% доходов российского рынка коммерческих дата-центров и 64,7% коммерческих площадей. Объем рынка дата-центров Москвы в 2012 году вырос на 22% и составил 4,8 млрд руб., годом ранее этот же показатель составлял 3,9 млрд рублей). В то же время, заказчики становятся все более требовательными к качеству инфраструктуры и уровню сервиса, предоставляемого дата-центрами, однако далеко не все площадки могут этим современным требованиям соответствовать. Появление новых игроков на этом рынке затруднено из-за высокого «входного порога»: инвестиции уже на самых ранних стадиях требуются серьезные, а отдачи от них можно ожидать не ранее, чем через 7-10 лет (с учетом сроков строительства и выхода реализованного объекта хотя бы на самоокупаемость, а затем — и на прибыль).

Но, допустим, компания уже прошла все сложности начального этапа: дата-центр построен и работает. Стало ли легче в плане затрат? Не факт: известен парадоксальный пример одной из крупнейших российских интернет-компаний, которая несколько лет назад, в пору интернет-бума, не успевала модернизировать свой дата-центр — быстрее было просто покупать новые площадки. Какой вывод? При строительстве собственного ЦОДа не стоит экономить: нужно рассчитывать его параметры с внушительным заделом на будущее. На сегодняшнем рынке будущее наступает очень быстро: требования к надежности и мощности растут с каждым годом.

За время, пока дата-центр строится, запросы рынка и стратегия компании могут существенно измениться. И при пересмотре бизнес-плана может выясниться, что дата-центр, который создавался исключительно для внутренних нужд, эффективнее перепрофилировать для коммерческого использования. Кроме того, нужно учитывать, что дата-центр — это дорогостоящий актив, с учетом рыночной ситуации его можно выгодно продать.

Плюс электрификация всей страны

На рынке очевиден жесткий дефицит готовых помещений, пригодных для перепрофилирования в дата-центр, поэтому шанс снизить капитальные затраты за счет устранения расходов на строительство объекта очень мал. Более вероятен сценарий, когда помещение приходится арендовать по ставке 9000-15000 рублей за 1 кв.м в год, да еще и за свой счет «доводить до ума» его инфраструктуру, например — электрические сети. В частности, проект, реализуемый сейчас компанией «Миран», предусматривает прокладку 1,5 км электрокоммуникаций – это обойдется в 10 млн рублей. Покупка и установка ИБП – от 5 до 10 млн., еще в 10 млн обойдется дизель-генераторная установка (ДГУ) для резервного энергопитания на случай перебоев с центральным энергоснабжением.

В настоящее время энергоэффективность ЦОД обычно определяется с помощью коэффициента Power Usage Effectiveness (PUE).

Так, по данным HP и Fujitsu, среднее значение коэффициента PUE для большинства ЦОД в Германии составляет около 1,6–2. Это означает, что в ЦОД должно поступить 1,6–2 Вт электроэнергии, чтобы системы ИТ получили 1 Вт. Оставшиеся 0,6–1 Вт расходуются на охлаждение, освещение и прочие нужды. Только в ЦОД новейшего поколения удается достичь показателей PUE на уровне 1,1–1,2.

Энергопотребление современных дата-центров растет и составляет сейчас до 15-16 кВт на стойку (для стойки серверов 1U) и 24 кВт (для стойки модульных серверов), существуют варианты и с 50 кВт на стойку — дата-центры, созданные 5-10 лет назад, просто не рассчитаны на работу с такими нагрузками, такие дата-центры способны отводить максимум до 6 кВт тепла. Ужесточились требования и к экологической безопасности дата-центров: уровням тепловыделения и шума, устройству систем охлаждения. В зарубежных дата-центров более 70% ТСО (стоимости владения объектом) приходится именно на потребляемую энергию, что также связано с высокими тарифами на нее.

Дмитрий Петров, гендиректор оператора связи «Комфортел», считает, что энергоснабжение сегодня является самой крупной статьей в бюджете любого ЦОД, наряду с фондом заработной платы. «Именно поэтому сейчас энергоэффективность ЦОДов является такой горячей темой: инвестируя в ее обеспечение, оператор получает огромную экономию на весь дальнейший период эксплуатации», — отмечает он. В целом, по оценкам Gartner, 28% среднестатистического IT-бюджета приходится на инвестиции в инфраструктуру и приложения, а оставшиеся 72% — на их обслуживание.

Резервирование каждого узла инфраструктуры согласно стандарту доступности Tier-3 (схема резервирования N+1) влечет за собой дополнительные траты на оборудование. Площадку необходимо обеспечить двумя независимыми энерговводами, что, в отличие от ЦОД уровней Tier-1 и Tier-2, обеспечивает полное резервирование энергоснабжения.

При планировании инвестиций в дата-центр (например, его покупку или модернизацию имеющегося) важным фактором для снижения ТСО является уровень внедрения новых технологий. Растет спрос на услуги виртуализации инфраструктуры, в связи с чем капитальные инвестиции провайдеров и владельцев собственных дата-центров все чаще направляются на закупку более производительных серверов с низким энергопотреблением, совершенствование систем учета потребления электроэнергии, управления ресурсами дата-центра, прогнозирования загрузки машинных залов.

Отметим, что в мире проблема энергоэффективности ЦОДов – одна из самых острых, стоящих перед отраслью – иногда успешно решается счет использования географических особенностей ландшафта, в который вписано здание, где базируется объект.

Так, компания Interxion на своем объекте в Стокгольме экономит $1 млн в год просто забирая воду из Балтийского моря для охлаждения своего ЦОД. Традиционно это проблема решается за счет кондиционирования, а, значит, еще больших затрат на электроэнергию. Вокруг Стокгольма имеется готовая сеть трубопроводов с циркулирующей в них морской водой. Именно к ней и удалось подключиться Interxion. По аналогичной модели решена проблема охлаждения ЦОДов Google в Финляндии.

Температура воды на входе в первый модуль ЦОД составляет 6°С, а на выходе – 12°С. Второй модуль вода покидает уже с температурой 18 °С, а в третьем нагревается до 24 °С. После этого она поступает на насосную станцию и используется для отопления близлежащих домов и офисов.

После реализации проекта компании удалось уменьшить коэффициент эффективности использования электроэнергии (Power Usage Effectiveness, PUE) с 1,95 до 1,09, на 80% снизить затраты на охлаждение по сравнению с системами на базе воздушного охлаждения и на 13% — по сравнению с системами жидкостного охлаждения.

Оценив эффективность проекта, компания планирует создать такую же схему в Лондоне — с использовангием вод Темзы. В России подобный проект реализуется в ЦОД «ТрастИнфо» (ГК «Ай-Теко»): этот дата-центр расположен в комплексе зданий Научно-исследовательского центра электронно-вычислительной техники (НИЦЭВТ), на территории которого находится технический бассейн. Он используется как резервное хранилище холода. Вода температурой +7°C охлаждает этиленгликоль внешних контуров системы охлаждения, холодная вода также залита в два внутренних контура системы холодоснабжения. Во внутренней системе водоснабжения используется накопительный бак холода на 2000 кубометров воды. Система обеспечивает 4 часа автономного охлаждения дата-центра при полной загрузке мощностей.

Сложить и перемножить

Существует несколько методологий, по которой оцениваются издержки на оснащение машинных залов. Некоторые эксперты оценивают «чистые» затраты на оборудование, которым необходимо оснастить дата-центр уровня Tier III с полезной площадью 2000 кв. м. при «энерговооруженности» 1 кВт/кв. м в 44,8 млн долл., — то есть, 22,4 тыс. долл. за квадратный метр машинного зала. Однако более реалистичной представляется оценка совокупности всех затрат, и они могут составить 45-60 тысяч долларов США на одну стойку. Сюда входит не только стоимость оборудования, но и затраты на создание инфраструктуры, лицензирование, услуги монтажа и технической поддержки — ведь «железо» не будет работать само по себе.

Начальник отдела инфраструктурных проектов «Компания КОМПЛИТ» Владислав Яковенко отмечает незначительное снижение стоимости стойки (на 5-7%) в течение последних пяти лет. Одна из причин — повышение компетенции проектировщиков и строителей дата-центров: опыт позволяет удешевлять решения, применяемые при строительстве новых дата-центров, даже несмотря на ежегодный рост тарифов на энергоснабжение и оборудование и других операционных затрат. «Что касается других составляющих, то я бы отметил затраты на персонал: с ростом компетенции специалистов растут и их зарплаты. Ставки по аренде снижаются, но качество помещения иногда несет в себе скрытые издержки, и реальная стоимость эксплуатации может значительно отличаться от декларируемой. Тарифы на электричество растут постоянно. Для типовых ЦОДов в РФ сегодня «вилка» в 27-33 тысячи долларов на стойку является справедливой оценкой», — говорит эксперт.

По прогнозу В. Яковенко, этот показатель в ближайшие несколько лет останется неизменным. Известное выражение «хороший компьютер стоит 1 тысячу долларов» подтверждает свою истинность уже много лет. И этот «хороший компьютер» с каждым годом несет в себе все более «продвинутую» начинку из железа и софта. То же, по словам г-на Яковенко, произойдет и с ЦОДами: средняя стоимость стойки останется на указанном уровне, но за счет новых технологий (например, виртуализации), будет доступен новый уровень качества их эксплуатации.

С ним не соглашается Игорь Ситников – по его словам, средняя стоимость стойки (с учетом низового сегмента рынка услуг ЦОД) составляет 20-25 тысяч долларов, но новые качественные ЦОДы по стоимости выходят дороже, чем те, что его компания строила несколько лет назад. «Так, в рамках нового проекта нашей компании стойка выходит в районе 33 тысяч долларов, это без работ по зданию и покупки ДГУ (порядка 10 млн). Стандарт – чуть выше, чем Tier III, схема резервирования – 2N», — отметил он.

Если говорить о капитальных затратах, то пропорции расходов меняются в зависимости от концепции ЦОДа, говорит Дмитрий Петров. «В среднестатистическом дата-центре (Tier III, адаптированный под российские реалии) затраты начинаются от 30 тысяч долларов на стойку. Это полностью оборудованный ЦОД с подведением мощности 7-8 кВт на стойку. Если этот показатель увеличивается до 30 кВт, затраты возрастают: нужны более серьезные кондиционеры, и обеспечение их дублирования, поскольку перебои, например, в системе охлаждения могут просто «убить» всю стойку», – поясняет он.

По мнению Евгения Щепилова, в случае, если ЦОД строится с нуля (условно говоря, «в чистом поле»), на объекте класса Tier III, рассчитанном на 500 стоек, стоимость одной стойки составит порядка 30 тыс долларов, не считая затрат на организацию энергоснабжения. Если же речь идет об уже существующем объекте, то цена может быть на 40-50% выше.

Еще один весьма затратный элемент современного ЦОДа – централизованная система управления подачей электропитания: сложный, тонко настраиваемый и дорогой в обслуживании аппарат. Энергоснабжение в РФ очень сильно отличается от стандартов Германии и Японии, где эти устройства производят, поэтому адаптировать их к нашим реалиям – целое искусство. К тому же, в соответствии с требованиями международных стандартов и ГОСТов, регламентирующих работу дата-центров, такая система также должна резервироваться.

Контроль доступа, видеонаблюдения и организация охраны – разовые затраты на эти составляющие относительно невелики, однако весьма и весьма заметны операционные издержки, и по мере работы дата-центра они возрастают: технические системы нуждаются в модернизации, могут возникать дополнительные расходы на персонал, меняться условия договоров с собственниками земли и помещений дата-центра.

Что касается затрат на персонал, многие участники рынка решают эту проблему, привлекая специалистов по схеме аутсорсинга. По мнению Евгения Щепилова, выбирая среди поставщиков аутсорсинговых услуг в области дата-центров, клиенты практически всегда будут отдавать предпочтение крупным компаниям. Крупный аутсорсер, как правило, располагает всеми необходимыми ресурсами, в том числе — квалифицированными специалистами и современной технической базой. «Сравнительный анализ опыта разных поставщиков показывает, что крупная компания может проявить больше гибкости при обсуждении условий сотрудничества: у нее больше ресурсов и больше возможностей выделить для клиента нужное количество специалистов с необходимой компетенцией. Небольшая компания, как правило, полностью погружена в реализацию одного-двух проектов, и для нее может стать проблемой оперативный ввод новых сервисов или другие изменения, которое клиенту необходимо реализовать оперативно — ведь резерва ресурсов нет. Поэтому риски таких компаний высоки, а издержки могут быть сопоставимы с затратами крупного аутсорсера», — отмечает г-н Щепилов.

В какую сторону вращается счетчик?

В целом, на конечной цене для потребителя услуг ЦОД уровня Tier III и выше все перечисленные факторы отражаются следующим образом: по экспертной оценке, средняя цена стойки у лидеров рынка в РФ варьируется в диапазоне 47-105 тыс. рублей за 5 кВт стойку (включая НДС).

При этом градация будет выглядеть следующим образом: у дата-центра уровня Tier I — 47-55 тыс. рублей за аренду стойки, Tier II — 55-80 тысяч, Tier III и выше — 80-150 тысяч рублей.

По результатам исследования 29 крупнейших дата-центров Москвы и Московской области, Средний уровень загрузки составляет 68%, количество стоек – более 12 тысяч.

Учитывая динамику цен на энергоносители и рост тарифов на энергоснабжение, российский рынок дата-центров будет работать в ближайшие годы в условиях роста цен при дефиците мощностей. С другой стороны, ужесточение конкуренции и требований клиентов неизбежно приведет к тому, что доля инновационных решений и современных технологий в строительстве и оснащении дата-центров будет увеличиваться. Только таким путем, как показывает мировая практика, можно противостоять растущей стоимости издержек и сохранять конкурентоспособные цены на услуги.

Поделиться: Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!

Как известно, любой стартап начинается с фразы «Как же вы за***ли, лучше сам сделаю лучше».
В 2007 году положение с датацентрами в Москве, да и во всей России было критическим. Попасть туда простому хостеру можно было только по предварительной записи. Драли с него втридорога, сервера частенько перегревали, электричество периодически отсутствовало, и еще, стоило датацентру начать генерировать 2-3 гигабита полосы, как он тут же воображал себя царем горы, пытался барыжить твоим трафиком, а с несогласными боролся методом пускания моего трафика через узкий зашейпенный канал ***телекома зарубеж.
А общение с ночными дежурными датацентра — это отдельная песня. Чаще всего было проще приехать и самому найти вывалившийся патчкорд, чем полночи пытаться добиться от мало вменяемого, ничего не хотящего юноши. И это хорошо, если дежурный был и попасть в датацентр ночью было возможно. Некоторые датацентры работали с 9 до 5, кроме праздников и выходных дней. Все остальное время там не было НИКОГО. Сервер, упавший в пятницу вечером, пролежит, минимум, до дня понедельника.
Картинка, о том, что творилось внутри типичного датацентра того времени.

Мне, к тому времени, это порядком надоело, и, как выход, я решил строить свой датацентр, ориентированный на запросы меня и моих пользователей.
А именно хотелось:
1) Нормального, качественного охлаждения с большим запасом на случай выхода одного из кондиционеров.
2) Беспроблемного электричества и обязательно собственный дизель.
3) Каналы и до местных Tier1 и до пира. Трафик должен стоить нормальных денег.
4) Своей, вышколенной и вменяемой круглосуточной смены на площадке.
Своими мыслями я делился с знакомыми и нашел сочувствующих. Был написан бизнес план. Не спеша были найдены деньги на запуск и клиенты, что бы не работать в минус после запуска.
Был найден и будущий исполнитель строительства датацентра — Группа компаний «Радиус»
С января 2008 года мы начали искать помещение. И не просто так, а размером 200-400 метров, с выделением 600 kW электричества, с обязательной регистрацией договора аренды на срок 5 лет. На первом этаже. Без транзитных труб. И что бы было куда повесить кондиционеры.
Такое удачное сочетание найти было не так просто. Поиски помещения продолжались весь 2008 год. Нашлось немало удачных вариантов, но увы, так или иначе мы не договаривались. Или электричество было по 2 цены, или договор аренды не более чем на 3 года, или вообще завод шел под реконструкцию через 2 года.
Итак прошел весь 2008 год. Зимой количество объектов вдруг резко увеличилось, а арендодатели вдруг стали соглашаться на наши условия, и в январе 2009 года помещение было найдено. Представляло оно из себя не очень приятное зрелище.
Приблизительно вот такое

И с другой стороны

Итак, договор аренды подписан, мы с специалистами группы компаний Радиус засучили рукава и начали делать рабочий проект. Большой такой, талмуд, страниц на 1000. В котором подробно описали как сделать из того, что есть, красоту необыкновенную, нужную нам. К марту проект был готов, и началась стройка.
Как всегда, самое интересное в следующей серии

В наше время большая часть людей понимает, какие огромные возможности для бизнеса даёт нам глобальная сеть. Одно из перспективных направлений бизнеса в интернете – бизнес хостинг или создание сайта на базе серверов хостинговой компании.

Продавать услуги хостинга можно несколькими способами. Самым дешевым из них является реселлинг. Он подразумевает аренду у хостера выделенного сервера. Также можно заключить договор на обслуживание собственного сервера и конечному потребителю перепродавать услуги хоста.

Следующий способ – открытие автономного центра обработки данных. При этом, учитывая современные тенденции рынка, делать это желательно в строго определенной нише. Есть смысл создавать предложения для развивающихся и набирающих обороты отдельных CMS-систем.

Полноценная хостинг-компания работает в отдельном помещении на собственном оборудовании. При этом в нашей стране нет специальных разрешений и требований на её открытие. Достаточно зарегистрироваться в качестве юридического лица, купить нужное оборудование. Однако тем, кто хочет создать крупный дата-центр, следует запастись терпением, так как процедура получения разрешений длительная и весьма хлопотная.

Статья по теме: как открыть детский развивающий центр.

Открытие крупного дата-центра

Владельцы крупных дата-центров в строительстве должны ориентироваться на требования международных стандартов TIA/EIA-942. Это позволит обеспечить высокое качество предоставляемых услуг и облегчить работу центра. Однако собственное строительство оправдано лишь для очень крупных компаний. При этом здесь присутствуют определенные риски.

С целью строительства можно нанять специализированную компанию или системного интегратора. Помимо этого при создании дата-центра необходимо решать проблемы ИТ. Так неправильная планировка может приводить к сбоям оборудования, перегреву системы. Поэтому требования к квалификации работников, занимающихся проектированием и внедрением баз данных, постоянно растут.

Открытие среднего и малого дата-центра

Средние дата-центры зачастую арендуют помещение. При этом они обладают каналами связи с ограниченной пропускной способностью. Если вы интересуетесь: как открыть свой хостинг небольшого объёма, то учтите, что имея маломощное оборудование и плохо приспособленные помещения, вы сможете предоставлять минимальный пакет услуг. При этом, учитывая высокий уровень конкуренции, рассчитывать на большой приток клиентов не придется.

Согласно международным стандартам качества, существуют 4 уровня надежности хостеров. Самый низкий Tier 1 и самый высокий Tier 4. Конкурентоспособный хостинг должен ориентироваться хотя бы на стандарт Tier 3: несколько каналов подключения к провайдеру, подключение всего оборудования к двум автономным энергосетям, 2 автономных генератора и UPS, использование охлаждающих устройств.

Рекомендуем к ознакомлению: как открыть тир.

По словам эксперта, фактически в нашей стране нет коммерческого дата-центра, отвечающего вышеуказанному стандарту, хотя некоторые фирмы декларируют соответствие, но это не является правдой.

Цена старта

Чтобы стартовать в формате реселлинга, достаточно приобрести у хостера пакет услуг (максимум 20 долларов в месяц) и разработать сайт (в зависимости от типа сложности до 1 тысячи долларов). Окупятся вложения уже через пару месяцев. Аренда выделенного сервера, где можно разместить несколько сотен маленьких сайтов клиентов обойдется как минимум в 100 долларов за месяц, а покупка собственного сервера – 1 тысячу долларов, плюс ежемесячная оплата за обслуживание в размере 80 долларов за месяц. Окупаемость такого проекта составляет один год.

Чтобы открыть небольшой дата-центр, потребуется от 40 тысяч долларов. Это 5-6 серверов, коммутаторы, офис и персонал 5-6 человек, биллинг-панель, программное обеспечение. Срок окупаемости составляет 5 лет.

Построение средних и больших дата-центров исчисляется несколькими миллионами долларов. При этом окупаемость составляет приблизительно 3 года.

Статья по теме: перспективный бизнес.

Выводы

Наличие огромной конкуренции требует создания качественных хостингов, имеющих большую пропускную способность и предоставляющих расширенный пакет услуг. Однако организация такого бизнеса возможна лишь при наличии огромного стартового капитала. Новичкам рекомендуется попробовать себя в формате реселлинга. Прибыль здесь не большая, однако вложения минимальны, практически отсутствуют риски.

Для подключения услуги Облако на базе VMware зарегистрируйтесь в панели управления услугами Selectel и пройдите полную регистрацию.

Пополните баланс услуги минимум на 1000р. Подробнее о пополнении баланса читайте в разделе Оплата и биллинг Облака на базе VMware.

Обучающее видео

Создание виртуального дата-центра

Откройте в панели управления раздел Облако на базе VMware и нажмите кнопку Создать дата-центр.

Укажите локацию:

  • Москва;
  • Санкт-Петербург;
  • катастрофоустойчивая локация на базе дата-центров, расположенных в Санкт-Петербурге и Лен. области;
  • катастрофоустойчивая локация на базе дата-центров, расположенных в Москве.

Выберите пул:

  • Gold — пул с быстрым хранилищем, подходящий для размещения высоконагруженных приложений и баз данных;
  • Silver — пул с универсальным хранилищем и оптимизированной стоимостью, подходящий для большинства задач.

Доступ к сервису vCloud Director осуществляется как через html5-консоль, так и через flash-консоль. С основными операциями во flash-консоли можно ознакомиться в статье.

Перейти в веб-панель управления vCloud Director можно из панели управления, нажав на заголовок карточки виртуального дата-центра. Сменить пароль можно на вкладке Пользователи.

Обратите внимание! Управление московскими ресурсами vDC осуществляется через веб-панель московского vCloud Director (vcd-msk.selectel.ru), управление ресурсами в Санкт-Петербурге — через веб-панель петербургского vCloud Director (vcd.selectel.ru). Чтобы управлять ресурсами без необходимости переоткрывать учетную запись, воспользуйтесь функцией Multisite.

Настройка доступа к виртуальному дата-центру

Доступ к виртуальным дата-центрам можно разграничивать, задавая права для конкретных пользователей.

Создание новых пользователей происходит в vCloud Director. Для создания пользователя:

  1. Откройте панель vCloud Director.
  2. В главном меню выберите Administration вместо Datacenters.
  3. Нажмите кнопку New.
  4. В открывшемся окне заполните необходимые поля, включая роль пользователя. У пользователя с ролью Organization Administrator всегда есть доступ ко всем vDC организации.
  5. Нажмите кнопку Save.

Новый пользователь будет создан и начнет отображаться в панели управления на вкладке Пользователи.

Для того чтобы дать пользователю доступ к vDC в панели управления перейдите на вкладку Доступ к виртуальным дата-центрам и установите переключатель в соответствующее положение.

Задать новый пароль пользователя можно на вкладке Пароль.

Создание vApp и подключение к интернету

vApp — это компонент vCloud Director, который представляет собой набор виртуальных машин (далее ВМ), объединенных в одну группу и решающих определенную задачу. vApp представлены в виде объектов и ими можно управлять как любой отдельной виртуальной машиной (включенной, выключенной, клонированной и так далее).

Современные корпоративные приложения редко ограничиваются одной виртуальной машиной и обычно имеют компоненты, распределенные по нескольким виртуальным машинам. Например, может быть интерфейсный веб-сервер, работающий на одной виртуальной машине, сервер приложений, работающий на другой виртуальной машине, и сервер внутренней базы данных, работающий на еще одной виртуальной машине. Поскольку эти компоненты имеют определенные зависимости (например, определенный порядок запуска), можно использовать vApp для объединения нескольких виртуальных машин в одно устройство.

Для создания vApp:

  1. В панели vCloud Director нажмите на карточку виртуального дата-центра.
  2. На вкладке vApps нажмите кнопку New vApp.
  3. Заполните поле Name.
  4. Для создания vApp с ВМ нажмите Add virtual machine:
    • заполните поля Name и Description;
    • установите переключатель на From Template;
    • выберите образ ОС;
    • для выбора политики хранения установите галочку в поле Use custom storage policy и в поле Custom storage policy to use выберите нужную политику. В зависимости от выбранной политики при создании vDC для пула Gold надо выбрать между vSSD и Fast vSSD, для пула Silver — между Fast vHDD или vHDD;
    • нажмите кнопку Ok.
  5. В форме создания vApp добавится ВМ.
  6. Нажмите кнопку Create.

Примечание: процесс создания виртуальной машины в контейнере vApp занимает некоторое время.

vApp с ВМ будет создан. Для запуска на карточке созданного vApp нажмите кнопку Actions и выберите опцию Power on.

Создание дополнительной виртуальной машины

Для создания дополнительной виртуальной машины внутри vApp:

  1. В карточке vApp нажмите Actions.
  2. Нажмите кнопку Add VM.
  3. Заполните поле Name.
  4. Выберите создание из шаблона, установив переключатель на From Templates.
  5. Если необходимо, чтобы ВМ была сразу запущена, установите галочку в поле Power on.
  6. Для выбора политики хранения установите галочку в поле Use custom storage policy и в поле Custom storage policy to use выберите нужную политику. В зависимости от выбранной политики при создании vDC для пула Gold надо выбрать vSSD и Fast vSSD, для пула Silver — Fast vHDD или vHDD.
  7. Выберите шаблон установки из предложенных в списке.
  8. Нажмите кнопку Ok.

Примечание: возможно создание ВМ без создания vApp. В этом случае vDirector все равно создаст служебный vApp для этой машины, но будет его скрывать.

Подключение ВМ к интернету

Для подключения ВМ к интернету можно использовать преднастроенную локальную сеть default_net, которая создается автоматически в течении двух минут после создания виртуального дата-центра и соответствующего ему edge.

Сеть default_net настроена следующим образом:

Подробнее о создании и настройке сети читайте в статье.

Для того чтобы выбрать сеть в настройках виртуальной машины добавьте сеть в vApp, выполнив следующие действия:

  1. Перейдите на вкладку vApps.
  2. Выберите Add network в выпадающем меню Actions нужного vApp.
  3. Укажите OrgVDC Network.
  4. Выберите сеть default_net из списка и нажмите кнопку Add.

Для подключения ВМ к интернету:

  1. Перейдите на вкладку Virtual Machines.
  2. В блоке нужной виртуальной машине нажмите кнопку Details.
  3. Перейдите в блок Hardware.
  4. В блоке NICs в поле Network выберите сеть default_net и поставьте галочку в столбце Connected.
  5. Нажмите кнопку Save.

Виртуальная машина будет подключена к интернету.

Подключение Standalone VM к Direct Сonnect сети

Можно назначить публичный IP-адрес прямо на ВМ без использования NAT.

Можно выбрать любой доступный адрес в рамках выделенной подсети от /29 до /24 и добавить его на интерфейс ВМ, подключив виртуальную машину к Direct Сonnect сети.

При наличии установленной утилиты vmware-tools (Windows)/open-vm-tools (*nix) внутри ВМ и сетевого интерфейса, подключенного к необходимой сети, IP-адрес добавится автоматически при сборке ВМ.

Настройка доступа к виртуальной машине по SSH/RDP

Примечание: перед настройкой правил NAT обязательно уточните Внешний IP-адрес виртуального дата-центра.

Для настройки доступа по SSH откройте порт 22 (для доступа по RDP — порт 3389 соответственно) через создание правила DNAT.

Настройка NAT

Перейдите на вкладку Edges.

Нажмите кнопку Configure services.

Откройте вкладку NAT и нажмите кнопку + DNAT Rule:

  • в поле Applied on укажите внешнюю сеть;
  • в поле Description укажите описание правила — SSH или RDP;
  • в поле Original IP/range укажите внешний адрес;
  • в поле Protocol — протокол;
  • в поле Original port — 22 или 3389 соответственно;
  • в поле Translated Port — 22 или 3389 соответственно;
  • в поле Translated IP/range — внутренний IP-адрес виртуальной машины.

Примечание: лучше использовать порт, отличный от стандартного, например, 5222.

Настройка Firewall

Перейдите на вкладку Edges. Нажмите кнопку Configure services. Откройте вкладку Firewall и создайте правило со следующими параметрами:

  • в поле Name задайте название правила, например Allow SSH;
  • в поле Source введите необходимые адреса источника: единичный IP-адрес, диапазон IP-адресов, CIDR или один из ключевых переменных:
    • internal — все внутренние сети;
    • external — все внешние сети;
    • all — любые сети.
  • в поле Source Port выберите порт источника. Можно указать один порт, диапазон портов или указать все порты с помощью ключевой переменной Any;
  • в поле Destination укажите адрес получателя, например, Any;
  • в поле Destination Port выберите порт получателя — 22;
  • в поле Protocol выберите TCP;
  • в поле Action укажите Accept.

После перезапуска виртуальной машины, к ней можно будет подключиться по SSH.

Примечание: аналогичным образом можно настроить подключение по HTTP (порт 80).

Где посмотреть логин/пароль от гостевой ОС

Логин

Логин root для всех шаблонов виртуальных машин.

Пароль

Для просмотра пароля:

  1. Перейдите на вкладку Virtual Machines.
  2. В карточке нужной виртуальной машине нажмите кнопку Details.
  3. В открывшемся окне разверните блок Guest OS Customization.
  4. Пароль указан в поле Password Reset.

Для смены пароля:

  1. Выключите ВМ, нажав кнопку Actions → Power off.
  2. Нажмите в выключенной ВМ кнопку Details.
  3. Перейдите в блок Guest OS Customization.
  4. Поставьте галочку в поле Enable Guest Customization.
  5. Выберите опцию автоматической генерации пароля Auto Generate Password или установите пароль самостоятельно в поле Specify Password.
  6. Сохраните изменения, нажав кнопку Save.

Примечание: пароль должен отвечать следующим требованиям иметь длину не менее шести знаков и содержать в себе комбинацию как минимум трех категорий из четырех следующих:

После смены пароля необходимо провести рекастомизации. В карточке виртуальной машины нажмите кнопку Actions и выберите опцию Power on and force recustomization.

Примечание: пароль при вводе не отображается из-за соображений безопасности, вводить пароль необходимо вручную, а не вставлять скопированный.

Рекастомизация ОС

Кастомизация гостевой ОС — это возможность изменить настройки операционной системы ВМ в соответствии с теми, которые задаются в панели vCloud Director. Это могут быть следующие настройки:

  • имя виртуальной машины;
  • настройки сети;
  • SID;
  • пароль администратора.

Внесенные параметры будут прописаны в системе автоматически при включении виртуальной машины. Для сравнения, в выделенных серверах такие настройки нужно вносить вручную на самом сервере.

Рекастомизация нужна для принудительного сброса и повторного применения настроек.

Чтобы запустить рекастомизацию, выполните следующие действия:

  1. Перейдите на вкладку Virtual Machines.
  2. В карточке нужной виртуальной машины нажмите кнопку Actions и выберите в выпадающем меню опцию Power Off.
  3. После отключения виртуальной машины нажмите кнопку Actions и выберите опцию Power On and Force Recustomization.

Обратите внимание! Кастомизация и рекастомизация ОС возможны только в том случае, если внутри виртуальной машины установлен и запущен сервис Open VM Tools. По умолчанию этот сервис есть во всех наших шаблонах. Но при создании машины из собственного образа, возможно, придется установить Open VM Tools вручную.

Записи созданы 8837

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Похожие записи

Начните вводить, то что вы ищите выше и нажмите кнопку Enter для поиска. Нажмите кнопку ESC для отмены.

Вернуться наверх