Компьютерный форум OSzone.net  

Компьютерный форум OSzone.net (http://forum.oszone.net/index.php)
-   Windows Server 2012/2012 R2 (http://forum.oszone.net/forumdisplay.php?f=117)
-   -   Виртуализация корпоративной сети (http://forum.oszone.net/showthread.php?t=299078)

Ыть 28-04-2015 11:54 2501719

Виртуализация корпоративной сети
 
Планируем виртуализовать корпоративную сеть, примерно следующего содержания:
- Контроллер домена
- Direct Access & VPN
- AD FS
- SCCM
Как я вижу это:
две ноды подключённые к Disk Array, скорее всего по iSCSI 1Gbit
на нодах установлены роли контроллера домена и Hyper-V
на виртаулаках AD FS, Direct Access, SCCM
Примерная конфигурация нод:
Цитата:

Supermirco
Intel Xeon 4-Core E3-1230LV3 1,8GHz 8MB
16 GB (4x 4GB) ECC DDR3 1600
2х 300 GB SAS II HGST 2,5" 10k
Adaptec 6405 SAS2 4x
2x 400 Watt Power Supply
Какую дисковую полку посоветуете? на 4 или 8 дисков для RAID-10.
Что скажете про распределение ролей по VM и нодам?

Спасибо.

uel 28-04-2015 16:24 2501856

Ну КД на ноду я бы не ставил, зачем? Тоже виртуализовать, если уж очень нужен аппаратный, то любой офисный комп подойдет.
2 ноды для отказоустойчивости или на них роли разные будут?

Ыть 28-04-2015 17:26 2501881

Цитата:

Цитата uel
Ну КД на ноду я бы не ставил, зачем? »

ну просто хотелось бы чтобы было два контроллера + ноды же должны быть в домене, а контроллер в это же время на виртуалке?
Цитата:

Цитата uel
2 ноды для отказоустойчивости

да
кстати, а можно совместить Direct Access со SCCM ?

вот ещё вопрос возник - 1Gbit iSCSI хватит? или 10 Gbit ?

uel 29-04-2015 23:25 2502405

Цитата:

Цитата Ыть
ну просто хотелось бы чтобы было два контроллера »

Сделай 2 виртуальных + 1 железный (офисного пк по глотку)
Если планируется кластер, точно не помню, но на КД его не развернешь кажись.
Цитата:

Цитата Ыть
кстати, а можно совместить Direct Access со SCCM ? »

Ну на разных ВМ сделай, или именно на 1 надо? Сам DirectAccess не разворачивал, ИМХО даже на одной ВМ все должно работать (не вижу какой-либо причины обратного).
Цитата:

Цитата Ыть
вот ещё вопрос возник - 1Gbit iSCSI хватит? или 10 Gbit ? »

Тут только от твоей нагрузки зависит, ИМХО 1Gb за глаза.

Ыть 30-04-2015 13:13 2502562

Цитата:

Цитата uel
(офисного пк по глотку) »

некуда ставить. только стойка в наличии.
Цитата:

Цитата uel
Тут только от твоей нагрузки зависит, ИМХО 1Gb за глаза. »

вот ещё вопрос появился: нужны ли какие специальные коммутаторы для работы кластера? слышал, что какая-то функция для этого специальная есть, но забыл как называется.
Или просто iSCSI через простые коммутаторы подключить.

Telepuzik 30-04-2015 23:26 2502715

Цитата:

Цитата Ыть
вот ещё вопрос появился: нужны ли какие специальные коммутаторы для работы кластера? »

Специальные коммутаторы не нужны, но очень рекомендуется использовать коммутаторы которые поддерживают Jumbo Frames. И на сетевых картах так же необходимо включить Jumbo Frames.

rybinpv 04-05-2015 06:04 2503491

1. На каждый сервер устанавливаем Hyper-V, Failover-Clustering, MPIO. Тома с дисковой полки по ISCSI подключаем к каждому серверу. Создаем кластер. В виртуальных машинах размещаем все. Тут будет тонкий момент - для создания кластера необходим работающий контроллер домена, можно обойти создав ВМ с КД на одном из серверов на локальном хранилище. На узлах кластера только Hyper-V и средства кластеризации. Можно использовать бесплатный Hyper-V Server на узлах кластера.
2. Если планируете кластер высокой доступности - планируйте, чтоб при отключении одного узла, все ВМ продолжили работать на оставшемся. В вашем случае процессора скорее всего хватит, а памяти можно было и поболее, но все зависит от нагрузки.
3. ISCSI 1Gb - достаточно для небольших нагрузок, если у вас SCCM не на пару тысяч машин, то под ваши задачи хватит за глаза. SAS для подключения хранилища не рассматривали?
4. Из полок. Совсем low-end - посмотрите Synology, с лого Windows Server Certified. Если бюджет позволит, тогда, например, HP MSA 1040 iSCSI 1Gb - двухконтроллерная СХД младшего класса.

Ыть 05-05-2015 14:28 2504021

Цитата:

Цитата rybinpv
если у вас SCCM не на пару тысяч машин »

пока только с десяток будет, но все распределены по разным городам с подключением по DirectAccess.
Цитата:

Цитата rybinpv
Тут будет тонкий момент - для создания кластера необходим работающий контроллер домена »

буду думать как лучше сделать...
Цитата:

Цитата rybinpv
4. Из полок. Совсем low-end - посмотрите Synology »

его пока и выбрали Synology RS815RP+ NAS
SAS в бюджет не впишется, я даже на 32 GB не могу уговорить... а тут ещё выяснилось, что будет миграция имеющегося Team Foundation Server на этот же кластер...
Пока на такой конфигурации остановились (обновил процессор):
Цитата:

Intel Xeon 4-Core E3-1241V3 3,5GHz 8MB
16 GB (4x 8GB) ECC DDR3 1600
Avago MegaRAID 9260-4i SAS2 4x
4х 500 GB SATA III HGST 2,5"
Если в будущем решим внедрять терминальный сервер память придётся всю менять.

Telepuzik 08-05-2015 09:20 2505023

Цитата:

Цитата Ыть
Примерная конфигурация нод: »

А сколько у Вас сетевых интерфейсов на каждой ноде?

Ыть 08-05-2015 10:52 2505040

Цитата:

Цитата Telepuzik
А сколько у Вас сетевых интерфейсов на каждой ноде? »

по два. но хотелось бы четыре...
Сейчас улучшил конфигурацию (выделили финансирование под SAS):
Цитата:

Intel Xeon 6-Core E5-2630v2 2,60GHz 15MB 7.20GT/s
32 GB (4x 8GB) ECC Reg DDR3 1600 2 Rank
4х 1 TB SAS II Seagate Constellation ES.3 3,5" 7.2k
4x SATA-2 (3 Gb/s) und 2x SATA-3 (6 Gb/s) SW-Raid Controller on Board C602 PCH (0,1,5,10)
Avago MegaRAID 9260-4i SAS2 4x
плюс, имеющийся в наличии TFS уже использует 16 GB памяти. а E3-1241V3 только 32 поддерживает. Нет возможности дальнейшего обновления.
а дисковую полку будем делать из сервера:
Цитата:

Intel Celeron G1820T 2-Core 2,4 GHz 2MB 5GT/s
8 GB (2x 4GB) ECC DDR3 1600 1 Rank
4х 600 GB SAS II HGST 2,5" 10k
Avago MegaRAID 9260-4i SAS2 4x
процессор только другой подобрать.


Время: 20:12.

Время: 20:12.
© OSzone.net 2001-