понедельник, 14 марта 2011 г.

Виртуализация СХД. Решения EMC

EMC Invista
Решение EMC Invista так же, как и HP SVSP, является представителем асинхронной виртуализации, но использует коммутирующую виртуализацию (switch-based), реализующую управление на уровне интеллектуальных коммутаторов Fibre Channel.  Решение представляет собой серверный кластер CPC (Control Path Cluster), работающий совместно с интеллектуальными коммутаторами семейства Cisco (MDS) или Brocade (AP7420). На коммутаторе располагается Data Path Controller, который передает данные. Кластер CPC базируются на платформе х86.
В отличие от IBM SVC Invista не перегружает трафик от хоста к LUN. Интеллектуальный FC switch мэппирует запросы для виртуальных томов в запросы к соответствующим LUN согласно инструкциям CRC, также CRC кластер используется для реализации функции репликации, что невозможно сделать только при помощи интеллектуальных коммутаторов.
В момент, когда поток ввода-вывода попадает в интеллектуальный SAN-коммутатор, контроллер порта (ASIC) определяет его тип и в зависимости от результата перенаправляет поток. Если тот содержит операции с данными (чтение или запись), коммутатор действует в обычном режиме, пропуская его к системе хранения. Если поток содержит служебные команды, он перенаправляется в процессор потока управления (CRC), ответственный за реализацию виртуализации. При этом приложение, инициировавшее поток ввода-вывода, не получит подтверждения об окончании репликации до тех пор, пока данные не окажутся внутри реальной физической системы хранения. Стоит отметить, что контроллеру требуется примерно 20—30 мкс на перенаправление потока и при этом, согласно статистике, около 99% потоков содержит в себе данные, что в сумме означает крайне незначительные накладные расходы при реализации технологий виртуализации в SAN-сети, не оказывающие существенного влияния на общую производительность инфраструктуры хранения. Согласно данным корпорации EMC, общая производительность комплекса в зависимости от используемой модели коммутатора составляет порядка 1,6—2 млн IOPS при максимальной пропускной способности до 12 Гбайт/с.
В общем виде архитектура Invista представлена на рис. 3. В процессе работы CPC поддерживает репозиторий метаданных, в которых отражено соответствие логических и физических ресурсов хранения. CPC загружает метаданные, при необходимости снабжает ими коммутаторы и обрабатывает возникающие исключительные ситуации. При этом CPC остается вне потока данных и не вызывает задержек ввода/вывода.
Минусом является небольшое число поддерживаемых дисковых систем на данный момент.

Источник:

Несколько полезных ссылок про EMC Invista

EMC VPLEX
EMC VPLEX была представлена в мае 2010 года. Состоит из двух продуктов: VPLEX Local и VPLEX Metro. Ключевым элементом виртуальной системы хранения является объединение распределенных массивов данных: ресурсы из разных систем хранения локально и удаленно собираются в пул и начинают работать как единое целое. Предположим, есть две площадки, на каждой - по системе хранения. Между СХД – репликация. Но в итоге сервера на обоих площадках работают как будто с единственной СХД.
Можно сказать, что VPLEX это вертикально и горизонтально масштабируемая система виртуализации СХД, позволяющая использовать глобальный (распределенный) кэш.
В перспективе EMC обещает еще две версии VPLEXGlobal, для объединения двух площадок на расстоянии более 100км (асинхронная репликация) и VPLEX Geo, который уже позволит объединять несколько датацентров на произвольном расстоянии друг от друга. 


Минимальный модуль (VPLEX Engine) состоит из двух x86 серверов (каждый отдельно называется Director), упакованных в одно шасси высотой 4U. Максимум в кластер для увеличения производительности можно объединить до 4х Engine (8 директоров). Друг с другом директоры общаются через выделенные FC порты, для чего используются отдельные коммутаторы.  Помимо 4х узлов и двух коммутаторов в стойке также размещается управляющий сервер, через который собственно и происходит вся работа с VPLEX. Из 32ГБ памяти каждого директора, в качестве кэша используется около 20ГБ, таким образом, на каждой площадке можно получить до 160ГБ кэша. Кэш используется только для чтения: при получении запроса VPLEX проверяет наличие данных у себя в кэше, если данных там нет, то проверяется глобальный кэш (память остальных узлов) и только если данных не оказывается и там, делается запрос на чтение с дисков. Вся запись ведется “сквозным” образом, т.е. подтверждение хосту об успешном завершении отправляется только после того как VPLEX получит соответствующее подтверждение от всех дисковых систем, участвующих в записи блока данных. 

Комментариев нет:

Отправить комментарий