San хранилище что это
Как создать и настроить сетевое хранилище NAS или SAN?
Наличие свободного дискового пространства, пригодного для хранения разнообразных данных, очень востребовано как для личного использования, так и в производственных целях для малых или крупных офисов. Встроенных возможностей запоминающих устройств обычных компьютеров часто бывает недостаточно. Поэтому все чаще пользователи используют сетевые хранилища NAS или SAN, доступный внутренний объем которых ограничивается только желаниями потребителей, а также напрямую зависит от поставленных задач.
В нашем обзоре мы постараемся объяснить принципы действия хранилищ NASи SAN, опишем способ создания устройства для хранения данных на основе D-Link DSN-1100-10, объясним порядок наиболее востребованных действий с ним и возможных подключений, а также частично остановимся на вопросе восстановления информации в случае ее непредвиденной утрате в хранилище.
Network Attached Storage (сокращенно NAS) представляет собой хранилище информации, состоящее из набора простых дисков, к которому обеспечен быстрый сетевой доступ. Любой пользователь, обладающий соответствующим разрешением, может взаимодействовать с хранилищем, а именно сохранять, размещать и скачивать данные напрямую.
NAS оснащен собственной программной системой, все действия которой направлены на обеспечение безопасных способов хранения и предоставления своевременного доступа к файлам.
Storage Area Network (сокращенно SAN) – это сеть хранения данных, конструктивное исполнение которой выполняет объединение внешних запоминающих устройств в единый комплекс и обеспечивает последующее их распознавание в качестве локальных носителей.
Сеть SAN задействует блочный метод доступа к данным при помощи основного протокола iSCSI, который функционирует на TCP/IP и обеспечивает управление и корректное взаимодействие с различными системами хранения.
Сетевая система универсальна, поддерживается практически всеми ОС и не нуждается в использовании специфического оборудования.
Мы покажем сборку и настройку хранилища на основе D-Link DSN-1100-10, который будет обеспечивать функциональную поддержку разных видов массивов RAID, таких как RAID 0, 1, 1+0, 5.
Поместите в соответствующие лотки жесткие диски и зафиксируйте их.
Последовательно поместите заполненные лотки в установочные гнезда.
Процесс сборки хранилища окончен, и можно приступать к его включению и последующему сетевому соединению.
Для дальнейшего успешного использования хранилище следует соединить с компьютером посредством кабельного соединения или организовать ему доступ в сеть. На корпусе блока отыщите разъем подключения. В нашем варианте он маркирован надписью «Mgmt. Ethernet».
Вставьте один конец кабеля в данный порт, а второй – в сетевой порт маршрутизатора, что обеспечит устойчивое подключение к сети.
При подключении хранилища к персональному компьютеру пользователям понадобиться кабель соединения, концевые зажимы которого выполнены по перекрестной схеме.
При прямом соединении хранилища с ПК вставьте оставшийся конец кабеля в соответствующий lan-порт на задней панели компьютера.
Теперь включите хранилище и дождитесь окончания загрузки.
На ПК откройте веб-браузер и укажите в строке адрес вашего хранилища, сведения о котором представлены в руководстве пользователя. На странице приветствия подтвердите свое согласие с условиями лицензионного соглашения, щелкнув соответствующую кнопку управления.
В выделенном поле установите персональную парольную фразу и перейдите на следующую страницу настроек.
Заполните стандартные поля «IP Address», «Subnet» и «Default Gateway», а затем щелкните «Next» для перехода к следующим настройкам.
Также укажите на новой странице значения «IP Address», «Subnet» и «Default Gateway» для организации iSCSI соединения, а потом нажмите «Next» для перехода к завершающей странице настроек.
Примечание. Данный раздел можно пропустить и заполнить отсутствующие значения IP-адреса, маски подсети и шлюза позже. В этом случае кликните кнопку «Skip To Email Notification».
Настройте службу оповещения по электронной почте, заполнив соответствующие поля, для получения важных сведений о состоянии и работоспособности NAS.
На финальной странице проверьте корректность установленных значений и закончите настройку хранилища нажатием на кнопку «Finish».
Процедура первичной настройки закончена.
Система дополнительно на следующем этапе предложит выполнить загрузку и установку Java, наличие которого необходимо для поддержки работоспособности модуля через «xStack Storage». Кликните по текстовой ссылке «click here» рядом со значком приложения Java, чтобы завершить востребованную установку дистрибутива.
При отсутствии необходимости в приложении, когда оно уже доступно в системе на ПК пользователя, пропустите данный шаг и перейдите к установке «xStack Storage», кликнут идентичную текстовую ссылку «click here» в соответствующей строке ниже под первым предложением для скачивания.
Чтобы избежать принудительной блокировки «xStack Storage» приложением Java, которое может произойти на начальном этапе установки, поместите ссылку для скачивания в список исключений, разрешающий его последующую загрузку. Сперва щелкните правой кнопкой мыши по текстовой ссылке «click here» и выберите в открывшемся меню раздел «Свойства».
В Поле «URL-адрес» скопируйте представленные сведения.
О сетях хранения данных
Решил написать небольшую статейку о сетях хранения данных (СХД), тема эта достаточно интересная, но на Хабре почему-то не раскрыта. Постараюсь поделиться личным опытом по построению и поддержке SAN.
Что это?
Сеть хранения данных, или Storage Area Network — это система, состоящая из собственно устройств хранения данных — дисковых, или RAID — массивов, ленточных библиотек и прочего, среды передачи данных и подключенных к ней серверов. Обычно используется достаточно крупными компаниями, имеющими развитую IT инфраструктуру, для надежного хранения данных и скоростного доступа к ним.
Упрощенно, СХД — это система, позволяющая раздавать серверам надежные быстрые диски изменяемой емкости с разных устройств хранения данных.
Немного теории.
Сервер к хранилищу данных можно подключить несколькими способами.
Первый и самый простой — DAS, Direct Attached Storage (прямое подключение), без затей ставим диски в сервер, или массив в адаптер сервера — и получаем много гигабайт дискового пространства со сравнительно быстрым доступом, и при использовании RAID-массива — достаточную надежность, хотя копья на тему надежности ломают уже давно.
Однако такое использование дискового пространства не оптимально — на одном сервере место кончается, на другом его еще много. Решение этой проблемы — NAS, Network Attached Storage (хранилище, подключенное по сети). Однако при всех преимуществах этого решения — гибкости и централизованного управления — есть один существенный недостаток — скорость доступа, еще не во всех организациях внедрена сеть 10 гигабит. И мы подходим к сети хранения данных.
Главное отличие SAN от NAS (помимо порядка букв в аббревиатурах) — это то, каким образом видятся подключаемые ресурсы на сервере. Если в NAS ресурсы подключаются протоколам NFS или SMB, в SAN мы получаем подключение к диску, с которым можем работать на уровне операций блочного ввода-вывода, что гораздо быстрее сетевого подключения (плюс контроллер массива с большим кэшем добавляет скорости на многих операциях).
Используя SAN, мы сочетаем преимущества DAS — скорость и простоту, и NAS — гибкость и управляемость. Плюс получаем возможность масштабирования систем хранения до тех пор, пока хватает денег, параллельно убивая одним выстрелом еще несколько зайцев, которых сразу не видно:
* снимаем ограничения на дальность подключения SCSI-устройств, которые обычно ограничены проводом в 12 метров,
* уменьшаем время резервного копирования,
* можем грузиться с SAN,
* в случае отказа от NAS разгружаем сеть,
* получаем большую скорость ввода-вывода за счет оптимизации на стороне системы хранения,
* получаем возможность подключать несколько серверов к одному ресурсу, то нам дает следующих двух зайцев:
o на полную используем возможности VMWare — например VMotion (миграцию виртуальной машины между физическими) и иже с ними,
o можем строить отказоустойчивые кластеры и организовывать территориально распределенные сети.
Что это дает?
Помимо освоения бюджета оптимизации системы хранения данных, мы получаем, вдобавок к тому что я написал выше:
* увеличение производительности, балансировку нагрузки и высокую доступность систем хранения за счет нескольких путей доступа к массивам;
* экономию на дисках за счет оптимизации расположения информации;
* ускоренное восстановление после сбоев — можно создать временные ресурсы, развернуть на них backup и подключить к ним сервера, а самим без спешки восстанавливать информацию, или перекинуть ресурсы на другие сервера и спокойно разбираться с умершим железом;
* уменьшение время резервного копирования — благодаря высокой скорости передачи можно бэкапиться на ленточную библиотеку быстрее, или вообще сделать snapshot (мгновенный снимок) с файловой системы и спокойно архивировать его;
* дисковое место по требованию — когда нам нужно — всегда можно добавить пару полок в систему хранения данных.
* уменьшаем стоимость хранения мегабайта информации — естественно, есть определенный порог, с которого эти системы рентабельны.
* надежное место для хранения mission critical и business critical данных (без которых организация не может существовать и нормально работать).
* отдельно хочу упомянуть VMWare — полностью все фишки вроде миграции виртуальных машин с сервера на сервер и прочих вкусностей доступны только на SAN.
Из чего это состоит?
Как я писал выше — СХД состоит из устройств хранения, среды передачи и подключенных серверов. Рассмотрим по порядку:
Системы хранения данных обычно состоят из жестких дисков и контроллеров, в уважающей себя системе как правило всего по 2 — по 2 контроллера, по 2 пути к каждому диску, по 2 интерфейса, по 2 блока питания, по 2 администратора. Из наиболее уважаемых производителей систем следует упомянуть HP, IBM, EMC и Hitachi. Тут процитирую одного представителя EMC на семинаре — «Компания HP делает отличные принтеры. Вот пусть она их и делает!» Подозреваю, что в HP тоже очень любят EMC. Конкуренция между производителями нешуточная, впрочем, как и везде. Последствия конкуренции — иногда вменяемые цены за мегабайт системы хранения и проблемы с совместимостью и поддержкой стандартов конкурентов, особенно у старого оборудования.
Среда передачи данных. Обычно SAN строят на оптике, это дает на текущий момент скорость в 4, местами в 8 гигабит на канал. При построении раньше использовались специализированные хабы, сейчас больше свитчи, в основном от Qlogic, Brocade, McData и Cisco (последние два на площадках не видел ни разу). Кабели используются традиционные для оптических сетей — одномодовые и многомодовые, одномодовые более дальнобойные.
Внутри используется FCP — Fibre Channel Protocol, транспортный протокол. Как правило внутри него бегает классический SCSI, а FCP обеспечивает адресацию и доставку. Есть вариант с подключением по обычной сети и iSCSI, но он обычно использует (и сильно грузит) локальную, а не выделенную под передачу данных сеть, и требует адаптеров с поддержкой iSCSI, ну и скорость помедленнее, чем по оптике.
Есть еще умное слово топология, которое встречается во всех учебниках по SAN. Топологий несколько, простейший вариант — точка-точка (point to point), соединяем между собой 2 системы. Это не DAS, а сферический конь в вакууме простейший вариант SAN. Дальше идет управляемая петля (FC-AL), она работает по принципу «передай дальше» — передатчик каждого устройства соединен с приемником последующего, устройства замкнуты в кольцо. Длинные цепочки имеют свойство долго инициализироваться.
Ну и заключительный вариант — коммутируемая структура (Fabric), она создается с помощью свитчей. Структура подключений строится в зависимости от количества подключаемых портов, как и при построении локальной сети. Основной принцип построения — все пути и связи дублируются. Это значит, что до каждого устройства в сети есть минимум 2 разных пути. Здесь тоже употребимо слово топология, в смысле организации схемы подключений устройств и соединения свитчей. При этом как правило свитчи настраиваются так, что сервера не видят ничего, кроме предназначенных им ресурсов. Это достигается за счет создания виртуальных сетей и называется зонированием, ближайшая аналогия — VLAN. Каждому устройству в сети присваивается аналог MAC-адреса в сети Ethernet, он называется WWN — World Wide Name. Он присваивается каждому интерфейсу и каждому ресурсу (LUN) систем хранения данных. Массивы и свитчи умеют разграничивать доступ по WWN для серверов.
А дальше на системах хранения нарезаются ресурсы, они же диски (LUN) для каждого сервера и оставляется место в запас, все включается, установщики системы прописывают топологию, ловят глюки в настройке свитчей и доступа, все запускается и все живут долго и счастливо*.
Я специально не касаюсь разных типов портов в оптической сети, кому надо — тот и так знает или прочитает, кому не надо — только голову забивать. Но как обычно, при неверно установленном типе порта ничего работать не будет.
Из опыта.
Обычно при создании SAN заказывают массивы с несколькими типами дисков: FC для скоростных приложений, и SATA или SAS для не очень быстрых. Таким образом получаются 2 дисковые группы с различной стоимостью мегабайта — дорогая и быстрая, и медленная и печальная дешевая. На быструю вешаются обычно все базы данных и прочие приложения с активным и быстрым вводом-выводом, на медленную — файловые ресурсы и все остальное.
Если SAN создается с нуля — имеет смысл строить ее на основе решений от одного производителя. Дело в том, что, несмотря на заявленное соответствие стандартам, существуют подводные грабли проблемы совместимости оборудования, и не факт, что часть оборудования будет работать друг с другом без плясок с бубном и консультаций с производителями. Обычно для утряски таких проблем проще позвать интегратора и дать ему денег, чем общаться с переводящими друг на друга стрелки производителями.
Если SAN создается на базе существующей инфраструктуры — все может быть сложно, особенно если есть старые SCSI массивы и зоопарк старой техники от разных производителей. В этом случае имеет смысл звать на помощь страшного зверя интегратора, который будет распутывать проблемы совместимости и наживать третью виллу на Канарах.
Часто при создании СХД фирмы не заказывают поддержку системы производителем. Обычно это оправдано, если у фирмы есть штат грамотных компетентных админов (которые уже 100 раз назвали меня чайником) и изрядный капитал, позволяющий закупить запасные комплектующие в потребных количествах. Однако компетентных админов обычно переманивают интеграторы (сам видел), а денег на закупку не выделяют, и после сбоев начинается цирк с криками «Всех уволю!» вместо звонка в саппорт и приезда инженера с запасной деталью.
Поддержка обычно сводится к замене умерших дисков и контроллеров, ну и к добавлению в систему полок с дисками и новых серверов. Много хлопот бывает после внезапной профилактики системы силами местных специалистов, особенно после полного останова и разборки-сборки системы (и такое бывает).
Про VMWare. Насколько я знаю (спецы по виртуализации поправьте меня), только у VMWare и Hyper-V есть функционал, позволяющий «на лету» перекидывать виртуальные машины между физическими серверами. И для его реализации требуется, чтобы все сервера, между которыми перемещается виртуальная машина, были подсоединены к одному диску.
Про кластеры. Аналогично случаю с VMWare, известные мне системы построения отказоустойчивых кластеров (Sun Cluster, Veritas Cluster Server) — требуют подключенного ко всем системам хранилища.
Пока писал статью — у меня спросили — в какие RAIDы обычно объединяют диски?
В моей практике обычно делали или по RAID 1+0 на каждую дисковую полку с FC дисками, оставляя 1 запасной диск (Hot Spare) и нарезали из этого куска LUN-ы под задачи, или делали RAID5 из медленных дисков, опять же оставляя 1 диск на замену. Но тут вопрос сложный, и обычно способ организации дисков в массиве выбирается под каждую ситуацию и обосновывается. Та же EMC например идет еще дальше, и у них есть дополнительная настройка массива под приложения, работающие с ним (например под OLTP, OLAP). С остальными вендорами я так глубоко не копал, но догадываюсь, что тонкая настройка есть у каждого.
* до первого серьезного сбоя, после него обычно покупается поддержка у производителя или поставщика системы.
Поскольку в песочнице комментариев нет, закину в личный блог.
Cеть хранения данных (SAN — Storage Area Network)
Сеть хранения данных (SAN) — это выделенная высокоскоростная сеть или подсеть, которая соединяет между собой и представляет общие пулы устройств хранения данных для нескольких серверов.
Доступность и высокая готовность систем хранения данных являются ключевыми показателями для корпоративных приложений. Традиционное развертывание систем хранения с прямым подключением к отдельным серверам может быть простым и недорогим вариантом для многих корпоративных приложений, но диски и важные данные, содержащиеся на них, привязаны к физическому серверу через выделенный интерфейс, такой как SAS. Современные корпоративные среды часто требуют гораздо более высокого уровня организации, гибкости и контроля. Эти потребности стимулировали развитие сети хранения данных (SAN).
Технология SAN удовлетворяет передовые потребности корпоративного хранилища, предоставляя отдельную, выделенную, хорошо масштабируемую высокопроизводительную сеть, предназначенную для соединения множества серверов с массивом устройств хранения. Хранилище можно организовать и управлять им как единым пулом ресурсов. SAN позволяет организации рассматривать хранилище как единый коллективный ресурс, который также можно централизованно реплицировать и защищать, в то время как дополнительные технологии, такие как дедупликация данных и RAID, могут оптимизировать емкость хранилища и значительно повысить отказоустойчивость хранилища — по сравнению с традиционным хранилищем с прямым подключением (DAS).
Для чего используются сети хранения данных
Проще говоря, SAN — это сеть накопителей, к которой обращается сеть серверов. Существует несколько популярных применений сетей SAN в корпоративных вычислениях. SAN обычно используется для консолидации хранилищ. Например, обычно компьютерная система, такая как сервер, включает в себя одно или несколько локальных устройств хранения данных. Но рассмотрим центр обработки данных с сотнями серверов, на каждом из которых запущены виртуальные машины, которые можно разворачивать и перемещать между серверами по желанию. Если данные для каждой рабочей нагрузки хранятся на том же локальном хранилище, то их также нужно будет перемещать, если рабочая нагрузка переносится на другой сервер или восстанавливается, если сервер выходит из строя. Вместо того чтобы пытаться организовать, отслеживать и использовать физические диски, расположенные на отдельных серверах, компания может переместить данные на выделенную подсистему хранения с возможностью коллективного доступа к хранилищу, управления и защиты.
SAN также может повысить доступность хранилища. Поскольку SAN, по сути, представляет собой сетевую структуру взаимосвязанных компьютеров и устройств хранения, нарушение одного сетевого пути обычно может быть компенсировано за счет включения альтернативного пути через структуру SAN. Таким образом, неисправность одного кабеля или устройства не делает хранилище недоступным для корпоративных рабочих нагрузок. Кроме того, возможность рассматривать хранилище как единый ресурс может улучшить использование хранилища, исключив «забытые» диски на недоиспользуемых серверах. Вместо этого, SAN предлагает центральное место для всех хранилищ и позволяет администраторам объединять устройства хранения в пулы и управлять ими совместно.
Все эти примеры использования могут улучшить соответствие нормативным требованиям организации, а также аварийное восстановление (DR) и обеспечение бесперебойного функционирования за счет улучшения способности ИТ-специалистами поддерживать корпоративные рабочие нагрузки. Но чтобы оценить ценность технологии SAN, важно понять, чем SAN отличается от традиционных DAS.
С помощью DAS один или несколько дисков напрямую подключаются к конкретному серверу через специальный интерфейс хранения, такой как SATA или SAS. Диски часто используются для хранения приложений и данных, предназначенных для работы на этом конкретном сервере. Хотя к устройствам DAS на одном сервере можно получить доступ с других серверов, связь осуществляется через общую IP-сеть — LAN — вместе с трафиком других приложений. Доступ к большим объемам данных и их перемещение через обычную IP-сеть может занимать много времени, а требования к полосе пропускания при перемещении больших объемов данных могут влиять на производительность приложений на сервере.
SAN работает совершенно по-другому. SAN объединяет все диски в выделенную сеть хранения данных. Эта выделенная сеть существует отдельно от общей LAN. Такой подход позволяет любому из серверов, подключенных к SAN, получить доступ к любому из дисков, подключенных к SAN, эффективно используя хранилище как единый общий ресурс. Никакие данные хранилища SAN не проходят через локальную сеть — это снижает потребность в пропускной способности локальной сети и сохраняет её производительность. Поскольку SAN — это отдельная выделенная сеть, ее можно спроектировать так, чтобы обеспечить высокую производительность и отказоустойчивость, что особенно важно для корпоративных приложений.
SAN может поддерживать огромное количество устройств хранения, а массивы хранения — специально разработанные подсистемы хранения — которые поддерживают SAN, могут масштабироваться для хранения сотен или даже тысяч дисков. Любой сервер с подходящим интерфейсом SAN может получить доступ к SAN и его огромному потенциалу хранения, а SAN может поддерживать множество серверов. В сетях SAN используются два основных типа сетевых технологий и интерфейсов: Fibre Channel и iSCSI.
Как работает SAN
SAN — это, по сути, сеть, которая предназначена для соединения серверов с СХД. Цель любой SAN — извлечь устройства хранения из отдельных серверов и разместить их в общем хранилище, ресурсами которого можно централизованно управлять и защищать. Такая централизация может быть выполнена физически, например, путем помещения дисков в выделенную подсистему хранения. Однако централизация также может выполняться логически с помощью программного обеспечения (например, VMware vSAN), которое использует виртуализацию для поиска и объединения доступных ресурсов хранения.
За счет подключения общего хранилища к серверам через отдельную сеть — помимо традиционной LAN — производительность хранилища может быть оптимизирована и ускорена, поскольку трафику системы хранения больше не нужно конкурировать за пропускную способность локальной сети, необходимую для серверов и их рабочих нагрузок. Таким образом, корпоративные рабочие нагрузки потенциально могут получить более быстрый доступ к огромным объемам хранения.
Обычно SAN воспринимается как совокупность трех групп или слоев: серверов — потребителей дисковых ресурсов, сетевой инфраструктуры — фабрик и дисковых массивов (систем хранения данных) — хранилищ.
SAN использует ряд протоколов, позволяющих программному обеспечению обмениваться данными или подготавливать данные для хранения. Технологии SAN часто поддерживают несколько протоколов, помогая обеспечить эффективное взаимодействие всех уровней, операционных систем и приложений.
Основу SAN составляет ее фабрика: масштабируемая, высокопроизводительная сеть, объединяющая хосты — серверы — и устройства хранения данных. Структура фабрики напрямую влияет на надежность и функциональность SAN. В самом простом варианте, FC SAN может просто подключить порты HBA на серверах непосредственно к соответствующим портам в массивах хранения данных.
Но такие простые схемы подключения отдаляют истинную мощь SAN. На практике ткань SAN предназначена для повышения надежности и доступности систем хранения данных за счет устранения отдельных точек отказа. Основная идея при создании SAN заключается в использовании как минимум двух соединений между любыми элементами SAN. Цель состоит в том, чтобы между хостами SAN и хранилищем SAN всегда был доступен хотя бы один рабочий сетевой путь.
Одной фабрики недостаточно для обеспечения надежность при хранении данных. На практике системы хранения должны включать набор внутренних технологий, в том числе RAID — группы дисков. В систему хранения обычно добавляются дополнительные технологии для эффективного использования хранилища, включая тонкое выделение ресурсов, моментальные снимки или клонирование хранилища, дедупликацию данных и сжатие данных.