Перейти к содержанию
Форум русской поддержки продукции Synology

Рекомендованные сообщения

Добрый день!

В хранилище установлено 2 диска по 6ТБ

Планировал создать RAID1 из 1.2 ТБ каждого диска, а остальное пространство использовать без резервирования как RAID0.

Создал Пул ресурсов хранения на 1.2 ТБ с RAID1. Хотел создать второй пул с RAID0, но кнопка "Создать" в "Диспетчер хранения/Пул ресурсов хранения" неактивна.

С чем это может быть связано? Как создать нужные Пулы ресурсов?

Ссылка на сообщение
Поделиться на другие сайты

Такое можно сделать, например, в интеловском псевдо-аппаратном райде, втроенном в большинство материнских плат, а вот в Сине так не получится :( , У Сины немного другая логика пространств хранения (пулов).

Ссылка на сообщение
Поделиться на другие сайты

 

8 часов назад, SDL2000 сказал:

Вы почитайте, что такое RAID1 )))

Так читал ). Может не понял, на что внимание обратить? RAID1 из одинаковых по объему частей двух дисков нужен для того, чтобы сделать отказоустойчивый "Пул ресурсов хранения", где буду хранить документы, которые не хотелось бы потерять. Но это ограниченный объем. Объединять все пространство двух дисков в RAID1 слишком расточительно. Планировал выделить под RAID1 по 1ГБ с каждого диска, а оставшееся место объединить в RAID0 (или Basic, или JBOD) чтобы хранить там фильмотеку. Избыточность тут не нужна, тут нужно побольше места. Если что-то делаю не так, подскажите, пожалуйста, как сделать?

Ссылка на сообщение
Поделиться на другие сайты
4 часа назад, QwertRob сказал:

Такое можно сделать, например, в интеловском псевдо-аппаратном райде, втроенном в большинство материнских плат, а вот в Сине так не получится :( , У Сины немного другая логика пространств хранения (пулов).

А какая тут логика? Где почитать? Если на всем хранилище можно выделить только один "Пул ресурсов хранения", то зачем предусмотрена возможность не весь объем дисков в пул объединить, а ограничить этот объем по своему усмотрению? Получается, я не могу создать второй пул ресурсов хранения? Оставшееся от первого пула место просто пропадает?

 

Ссылка на сообщение
Поделиться на другие сайты
2 часа назад, Navigator сказал:

Так читал ). Может не понял, на что внимание обратить? RAID1 из одинаковых по объему частей двух дисков нужен для того, чтобы сделать отказоустойчивый "Пул ресурсов хранения", где буду хранить документы, которые не хотелось бы потерять. Но это ограниченный объем. Объединять все пространство двух дисков в RAID1 слишком расточительно. Планировал выделить под RAID1 по 1ГБ с каждого диска, а оставшееся место объединить в RAID0 (или Basic, или JBOD) чтобы хранить там фильмотеку. Избыточность тут не нужна, тут нужно побольше места. Если что-то делаю не так, подскажите, пожалуйста, как сделать?

"RAID 1 (mirroring — «зеркалирование») — массив из двух (или более) дисков, являющихся полными копиями друг друга."

Т.е не разделов на дисках, а именно дисков, как устройств. Или одинакового объема, или если разного, то RAID будет размером как меньший диск. Остальное пространство игнорируется (на бОльшем диске).

Как-то так. Может я конечно и ошибаюсь, и существуют способы создания рейдов даже на одном винте из разных разделов. Но смысл теряется

Ссылка на сообщение
Поделиться на другие сайты
8 часов назад, SDL2000 сказал:

Может я конечно и ошибаюсь, и существуют способы создания рейдов даже на одном винте из разных разделов. Но смысл теряется

Не, про 2 винта я понимаю. Я выделил по 1 ГБ на ДВУХ винтах и из них сделал RAID1. Просто не два диска целиком. Хочется оставшееся место использовать целиком, а не зеркалить.

Ссылка на сообщение
Поделиться на другие сайты
9 часов назад, SDL2000 сказал:

существуют способы создания рейдов даже на одном винте из разных разделов. Но смысл теряется

Почему теряется? Повторю: такой сценарий поддерживается интеловским псевдоаппаратным райдом (RST), он полностью функционален и гибок: на паре одинаковых дисков достаточного размера можно создать 2 разных типа райда. Например, нулевой для системы (+скорость загрузки) и первый для данных (+надежность хранения). Просто логика Сины другая: она не поддерживает создание райдов из разделов диска, только из физических дисков. Одна из причин, на мой взгляд, это наличие фирменной технологии SHR (гибридного райда), когда массив создается как раз из разделов, но размеченных по определенному стандарту, выбранному самой Синой.

Ссылка на сообщение
Поделиться на другие сайты
1 час назад, Navigator сказал:

Хочется оставшееся место использовать целиком, а не зеркалить.

Тогда Вам именно SHR подойдет, он позволяет более гибко использовать пространство на дисках, вводя в массивы носители разных размеров. Из минусов: не все модели Сины его поддерживают, он намного сложнее в восстановлении и чуть медленнее в работе.

Ссылка на сообщение
Поделиться на другие сайты
14 часов назад, QwertRob сказал:

Тогда Вам именно SHR подойдет

Хм. Спасибо. Попробую. Модель "DS920+" - там поддержка SHR есть. Смущает вот это: "он намного сложнее в восстановлении"

В этом топике такой же вопрос, как у меня, поднимался еще в декабре 2020, но решения, как я понял, так и не нашлось:

Автор использовал такой вариант: 

"... удалось добиться лишь 2 дисков в Basic (1 и 2), каждый из которых разбил на 2 раздела (A и B ) и настроил резервное копирование с A1 на A2."

Может быть лучше так, чем SHR?

Ссылка на сообщение
Поделиться на другие сайты
В 06.04.2021 в 08:36, QwertRob сказал:

Почему теряется? Повторю: такой сценарий поддерживается интеловским псевдоаппаратным райдом (RST), он полностью функционален и гибок: на паре одинаковых дисков достаточного размера можно создать 2 разных типа райда. Например, нулевой для системы (+скорость загрузки) и первый для данных (+надежность хранения). Просто логика Сины другая: она не поддерживает создание райдов из разделов диска, только из физических дисков. Одна из причин, на мой взгляд, это наличие фирменной технологии SHR (гибридного райда), когда массив создается как раз из разделов, но размеченных по определенному стандарту, выбранному самой Синой.

Тут бы хорошо сразу указать модель испытуемого железа и версию софта от производителя (firmware ака DSM). И тогда ваш взгляд будет более конкретен и понятен задающему вопросы человеку: либо ваш взгляд для него имеет существенное значение, либо это просто мнение, которое можно заслушать.

Вот, например, нашёл я на развалах Империи устройство под названием DS207. И нашёл какой-то один диск, и вставил в найденное устройство. Установилась фирмварь штатным способом. Крайняя версия производственного софта для этой модели - это DSM 3.1

И смотрю я в это устройство, и сразу вижу как там организовывается система хранения:

~ # df -h
Filesystem            Size  Used Avail Use% Mounted on
rootfs                2.4G  485M  1.8G  22% /
/dev/root             2.4G  485M  1.8G  22% /
/tmp                   62M  336K   62M   1% /tmp
/dev/md2              455G  768M  454G   1% /volume1

Вдумчиво пялюсь в этот загадочный выхлоп и пытаюсь осознать ответ на вопрос: а вот если тут уже есть /dev/md2 , то куда делись предыдущие номера (ноль и один), физический диск-то один?

А вот никуда они не делись, так и есть:

~ # cat /dev/.mdadm/map
md0 0.90 6efd59dd:a82e85e6:e8f7cd2c:fc4aa1f2 /dev/md/0
md1 0.90 f53c2a33:28a78fa2:e8f7cd2c:fc4aa1f2 /dev/md/1
md2 1.2 8e4e15ed:d04823fa:c16cb51c:3dadeb53 /dev/md2

~ # mdadm -D /dev/md0
/dev/md0:
        Version : 0.90
  Creation Time : Fri Feb 17 07:22:43 1911
     Raid Level : raid1
     Array Size : 2490176 (2.37 GiB 2.55 GB)
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 2
  Total Devices : 1
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Thu Feb  3 18:11:31 2022
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           UUID : 6efd59dd:a82e85e6:e8f7cd2c:fc4aa1f2 (local to host DiskStation)
         Events : 0.16563

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       0        0        1      removed

~ # mdadm -D /dev/md1
/dev/md1:
        Version : 0.90
  Creation Time : Fri Feb 17 07:22:43 1911
     Raid Level : raid1
     Array Size : 2097088 (2048.28 MiB 2147.42 MB)
  Used Dev Size : 2097088 (2048.28 MiB 2147.42 MB)
   Raid Devices : 2
  Total Devices : 1
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Thu Feb  3 17:34:32 2022
          State : clean, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           UUID : f53c2a33:28a78fa2:e8f7cd2c:fc4aa1f2 (local to host DiskStation)
         Events : 0.5874

    Number   Major   Minor   RaidDevice State
       0       8        2        0      active sync   /dev/hda2
       1       0        0        1      removed

~ # mdadm -D /dev/md2
/dev/md2:
        Version : 1.2
  Creation Time : Sun Apr  4 11:12:08 2021
     Raid Level : raid1
     Array Size : 483664256 (461.26 GiB 495.27 GB)
  Used Dev Size : 483664256 (461.26 GiB 495.27 GB)
   Raid Devices : 1
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Thu Feb  3 18:11:31 2022
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : DiskStation:2  (local to host DiskStation)
           UUID : 8e4e15ed:d04823fa:c16cb51c:3dadeb53
         Events : 2

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/hda3

Что такое это mdadm и зачем оно нужно - это всем известно. Но если кому и неизвезстно точно, то примерно понятно, что это древнющая утилита для LSR (linux software raid). И она (утилита) в найденном мною лично изделии от synology под названием DS207 показывает, что разделы на одном физическом диске оформлены raid-ами. Что примечательно, первые два раздела на одном единственном физическом диске вот с такой интересностью:

Raid Devices : 2

Ответ на вопрос "почему это они на найденном устройстве вдруг c "degraded"?" мне не интересен. Ежу понятно, что это из-за того, что я пока ленюсь искать для устройства второй физический диск. Его пока нету в устройстве второго.

Автор вопроса спрашивает: а почему в устройстве synology неизвестной модели нет технологии RST для создания софтовых рэйдов? А я отвечаю: да потому на DS207 (это шутка) нет такой возможности вообще. проц. не от intel (это шутка) и уже используется другая технология построения массивов хранения, в том числе и из отдельных разделов на одном единственном физическом носителе (диске).

Мораль из басни такова (с). RST - это технология intel, и она для наблюдателя со стороны, для пользователя не погружающегося в тонкости и детали реализации, в общем итоге не отличается от используемой в DSL207 технологии LSR. Тоже делаются разделы на физическом носителе, и тоже делаются из них raid-ы. Так что остаётся лишь более детально разобраться в возможностях той или иной реализации, и перед покупкой какого-нибудь дорогостоящего устройства понять: а осилишь ли ты рулить всеми этими выдумками предков или всецело положишься на функционал производителя и будешь довольствоваться тем, что продают?

 

Ссылка на сообщение
Поделиться на другие сайты
6 часов назад, MLS сказал:

а осилишь ли ты рулить всеми этими выдумками предков

Главная трабла не в этом :(. Сложнее угадать, когда то, что ты осилил сделать ручками, грохнется после очередного апдейта, прихватив твои данные... Поэтому только через гуй и по стандарту.

Ссылка на сообщение
Поделиться на другие сайты
10 часов назад, MLS сказал:

Автор вопроса спрашивает: а почему в устройстве synology неизвестной модели нет технологии RST для создания софтовых рэйдов?

Модель я чуть выше написал - DS920+. Если это поможет с решением моей задачи.

Такое разбиение, как я описал, я лет 7 назад стандартными средствами делал на простенький модели другого производителя. Честно говоря, даже не пришло в голову, что это какая-то нестандартная опция и через 7 лет нужно предварительно исследовать эту купленную не самую дешёвую модель на наличие такого функционала.

Была надежда, что я не там ищу, но по комментариям похоже, что  нельзя такое разбиение сделать. 

Может это только мне нужно, но прям разочарование какое-то...

 

Ссылка на сообщение
Поделиться на другие сайты
В 06.04.2021 в 08:39, QwertRob сказал:

Тогда Вам именно SHR подойдет,

А не подскажете, лучше SHR или так:

"... 2 дисков в Basic (1 и 2), каждый из которых разбил на 2 раздела (A и B ) и настроил резервное копирование с A1 на A2."

Ссылка на сообщение
Поделиться на другие сайты

Невозможно ответить не зная Ваших конечных целей по использованию НАСа. "Лучше" - понятие относительное :). Попытайтесь более системно и связанно сформулировать задачу. Техзадания никогда не писали? :)

Ссылка на сообщение
Поделиться на другие сайты

Конечных целей, может быть, пока и не понять, но бабло потрачено и с этим надо что-то делать.

А вот лет эдак девять назад на этом форуме уже "выяснили", что нет кайфа в этой SHR при двух одинаковых дисках. Эта shr-щина интересна в случае железяк (дисков) разной ёмкости и в случае расширения общего объёма "бюджетным" способом. "Бюджетный способ" - это когда у вас нет бабла для замены всех дисков массива, но вы по-нищебродски прикупили себе один, но бо-ольшой (большего объёма, чем используются в каком-то массиве). Ссылку на то древнее обсуждение дать не могу, локальные проблемы :) Тема называется "SHR vs RAID1 на DS212j" и она в разделе "Объявления".

Ссылка на сообщение
Поделиться на другие сайты
4 часа назад, QwertRob сказал:

Попытайтесь более системно и связанно сформулировать задачу.

Давайте попробую. 

Для домашнего использования нужно небольшое (по сравнению с полным объёмом HDD, которых сейчас 2 по 6 Тб) отказоустойчивое место хранения документов (пусть будет 1Тб). И большое (10Тб) место хранения фильмов, где отказоустойчивость не нужна.

В наличии хранилище DS920+ с двумя дисками по 6Тб.

В дальнейшем планирую добавить ещё два диска, с помощью которых можно было бы повысить отказоустойчивость первой части хранилища и увеличить объем второй части.

Как решить такую задачу имеющимися средствами?

Если нужны дополнительные вводные - скажите, наверняка я не все важные моменты осветил.

Ссылка на сообщение
Поделиться на другие сайты
1 час назад, MLS сказал:

Конечных целей, может быть, пока и не понять, но бабло потрачено и с этим надо что-то делать.

Конечную цель описал в предыдущем сообщении. 

1 час назад, MLS сказал:

А вот лет эдак девять назад на этом форуме уже "выяснили", что нет кайфа в этой SHR при двух одинаковых дисках.

Тогда как посоветуете решить задачу, которую описал выше?

Ссылка на сообщение
Поделиться на другие сайты

Насколько мне известно, стандартными путями Вы не сможете на Сино решить свою задачу. Не знаю способа на одной паре дисков создать массивы разных уровней. Только докупить еще пару более мелких дисков и сделать из них массив с отказоустойчивостью для документов, а имеющиеся объеденить в jbod или первый райд для большего объема под маловажный контент.

Ссылка на сообщение
Поделиться на другие сайты

Просто опишу, как у меня сейчас организовано. Может кому-то поможет.

DS918+, в нем 2 диска по 3Тб - RAID1. Под важные данные

3Тб + 4Тб - типа файлопомойки. Торренты, и т.п.

1Тб через eSATA, но видимый в пуле ресурсов хранения (т.е. по сути DS918+ стала 5-ти дисковой. Как сделать - обсуждали тут). Используется под видеонаблюдение. Ну и т.к. там сделал файловую систему btrfs, то еще под виртуалки

На авито куплен не дорого (4 тыс. руб) DAS CFI на 5 дисков, подключен по USB3.0 Туда сейчас напихано три диска объемом 500-1000Gb. Там совсем шлак хранится не имеющий никакой ценности. Типа сериалов.

 

Так что придумать всегда что-нить можно

Ссылка на сообщение
Поделиться на другие сайты
2 часа назад, Navigator сказал:

Конечную цель описал в предыдущем сообщении. 

Тогда как посоветуете решить задачу, которую описал выше?

Да, да, я читал. Поэтому лишь предположил, что всегда есть вероятность просмотреть и не заметить что-нибудь.

Посоветовать могу :) Запросто! Да я уже посоветовал без навязывания идей. Вы почему-то заинтересовались SHR. Да, такое дело именно на вашей модели есть. И можно много читать рекламных буклетов от Synology о том как это хорошо и здорово, и легко работает. Но одно дело читать завлекалочки производителя, а другое дело отзыв не поленившегося озвучить процедуру с точки зрения пользователя, который, так сказать, не только почитал завлекалочки, но и сделал это, чего там рекламируют. :) В той теме, которую я выше названием указал, есть такой опыт: http://blog.azib.net/2013/12/how-i-upgraded-my-synology-nas-to.html?m=1

Как это я упустил вами указанную модель - сам не понимаю. 

Я не всегда с этим, найденным мною DS207. Да и разделять мне там особо нечего. В DSM 3.1 при установке я не заметил возможности не занимать томом всё свободное место. А вы печатаете, что на вашем железе и с имеющемся у вас софтом это допускается. А вот то самое место, которое остаётся, оно из гуя DSM, как я понял, не разруливается. Ну, это ладно - морда DSM софтинка обобщающая, на всякие модели. А чего пишется про остатки в терминале? Можно ли у вас на остатках напилить разделов или в каком виде вообще те остатки? Вот что любопытно. Мне же, на DS207 надо как-то сначала организовать "остатки", производитель мне такого счастья не оставил.

Ссылка на сообщение
Поделиться на другие сайты
8 часов назад, QwertRob сказал:

Насколько мне известно, стандартными путями Вы не сможете на Сино решить свою задачу.

Печально. 

Тут еще одна напасть. Хранилище не дает сделать том меньшего чем весь диск объема... Это с чем может быть связано? Никто не сталкивался?

Пул хранения, где создаю том, - "Basic". Пункт "Изменить выделенный" не активен.

image.png.8ff82cb297ecd2c2cd6c2438cfbbce39.png

Ссылка на сообщение
Поделиться на другие сайты

Это не напасть, а естественность, как пищеварение: вы чего-то отведали, и это чего-то попало вовнутрь организма. Методом отведывания ещё чего-нибудь вы в мгновение ока не избавитесь от того, что отведали ранее. Нужно время и внешний фактор, чтобы предыдущее отведывание "вышло" из организма.

На этом форуме много-много раз поминалось, что так называемый "пул ресурсов хранения" от synology выстраивает порядок создаваемых блочных устройств иначе, чем "дефолтная" (от synology) система томов. 

Чуть выше по этой теме я повторил широко известное, что блочные md0 и md1 отдаются под ОСь и своп, а md2 для пользовательского тома. Если же делать "пул ресурсов хранения", то фактически - это создание расширенного раздела. В случае одного диска, короче, это создание sda5.

Для тех, кто не знает про SHR и просто использует устройство от synology - создаются sda1 (ОСь), sda2 (своп), sda3 (data). И на них накручиваются рэйды.

Для продвинутых с SHR: sda1 (ОСь), sda2 (своп), sda3 (у меня нет цензурных слов для этого раздела, требуется помощь зала), и sda5 (расширенный для виртуальных томов).

Так вот когда вы из "продвинутых" желаете вернуться в сообщество тех "кто не в курсе", то в synology справедливо предполагают, что вы уже в курсе операции "инициализации" железа и что именно делается при этой операции. Грубо говоря, производитель рекомендует сначала избавиться естественным образом от ранее отведанного, а потом уже отведать ещё, но другого.

"Стандартный путь решения" вашей проблемы - это операция зеркалирования логических томов (LVM). Она не запрещалась производителем. Но где и кто это делал - это я не искал. А самому чтоб проверить - это мне надо найти второй диск. Ищу :)

Ссылка на сообщение
Поделиться на другие сайты

Navigator, а какой пул вы создали? Хотя этот вопрос для вас сейчас сложен. Вы для себя не уяснили, что такое RAID, к чему применяется он, к чему понимается понятие раздел. Когда поймёте, вопросы отпадут. Вам уже выше объясняли, что RAID создаётся на уровне дисков. После этого вы получаете некое дисковое пространство с заданными характеристиками отказоустойчивости. Да, некую отказоустойчивость можно создать средствами ОС. Но это не лучший вариант. В вашем случае, почему нельзя задать размер и этот пункт у вас неактивен? В выбранном вами методе создания пула изменить размер невозможно. Косвенно его можно уменьшить, создав предварительно на имеющемся пуле, например, iSCSI LUN. Но он не будет виден через сеть стандартными протоколами (Samba, FTP etc). Для этого в Windows в Администрировании есть оснастка "Инициатор iSCSI". Но iSCSI будет иметь ту же отказоустойчивость, что и пул хранения. Вот если у вас будет, допустим три диска, то два вы можете объединить в раид, а один оставить без избыточности.

Ссылка на сообщение
Поделиться на другие сайты

Ну, я тоже не знаю правильного ответа на вопрос "какой я пул создаю", если у меня нет вариантов на DS207. :) То есть тут, на имеющемся так: либо "быстро", либо "пул". А какой он там... Разве это так важно? :) - производитель "всё сделает за нас".

Пока я нахожусь в состоянии розыска двух подходящих дисков (не обязательно одинаковых, просто двух, и свободных) при имеющемся одном свободном и присунутом в DS207, могу быстренько из ложить своё видение решения вопроса автора. Чтоб не было разочарований в продукции от Synology, и чтоб не было даже мысли, что обильно потраченное бабло на закупку офигительно больших дисков стало напрасной тратой денег.

Но, если честно, то я немножко недопонимаю зачем такие огромные диски для более-менее важного контента? Ведь если случись неприятность, то порядок восстановления в более-менее скверном случае требует размеров хранения троекратно превышающем проблемный вариант. Ведь надо будет сразу снять образ. А работа с образом потребует ещё одно такое же пространство и в результате... Если работаем над 6 TB, то надо как минимум 18 TB взять под это дело где-то. А где?

Исходное: DS207, DSM 3.1, hdd ~ 120 GB (одно)

Хотелка: сделать на диске RAID из двух разделов на манер выше обозначенной хотелки RST от intel. Ну, то есть чтобы у меня на диске был не просто RAID с одним разделом для инфы, как по умолчанию делает производитель, а чтобы было два раздела и они бы образовывали RAID.

Штатно, в гуе DSM делается этот самый "пул". И оценивается состояние:

~ # fdisk -l

Disk /dev/sda: 120.0 GB, 120034123776 bytes
255 heads, 63 sectors/track, 14593 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sda1               1         311     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sda2             311         572     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary
/dev/sda3             588       14593   112495152   f Win95 Ext'd (LBA)
/dev/sda5             589       14593   112487104  fd Linux raid autodetect

~ # df -h
Filesystem                Size      Used Available Use% Mounted on
/dev/md0                  2.3G    480.2M      1.8G  21% /
/tmp                     61.7M    328.0K     61.4M   1% /tmp
/dev/vg1/volume_1        26.6G    219.1M     26.3G   1% /volume1
/dev/vg1/volume_2        39.4G    176.0M     39.1G   0% /volume2
/dev/vg1/volume_3        39.4G    176.0M     39.1G   0% /volume3

~ # mdadm --detail /dev/md2
/dev/md2:
        Version : 1.2
  Creation Time : Thu Apr  8 21:25:39 2021
     Raid Level : raid1
     Array Size : 112485952 (107.27 GiB 115.19 GB)
  Used Dev Size : 112485952 (107.27 GiB 115.19 GB)
   Raid Devices : 1
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Thu Apr  8 22:00:42 2021
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : DS207:2  (local to host DS207)
           UUID : 2d0c5717:c5db8dec:f16f1e25:e0ba9a77
         Events : 2

    Number   Major   Minor   RaidDevice State
       0       8        5        0      active sync   /dev/sda5


~ # mdadm --examine /dev/sda5
/dev/sda5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 2d0c5717:c5db8dec:f16f1e25:e0ba9a77
           Name : DS207:2  (local to host DS207)
  Creation Time : Thu Apr  8 21:25:39 2021
     Raid Level : raid1
   Raid Devices : 1

 Avail Dev Size : 224972160 (107.28 GiB 115.19 GB)
     Array Size : 224971904 (107.27 GiB 115.19 GB)
  Used Dev Size : 224971904 (107.27 GiB 115.19 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 2bf851f3:4cd224ae:5c87724d:d04419b3

    Update Time : Thu Apr  8 22:00:42 2021
       Checksum : f7dfaacd - correct
         Events : 2


   Device Role : Active device 0
   Array State : A ('A' == active, '.' == missing)

Понятное дело, что для общности я нагородил аж три "раздела" в терминологии synology, а по сути - три логических тома. И залегло всё это счастье при штатной процедуре на sda5.

Теперь я наглым образом c помощью того же fdisk удалю эти невнятные sda3 и расширенный раздел раздел с sda5 (команда d в fdisk для ненужных мне разделов), и перезагружу DS207 штатным способом из гуя DSM. Ну, это по приколу, конечно, можно и reboot-ом обойтись.

Разумеется, терминальный вход (SSH) разрешен.

После перезагрузки устройства, безусловно, если посмотреть в "Диспетчер хранения" DSM, то там голяк и предлагается что-нибудь создать. С помощью "Диспетчера хранения" я создавать ничего не буду. "Диспетчер хранения" сделан для людей удобным и "мудрым", он чтит наставления Козьмы Пруткова в части "нельзя объять необъятное", а моя хотелка из разряда "нафиг оно кому надо", но как оказывается всё же надо, хотя и не часто.

Сделаю пару разделов примерно по 50 GB на диске, чтоб потом их в RAID:

~ # fdisk /dev/sda

The number of cylinders for this disk is set to 14593.
There is nothing wrong with that, but this is larger than 1024,
and could in certain setups cause problems with:
1) software that runs at boot time (e.g., old versions of LILO)
2) booting and partitioning software from other OSs
   (e.g., DOS FDISK, OS/2 FDISK)

Command (m for help): p

Disk /dev/sda: 120.0 GB, 120034123776 bytes
255 heads, 63 sectors/track, 14593 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sda1               1         311     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sda2             311         572     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary


Command (m for help): n
Command action
   e   extended
   p   primary partition (1-4)
p
Partition number (1-4): 3
First cylinder (572-14593, default 572): 588
Last cylinder or +size or +sizeM or +sizeK (588-14593, default 14593): 6588

Command (m for help): p

Disk /dev/sda: 120.0 GB, 120034123776 bytes
255 heads, 63 sectors/track, 14593 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sda1               1         311     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sda2             311         572     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary
/dev/sda3             588        6588    48203032+ 83 Linux

Command (m for help): n
Command action
   e   extended
   p   primary partition (1-4)
p
Selected partition 4
First cylinder (572-14593, default 572): 6589
Last cylinder or +size or +sizeM or +sizeK (6589-14593, default 14593): 12589

Command (m for help): w
The partition table has been altered!

В DSM 3.1, впрочем, и parted есть. Можно было и им воспользоваться. Короче, сделал:

~ # parted
GNU Parted 2.3
Using /dev/hda
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print                                                            
print
Model: ATA SAMSUNG HM120JI (scsi)
Disk /dev/hda: 120GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number  Start   End     Size    Type     File system     Flags
 1      131kB   2550MB  2550MB  primary  ext3            raid
 2      2550MB  4698MB  2147MB  primary  linux-swap(v1)  raid
 3      4828MB  54.2GB  49.4GB  primary
 4      54.2GB  104GB   49.4GB  primary

(parted) q

Теперь оформлю эти свеженькие sda3 и sda4 в массив:

~ # mdadm --create --verbose /dev/md2 --level=1  --raid-devices=2 /dev/sda3 /dev/sda4
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: size set to 48201920K
Continue creating array? yes
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md2 started.

И иду выгуливать собаку, потому что на имеющемся у меня DSM207 процедура создания рэйда не быстрая

~ # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md2 : active raid1 sda4[1] sda3[0]
      48201920 blocks super 1.2 [2/2] [UU]
      [>....................]  resync =  2.5% (1232768/48201920) finish=55.8min speed=14023K/sec
      
md1 : active raid1 sda2[0]
      2097088 blocks [2/1] [U_]
      
md0 : active raid1 sda1[0]
      2490176 blocks [2/1] [U_]
      
unused devices: <none>

Через часок (55.8 min - это приблизительное время):

~ # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md2 : active raid1 sda4[1] sda3[0]
      48201920 blocks super 1.2 [2/2] [UU]
      [===================>.]  resync = 99.9% (48175552/48201920) finish=0.0min speed=12176K/sec
      
md1 : active raid1 sda2[0]
      2097088 blocks [2/1] [U_]
      
md0 : active raid1 sda1[0]
      2490176 blocks [2/1] [U_]
      
unused devices: <none>

~ # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] 
md2 : active raid1 sda4[1] sda3[0]
      48201920 blocks super 1.2 [2/2] [UU]
      
md1 : active raid1 sda2[0]
      2097088 blocks [2/1] [U_]
      
md0 : active raid1 sda1[0]
      2490176 blocks [2/1] [U_]
      
unused devices: <none>

Сделался вожделенный рэйд из двух разделов на одном единственном диске. Поблогодарил богов (и старых, и новых) и отформатировал этот рэйд:

~ # mkfs.ext3 /dev/md2
mke2fs 1.41.12 (17-May-2010)
Filesystem label=1.41.12-1639
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
3014656 inodes, 12050480 blocks
25600 blocks (0.21%) reserved for the super user
First data block=0
Maximum filesystem blocks=0
368 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
	4096000, 7962624, 11239424

Writing inode tables: done                            
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done    

This filesystem will be automatically checked every 30 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.

Заценил труды:

~ # mdadm --detail --scan --verbose
mdadm: cannot open /dev/md/0: No such file or directory
mdadm: cannot open /dev/md/1: No such file or directory
ARRAY /dev/md2 level=raid1 num-devices=2 metadata=1.2 name=DS207:2 UUID=a2e71f96:42b627d0:2c8fcb8d:eeb87f30
   devices=/dev/hda3,/dev/hda4

~ # cat /dev/.mdadm/map
md0 0.90 c732110f:74693209:2d8c9ed8:9d6492a3 /dev/md/0
md1 0.90 aa5a552a:f53ec7f8:2d8c9ed8:9d6492a3 /dev/md/1
md2 1.2 a2e71f96:42b627d0:2c8fcb8d:eeb87f30 /dev/md2

Штатно перезагрузил DS207 (опять же через гуй DSM :) ) и проверил всё ли на месте, и разрешил ли я свою хотелку:

DS207> df -h
Filesystem                Size      Used Available Use% Mounted on
/dev/md0                  2.3G    480.4M      1.8G  21% /
/tmp                     61.7M    280.0K     61.5M   0% /tmp
/dev/md2                 45.2G    227.0M     44.9G   0% /volume1


~ # fdisk -l

Disk /dev/sda: 120.0 GB, 120034123776 bytes
255 heads, 63 sectors/track, 14593 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks  Id System
/dev/sda1               1         311     2490240  fd Linux raid autodetect
Partition 1 does not end on cylinder boundary
/dev/sda2             311         572     2097152  fd Linux raid autodetect
Partition 2 does not end on cylinder boundary
/dev/sda3             588        6588    48203032+ 83 Linux
/dev/sda4            6589       12589    48203032+ 83 Linux

~ # parted -l          
Model: ATA SAMSUNG HM120JI (scsi)
Disk /dev/hda: 120GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number  Start   End     Size    Type     File system     Flags
 1      131kB   2550MB  2550MB  primary  ext3            raid
 2      2550MB  4698MB  2147MB  primary  linux-swap(v1)  raid
 3      4828MB  54.2GB  49.4GB  primary
 4      54.2GB  104GB   49.4GB  primary

~ # mdadm --detail /dev/md2
/dev/md2:
        Version : 1.2
  Creation Time : Fri Apr  9 10:17:19 2021
     Raid Level : raid1
     Array Size : 48201920 (45.97 GiB 49.36 GB)
  Used Dev Size : 48201920 (45.97 GiB 49.36 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Fri Apr  9 11:34:23 2021
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : DS207:2  (local to host DS207)
           UUID : a2e71f96:42b627d0:2c8fcb8d:eeb87f30
         Events : 32

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/hda3
       1       8        4        1      active sync   /dev/hda4


~ # mdadm --examine /dev/sda4
/dev/sda4:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : a2e71f96:42b627d0:2c8fcb8d:eeb87f30
           Name : DS207:2  (local to host DS207)
  Creation Time : Fri Apr  9 10:17:19 2021
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 96404017 (45.97 GiB 49.36 GB)
     Array Size : 96403840 (45.97 GiB 49.36 GB)
  Used Dev Size : 96403840 (45.97 GiB 49.36 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : e4530917:77a95685:adea44cb:aba29569

    Update Time : Fri Apr  9 11:35:26 2021
       Checksum : 9bbc4fb8 - correct
         Events : 32


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing)

~ # mdadm --examine /dev/sda3
/dev/sda3:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : a2e71f96:42b627d0:2c8fcb8d:eeb87f30
           Name : DS207:2  (local to host DS207)
  Creation Time : Fri Apr  9 10:17:19 2021
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 96404017 (45.97 GiB 49.36 GB)
     Array Size : 96403840 (45.97 GiB 49.36 GB)
  Used Dev Size : 96403840 (45.97 GiB 49.36 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 173d1264:2c4781fb:06f3ef1b:410d3f0c

    Update Time : Fri Apr  9 11:35:26 2021
       Checksum : 5244498e - correct
         Events : 32


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing)

Всё на месте. Хотелка исполнилась. В "Диспетчере хранения" гуя DSM у меня теперь есть один раздел RAID1 с защитой данных при одном физическом диске.

К автору вопроса. Ваш вопрос дествительно не сразу был понятен. Но если вы хотите сделать собственное разбиение дисков на вашем устройстве, то производитель этого вам не запрещает. Делайте. Но я пока ограничился одним физическим диском, потому что второго свободного разыскать пока не получается. Но принципиально ничего и не изменится, лишь названия блочных устройств поменяются. Возможно, я вам показал, что ваш вопрос и не вопрос вовсе. Возможно, и нет. Но вы попробуйте на своём железе. Может и этих всех объяснений достаточно.

=====================

Чуть позднее, когда нашлось время для того, чтобы воспользоваться поиском по этому форуму, я всё же разыскал подходящее решение, опубликованное здесь десять лет назад. То есть тогда, когда я, значит, ещё и в школу не пошёл, ваш вопрос, автор, уже порешали. Так что, как-то оно вот так - вопрос по изобретению велосипеда именно вами желаемого колора был там:

Снимок экрана от 2021-04-09 12-44-39.png

001.jpg

Ссылка на сообщение
Поделиться на другие сайты

Присоединяйтесь к обсуждению

Вы можете опубликовать сообщение сейчас, а зарегистрироваться позже. Если у вас есть аккаунт, войдите в него для написания от своего имени.

Гость
Ответить в этой теме...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.

Загрузка...
×
×
  • Создать...