Forum Linux.debian/ubuntu Raid 5 avec mdadm, superblock corrompu

Posté par  . Licence CC By‑SA.
0
2
sept.
2023

Bonjour,

J'ai depuis un an monté un serveur nas maison sous ubuntu. Il est équipé de 3 disques de stockages, et le raid 5 est créé via mdadm.
Je suis coincé depuis un mois sur un soucis, et je suis venu à bout de toutes mes idées.

Je n'arrive plus à accéder au système de fichiers. Pourtant mdadm indique que les Superblocks sont persistents, mais quand j'analyse chaque disque, on m'indique que les superblocs sont défectueux et qu'il faut que (…)

Journal Baies SATA Thunderbolt 3 sur linux, c'est possible !

67
24
fév.
2022

Hello,

Octobre dernier, j'avais posté sur le forum une recherche de matériel pour une baie de disques durs SATA se connectant en Thunderbolt 3, afin de pouvoir déménager les disques de mon RAID mdadm dans un nouveau boîtier, en lieu et place de l'immonde vieille tour qui commence sérieusement à fatiguer et qui prend beaucoup de place. L'idée c'était d'exploiter le port Thunderbolt 3 de mon NUC, qui se trouvait alors sans emploi à ce moment. Je voulais également continuer (…)

Forum général.cherche-matériel Baies SATA Thunderbolt 3

Posté par  (site web personnel, Mastodon) . Licence CC By‑SA.
1
28
oct.
2021

Bonjour à tous,

J'ai un NUC avec port Thunderbolt 3 qui traîne dans un tiroir, je voudrais en faire un NAS. J'ai déjà une matrice RAID 5 sous mdadm sur une machine (qui sera réutilisée pour autre chose).

Je cherche donc un boitier externe SATA avec les contraintes suivantes :

  • Au moins 4 HDD SATA en 3,5 pouces
  • Connexion Thunderbolt 3
  • Compatible Linux
  • Pas de RAID matériel (je veux pouvoir gérer ma matrice RAID existante avec mdadm)

Je considère le (…)

Forum général.général Mon serveur ne voit pas les disques

Posté par  . Licence CC By‑SA.
Étiquettes :
2
22
sept.
2021

Bonjour à tou.te.s,

J'ai récupéré un serveur HP Proliant ML 350 G6 équipé d'un HP Smart Array P410i pour la gestion du RAID. Le problème c'est que lorsque j'essaie d'installer Debian 11 par exemple suivant la configuration du BIOS, soit il ne voit pas les disques durs , soit j'obtiens une erreur d'écriture et je dois interrompre l'installation.

Quelqu'un aurait une idée?

Journal Sauvegarde de données

Posté par  (site web personnel, Mastodon) . Licence CC By‑SA.
Étiquettes :
21
9
nov.
2020

'lut nal,

Vous me direz encore un journal sur la sauvegarde de données alors qu'il en existe tant d'autres. Mais il n'est jamais inutile de rappeler à tel point il est utile et nécessaire de ne pas négliger ce point et c'est souvent malheureusement suite à une mauvaise expérience qu'on s'en préoccupe sérieusement, et c'est malheureusement également ce qui m'est arrivé.

Pendant longtemps je me suis cru à l'abri de la perte de mes données perso, depuis des années j'utilise (…)

Forum Linux.debian/ubuntu Reshape mdadm très lent de RAID5 de 3 à 4 disques

Posté par  (site web personnel, Mastodon) . Licence CC By‑SA.
Étiquettes :
2
9
sept.
2020

Hello les moules,

Sur un serveur de récupération que j'utilise depuis quelques mois en homeserver/NAS avec grande satisfaction (HP Microserver N40L équipé d'un CPU AMD Turion et 4 Go de RAM), j'ai ajouté il y a quelques jours le "dernier" disque de la grappe que je souhaitais mettre en place : 4x 4 To en soft-RAID5 afin d'avoir 12 To à peu près sûrs afin d'y stocker des backups, principalement.

La machine tournait avec 3x 4 To en soft-RAID5 (…)

Gestion de volumes RAID avec LVM

Posté par  (site web personnel) . Édité par Davy Defaud et ZeroHeure. Modéré par ZeroHeure. Licence CC By‑SA.
Étiquettes :
58
24
mai
2019
Administration système

Vous connaissez déjà LVM, le gestionnaire de volumes logiques qui permet d’agréger et de subdiviser librement vos périphériques de stockage. Eh bien, depuis quelques années, LVM permet également de définir des volumes en RAID.

LVM et RAID, version traditionnelle

Pour utiliser LVM avec du RAID, on utilise d’habitude LVM et MD, qui est l’implémentation du RAID logiciel de Linux. Pour cela, on les empile :

  • soit en agrégeant ses périphériques de stockage en un volume RAID, qu’on utilise ensuite comme un volume LVM physique : il s’agit de LVM au‐dessus de RAID ;
  • soit, à l’inverse, ce qui est plus compliqué, en agrégeant en RAID des volumes LVM logiques soigneusement définis : il s’agit donc de RAID par dessus LVM.

Manque de souplesse

Outre le côté un peu artificiel de cet empilement, cette solution manque de souplesse pour au moins un cas d’usage. En effet, sur un ordinateur disposant de plusieurs périphériques de stockage, on peut vouloir redonder une partie du système de fichiers en RAID, tout en laissant une autre partie sans redondance pour minimiser son utilisation du stockage. Parmi les usages qui ne méritent pas forcément une telle redondance : des films qu’on a par ailleurs sur DVD, les nouvelles Usenet ou encore des caches de divers logiciels.

Bref, ce cas d’usage passe mal. Avec du LVM sur RAID, c’est tout simplement infaisable. On peut toujours partitionner ses périphériques de stockage pour en utiliser une partie en RAID et l’autre sans, mais on retrouve alors un partitionnement statique. Avec du RAID sur LVM, c’est faisable, mais c’est une solution compliquée à gérer.

Cela passe encore plus mal avec GRUB, qui peut ne pas apprécier cet empilement et ne pas réussir à lire le système de fichiers où il doit aller chercher le noyau à démarrer. On se retrouve alors à utiliser une partition statique dédiée à /boot.

Wiki [Tuto/HowTo] [Debian/Ubuntu] Créer un JBOD (raid0 non strip) avec mdadm

0
27
avr.
2019

Installez les pré-requis.

  1. Installation.
sudo apt-get install mdadm
  1. Redémarrez la machine.
sudo reboot

Préparer les disques

Créer un JBOD (raid0 non strip).

  1. Lancez la création du raid0.
sudo mdadm
(…)

Wiki [Tuto/HowTo] [Debian/Ubuntu] Créer un JBOD (raid0 non strip) avec ZFS

0
27
avr.
2019

Introduction

Nous allons ici créer une JBOD (concaténation de plusieurs disques) avec ZFS.

Mise en place

  1. Installez les pré-requis.
apt install zfsutils-linux zfs-initramfs
  1. Listez vos disques.
sudo fdisk -l | grep 'dev' | grep -v 'ram'
  1. Créez votre pool (grappe mémoire).
sudo zpool create -f monPoolPerso /dev/sdb /dev/sdc /dev/sdd
  • monPoolPerso le nom de votre Pool
  • /dev/sdb /dev/sdc /dev/sdd vos disques
  1. Vérifiez que votre pool a bien été créé.
sudo zfs list
  1. Indiquez le point de montage.
sudo zfs set
(…)

Wiki Glusterfs-server Que se passe-t-il en cas de split brain (conflit de fichiers)

0
27
fév.
2019

Glusterfs-server Que se passe-t-il en cas de split brain (conflit de fichiers)

Attention : cet article est un retour d'expérience.

Introduction

Un split brain est une expression indiquant des conflits sur un ou plusieurs fichiers. Ces conflits résultent de modifications sur un même fichier répartis sur plusieurs machines. Les split brain arrivent généralement lorsqu'on utilise deux machines (replica 2) ou que la grappe est réparties de façon homogène sur deux réseaux perturbés par une coupure. Avec glusterfs-server, à part en (…)

Forum Linux.debian/ubuntu Demande de conseil proxmox

Posté par  (site web personnel) . Licence CC By‑SA.
Étiquettes :
0
27
nov.
2018

Bonjour,
dans un cluster de proxmox que j'administre je vais devoir ajouter 3 serveurs physique.
Ces serveurs seront dédié à l'hébergement des vm du futur erp.

Ce sont des ciscos avec carte raid matériel.
Actuellement les serveurs actuel sont sauf pour un du lvm-thin sur carte raid matériel (pour des raisons historiques).

Sur mon cluster de sauvegarde j'avais mis du zfs sur des cartes raid en passthru et ça avait mal fini, donc j'avais du remettre du lvm.

Par contre (…)

Forum Linux.debian/ubuntu Agrandir un raid sans LVM

Posté par  . Licence CC By‑SA.
Étiquettes :
1
10
août
2018

Bonjour à toute et à tous,

Ma situation: un NAS avec un disque systeme et 3 disques de 4To en raid 5 software (md0), pas de LVM, le tout sous Debian stable. Le raid contient des données (environ 5 To).

Je souhaiterai pouvoir ajouter 2 disques de 4To au raid sans perdre de donner…

Mes questions:
- Puis je ajouter les disques un à un, sans LVM:
1er disque
mdadm --add puis mdadm --grow pour le 1er disque
puis (…)