Forum |  HardWare.fr | News | Articles | PC | S'identifier | S'inscrire | Shop Recherche
1060 connectés 

 


 Mot :   Pseudo :  
 
 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13
Auteur Sujet :

[Topic ZFS] ZFS on Linux et BSD - débats/questions

n°1383303
sligor
Posté le 10-11-2015 à 12:57:08  profilanswer
 

Reprise du message précédent :
d'ailleurs attention: on peut très facilement ajouter des vdev mais une fois ajoutés on ne peut plus les enlever


---------------
qwerty-fr
mood
Publicité
Posté le 10-11-2015 à 12:57:08  profilanswer
 

n°1383304
sligor
Posté le 10-11-2015 à 13:00:35  profilanswer
 

augur1 a écrit :

Dommage : mieux que rsync sur zfs tu as les snapshot zfs send / recieve ! :)  
-> http://docs.oracle.com/cd/E23823_0 [...] html#gbscu
 
Des scipt cron : http://wiki.complete.org/ZFSAutoSnapshots
 
 
En plus, depuis septmbre , une petite tuerie : Zrep
-> http://forums.nas4free.org/viewtopic.php?t=8606
 


oui mais ça nécessite que les machines source soient aussi en ZFS ;)
 
pour mes besoins j'ai trouvé aussi:
zfs-snap-manager: https://github.com/khenderick/zfs-snap-manager
sanoid: https://github.com/jimsalterjrs/sanoid/
 
les deux outils semblent très proches niveau fonctionnalités, je vais essayer zfs-snap-manager d'abord


Message édité par sligor le 10-11-2015 à 13:01:47

---------------
qwerty-fr
n°1383307
poulpit0
Posté le 10-11-2015 à 14:00:15  profilanswer
 

ouaip m'enfin mdadm en réduction c'est pareil donc c'est kif kif  :)  
faut juste pas l'oublier
d'ailleurs ca va me permettre de passer de 2 vdev raidz de 4*2To à 3vdev histoire de retrouver un peu de place à pas cher :) :bounce:

n°1383310
Delivereat​h
Posté le 10-11-2015 à 14:15:19  profilanswer
 

Attention aux nombres de vdev dans un même pool. Un seul vdev qui crashe et toutes les données du pool sont perdues.
 
Pour l'instant, je garde des pools avec 2 vdev (mirrored) dans chaque pool. J'ai des perfs suffisantes (200 Mo/s écriture, 400 Mo/s lecture) et c'est plus safe que 8 disques dans un seul pool.

n°1383312
sligor
Posté le 10-11-2015 à 14:18:00  profilanswer
 

avec du raidz2 on peut surement monter un peu plus en vdev sans trop de risque.
 
genre 4 ou 5 vdev en raidz2 ça doit être encore correct


---------------
qwerty-fr
n°1383313
Delivereat​h
Posté le 10-11-2015 à 14:22:26  profilanswer
 

Mais faut clairement avoir un gros besoin en perfs pour ce genre de pool. Et j'ai l'impression que la tendance c'est de faire du mirror plutôt que du raidz2 car avec les disques actuels les temps de resilver deviennent extrêmement longs.

n°1383315
sligor
Posté le 10-11-2015 à 14:36:46  profilanswer
 

le temps de resilver est identique en mirror et en raidz1/2/3 (s'il n'y a pas de limitation CPU, mais à moins de tourner sur un atom ça ne devrait pas être le cas...)
 
La grosse différence pour le resilver c'est qu'en config mirror, à nombre de disque identique, tu as plus de vdev, et donc le resilver d'un seul vdev  affecte moins les performances globales du pool. (et s'il est saturé en accès alors là oui le resilver ira plus vite)


Message édité par sligor le 10-11-2015 à 14:37:34

---------------
qwerty-fr
n°1383316
Plam
Bear Metal
Posté le 10-11-2015 à 15:23:42  profilanswer
 

Plam a écrit :

Question : je fais des essais compression VS compression+dedup sur deux volumes séparés.
 
Pour la compression, tout va bien : compress ration de 2.82x, ça correspond bien à l'espace utilisé quand je "zfs list".
 
Maintenant, sur le volume avec la dédup en plus, pour les même fichiers j'ai le **même** total.
 
Pourtant un "zpool list" me donne un DEDUP de 2.40x
 
Donc la fameuse dédup me permet de gagner de l'espace mais c'est pas visible ?


 
up :p


---------------
Spécialiste du bear metal
n°1383317
sligor
Posté le 10-11-2015 à 16:16:31  profilanswer
 

je dis peut-être une connerie mais il me semble dedup fait grossir virtuellement le pool.
Dans il ne faut pas regarder l'espace utilisé mais l'espace total ou disponible


---------------
qwerty-fr
n°1383319
Plam
Bear Metal
Posté le 10-11-2015 à 16:31:13  profilanswer
 

Je regarderai de ce côté là merci :jap:


---------------
Spécialiste du bear metal
mood
Publicité
Posté le 10-11-2015 à 16:31:13  profilanswer
 

n°1383320
poulpit0
Posté le 10-11-2015 à 17:11:12  profilanswer
 

Delivereath a écrit :

Attention aux nombres de vdev dans un même pool. Un seul vdev qui crashe et toutes les données du pool sont perdues.
Pour l'instant, je garde des pools avec 2 vdev (mirrored) dans chaque pool. J'ai des perfs suffisantes (200 Mo/s écriture, 400 Mo/s lecture) et c'est plus safe que 8 disques dans un seul pool.


 
ça ne craint pas plus qu’autre chose  
après c'est un choix  de toute façon  un raid  qu'il soit soft/hard de n'importe quel moyen    c'est pas un backup (dur de convaincre des clients qui le font en prod ... jusqu'au jour ou pouf)  
  c'est juste un moyen de pallier à certaines pannes à chaud  
 
donc après tout dépend des besoins et de la criticité des données dessus  
pour ma part    ça me permet  d'étendre vdev par vdev au fur et a mesure de mes besoin (4*2To raidz  donc 5.x To exploitables  ca laisse le temps de voir venir à bas cout vu le prix des 2To maintenant)  
- c'est cablé en sas externe sur norco 4020  donc je peux chainer des tiroirs disques supplémentaires) -
tout en ayant  une redondance de 3 sur 12  (ok 1 par vdev  m'enfin en ayant des disques non homogènes le risque de panne simultanées est moindre sur 4 disques)  
et puis si ça doit lâcher ... bah j'ai un backup des trucs les plus importants
 
si on suis la logique,  se focaliser sur la tolérance aux pannes n'est pas le bon optique  puisque cela veut dire que souvent on accorde plus d'importance à son raid  qu'a ses backups   :whistle:  
mais je digresse un pneu  :D  
 
 
 

n°1383328
LimDul
Comment ça j'ai tort ?
Posté le 10-11-2015 à 23:44:05  profilanswer
 

Et comment dans un zpool sont réparties les données entre plusieurs vdev ?


---------------
Liberkey, colection d'utilitaires sur clef USB / Silverstone DS380 - Mini tour ITX 8 baies Hot-swap 3.5"
n°1383566
sligor
Posté le 19-11-2015 à 13:27:06  profilanswer
 

Citation :

If a device was recently added to the pool, it'll be relatively empty.  To address such imbalances, we bias the allocation slightly in favor of underutilized devices.  This keeps space usage uniform across all devices.

( https://blogs.oracle.com/bonwick/en [...] allocation )
 
en gros ZFS étale les écritures entre les vdev mais si un vdev est moins remplis que les autres il y aura plus d'écritures vers celui-ci

Message cité 1 fois
Message édité par sligor le 19-11-2015 à 13:27:16

---------------
qwerty-fr
n°1383567
Plam
Bear Metal
Posté le 19-11-2015 à 13:30:01  profilanswer
 

C'est quand même bien fait :D


---------------
Spécialiste du bear metal
n°1383568
sligor
Posté le 19-11-2015 à 13:32:15  profilanswer
 

du travail est en cours pour gérer "intelligemment" des vdev de vitesse différentes


---------------
qwerty-fr
n°1383608
sligor
Posté le 20-11-2015 à 11:36:14  profilanswer
 

sligor a écrit :

Config provisoire pour un serveur de Backup, donc pas besoin d'I/O de dingue, quasiment jamais de lectures hors metatada ( ZFS on Linux si les tests ne montrent pas de soucis)
 
http://reho.st/self/dee57f0dd4a900 [...] b936c6.png
 
vous en pensez quoi ? je ne fais pas de connerie ?


 
ça tourne super bien pour le moment avec ZoL 0.6.5 sur Debian 8  :jap:  
 
je me demande combien aurait coûté chez Dell un système identique capable d’accueillir jusqu'à 36 disques  :??:


---------------
qwerty-fr
n°1383609
Delivereat​h
Posté le 20-11-2015 à 12:05:17  profilanswer
 

sligor a écrit :

Citation :

If a device was recently added to the pool, it'll be relatively empty.  To address such imbalances, we bias the allocation slightly in favor of underutilized devices.  This keeps space usage uniform across all devices.

( https://blogs.oracle.com/bonwick/en [...] allocation )
 
en gros ZFS étale les écritures entre les vdev mais si un vdev est moins remplis que les autres il y aura plus d'écritures vers celui-ci


J'ai un retour sur ce genre de cas : Un pool avec 2 vdev mirror (2x 4 TB + 2x 1 TB). Les deux vdev créés en même temps et donc avec zéro données au départ.
 
Le pool contient maintenant 2.54 TB de données -> Le vdev 2x 1 TB est plein (il reste 9 GB de libre) et n'est pas utilisé pour les nouvelles écritures donc baisse de performances. Je pensais que la répartition serait mieux faite que ça.

n°1383610
sligor
Posté le 20-11-2015 à 13:55:55  profilanswer
 

ce qui n'est pas incompatible avec le "slightly" énoncé par le du mec de sun d'oracle  :whistle:
 
sinon c'est clair que ZFS a actuellement de nombreux points faible avec les cas d'utilisation non orthogonaux: tailles de vdev différents, augmentation de la taille des vdev, suppression des vdev, cp --reflink, équilibrage entre les vdev (balance avec btrfs), fragmentation.
 
Btrfs est sensé résoudre tous ces points, les développeurs  de SUN ont préféré implémenter un truc plus simple qui n'a pas autant de fonctionnalités mais qui marche au moins (troll grossier :o)


Message édité par sligor le 20-11-2015 à 14:01:19

---------------
qwerty-fr
n°1383611
Mysterieus​eX
Chieuse
Posté le 20-11-2015 à 14:06:39  profilanswer
 

sligor a écrit :


 
ça tourne super bien pour le moment avec ZoL 0.6.5 sur Debian 8  :jap:  
 
je me demande combien aurait coûté chez Dell un système identique capable d’accueillir jusqu'à 36 disques  :??:


 
7 a 8K.
Et pour la  mauvaise répartition sur les vdev, c'est pour ça que dépassé une certaine volumétrie, on met une couche de type lustre.

n°1383612
Delivereat​h
Posté le 20-11-2015 à 14:07:46  profilanswer
 

MysterieuseX a écrit :


 
7 a 8K.
Et pour la  mauvaise répartition sur les vdev, c'est pour ça que dépassé une certaine volumétrie, on met une couche de type lustre.


 
Qu'est-ce que cela ??

n°1383613
sligor
Posté le 20-11-2015 à 14:09:23  profilanswer
 

un système de fichier distribué


---------------
qwerty-fr
n°1383614
sligor
Posté le 20-11-2015 à 14:11:33  profilanswer
 


avec tout ? c'est à dire avec le serveur xeon avec 32GB de RAM et aussi les 10 disques de 4TB ? ou juste le boitier sas ou iscsi vide (mais redondé) capable d’accueillir 36 disques ?


Message édité par sligor le 20-11-2015 à 14:13:42

---------------
qwerty-fr
n°1383615
augur1
dev DivX FFmbc VLC XBMC h264..
Posté le 20-11-2015 à 14:14:29  profilanswer
 

8x vDev striped mirrored (16 disques de 2 To)
-> les données écrites sont réparties sur les 16 disques
 
... vous ajouter 4x vDev striped mirrored (8 disques de 2 To)
-> les anciennes données précédemment écrites restent sur les 16 premiers disques
-> les nouvelles données seront écrites sur les 24 disques
 
Panacher en striped mirrored des vDev de capacités différentes ne semblent pas faire bon ménage.


---------------
[VDS] HDD SAS 15k, GPU, 4u 24x Hot Swap
n°1383616
Delivereat​h
Posté le 20-11-2015 à 14:50:15  profilanswer
 

Pas de fonction "balance" sur ZFS ?

n°1383622
sligor
Posté le 20-11-2015 à 15:21:43  profilanswer
 

non


---------------
qwerty-fr
n°1384186
gizmo15
Posté le 06-12-2015 à 01:14:35  profilanswer
 

Bonsoir,
 
Tite question: une technique recommandée pour remplacer un disque en train de mourir dans un raidz2 ?
 
sur mes 6 j'en ai qui meurt (ré-allocation en masse de secteurs ^^) mais j'ai pas la place pour connecter le nouveau.
 

Code :
  1. 5 Reallocated_Sector_Ct   0x0033   138   138   140    Pre-fail  Always   FAILING_NOW 1178
  2. 9 Power_On_Hours          0x0032   051   051   000    Old_age   Always       -       36037


 
honorable pour un green je trouve ^^
 
Du coup, je me disais:
- zpool offline tank /dev/sdc
- zpool detach tank /dev/sdc
- poweroff du serveur, je vire le disque et met le nouveau
- zpool add tank /dev/sdc
- zpool online tank /dev/sdc
 
normalement ca devrait faire le resilvering non?
 
Merci

n°1384191
sligor
Posté le 06-12-2015 à 10:06:29  profilanswer
 

surtout pas de add !!!!
 
le add va créer un vdev raid-0 en plus du vdev actuel dans ton tank ! et le pire c'est que après tu ne pourras plus l'enlever !
 


---------------
qwerty-fr
n°1384192
sligor
Posté le 06-12-2015 à 10:07:35  profilanswer
 

https://pthree.org/2012/12/11/zfs-a [...] -resilver/
 
il faut faire un zpool replace tank <ancien> <nouveau>
 
donc ici zpool replace tank sdc sdc


---------------
qwerty-fr
n°1384193
gizmo15
Posté le 06-12-2015 à 10:19:11  profilanswer
 

le replace tu le fais quand tu as le nouveau de connecté en simultané or je ne peux pas faire ca  ^^
 
je note pour le add merci

n°1384195
sligor
Posté le 06-12-2015 à 10:27:06  profilanswer
 

gizmo15 a écrit :

le replace tu le fais quand tu as le nouveau de connecté en simultané or je ne peux pas faire ca  ^^
 
je note pour le add merci


pas du tout ! cf le lien que j'ai donné où il remplace sde par sde (donc pas simulatané!)


Message édité par sligor le 06-12-2015 à 10:32:38

---------------
qwerty-fr
n°1384196
gizmo15
Posté le 06-12-2015 à 10:30:54  profilanswer
 

effectivement je n'avais pas lu ca, merci :)

n°1384197
sligor
Posté le 06-12-2015 à 10:32:43  profilanswer
 

l'idéal est de faire ça:

zpool offline <poolname> <diskname>


(extinction, échange des disques, reboot)
 

zpool replace <poolname> <olddiskname> <newdiskname>


 

Citation :


The nice thing about using "zpool offline" is that if something goes wrong with the new disk, you can re-add the old one, "zpool online" it, "zpool remove" the failed new drive, and the pool will be back in the state it was in before you started. That process has actually saved my bacon 3 times now. Before, I would just physically replace the drive, then do the "zpool replace" and when things went sideways ... I'd just cry while rebuilding the pool from scratch.  :


Message édité par sligor le 06-12-2015 à 10:33:32

---------------
qwerty-fr
n°1384199
gizmo15
Posté le 06-12-2015 à 11:01:04  profilanswer
 

thanks, it's work :)

 
Code :
  1. pool: tank
  2. state: DEGRADED
  3. status: One or more devices is currently being resilvered.  The pool will
  4.         continue to function, possibly in a degraded state.
  5. action: Wait for the resilver to complete.
  6.   scan: resilver in progress since Sun Dec  6 11:14:25 2015
  7.         50,4G scanned out of 7,85T at 275M/s, 8h16m to go
  8.         8,39G resilvered, 0,63% done
  9. config:
  10.         NAME             STATE     READ WRITE CKSUM
  11.         tank             DEGRADED     0     0     0
  12.           raidz2-0       DEGRADED     0     0     0
  13.             sda          ONLINE       0     0     0
  14.             sdd          ONLINE       0     0     0
  15.             replacing-2  OFFLINE      0     0     0
  16.               old        OFFLINE      0     0     0
  17.               sdc        ONLINE       0     0     0  (resilvering)
  18.             sdb          ONLINE       0     0     0
  19.             sde          ONLINE       0     0     0
  20.             sdf          ONLINE       0     0     0
  21. errors: No known data error


Message édité par gizmo15 le 06-12-2015 à 11:04:22
n°1384200
sligor
Posté le 06-12-2015 à 11:06:25  profilanswer
 

[:bien]


---------------
qwerty-fr
n°1384201
gizmo15
Posté le 06-12-2015 à 11:07:56  profilanswer
 

merci bien pour le coup de main :jap:

n°1385508
sligor
Posté le 11-01-2016 à 11:18:31  profilanswer
 

QNAP annonce un NAS basé sur ZFS et freebsd:
http://www.anandtech.com/show/9929 [...] s-and-more
 
Ils supportent la réplication synchrone avec apparemment (en utilisant HAST ? )


Message édité par sligor le 11-01-2016 à 11:21:48

---------------
qwerty-fr
n°1385509
gizmo15
Posté le 11-01-2016 à 11:31:20  profilanswer
 

petite chose découverte: le fichier arcstat.py qui permet d'avoir la taille max du cache arc et son utilisation.
 
Dispo avec ZoL

n°1385903
sligor
Posté le 20-01-2016 à 15:45:06  profilanswer
 

Sur ZFS on linux je n'ai pas de remontée par mail de l'état DEGRADED par zed (le daemon zfs) :??:
 
zed par contre me remonte les erreurs I/O
dans le "zpool events" j'ai bien les changements d'état
 
c'est normal ? j'ai un bug ?
 
edit: j'ai bien le "state change" event d'envoyé par zed vers syslog mais pas de mail envoyé par zed
 
ça vient peut-être du ZED_EMAIL_INTERVAL_SECS="3600" mais il me semblait que c'était que pour les même types d'events
 
hors un "statechange" est différent d'un "io error" donc ça ne devrait pas jouer :??:


Message édité par sligor le 20-01-2016 à 15:59:20

---------------
qwerty-fr
n°1386853
asmomo
Posté le 13-02-2016 à 04:12:33  profilanswer
 

Par rapport à votre discussion sur la répartition non optimale des données, perso je n'ai pas besoin de grosses perfs donc ça ne me gêne pas, mais sinon il est possible de rééquilibrer en jouant avec les filesystem. Créer un nouveau fs et copier toutes les données dessus (en plusieurs fois si pas assez d'espace libre) permet de tout rééquilibrer.


---------------
New Technology is the name we give to stuff that doesn't work yet. Douglas Adams
n°1386866
Mysterieus​eX
Chieuse
Posté le 13-02-2016 à 13:01:47  profilanswer
 

Tu peut aussi jouer sur les spare, où sur un resilvering et faire un disk round up. Pratique souvent utilisée en clust/bigdata pour équilibrer la charge sur les disques et/où gérer le wear leveling des caches SSD.
Tu peut aussi utiliser des cartes acceleratrices dédiées a ce genre de tâches qui coûtent la peau des fesses. (sun flashfire F20 et son firmware qu'est a moitié fumé, se servent des fonctions raid du procoss pour faire des calculs de charge disques, embed ZFS etc ...) ou une appliance custom basée sur un marvell WAM. (je te laisse googler ;) )

n°1387133
LimDul
Comment ça j'ai tort ?
Posté le 20-02-2016 à 18:20:06  profilanswer
 

La prochaine version d'Ubuntu supportera ZFS.
Qu'en pensez-vous ?
Basé et améliorant ZOL ou une nouvelle implémentation ?
 
J'ai cru lire un "support complet de ZFS" donc jusque là les autres implémentation de ZFS n'ont pas toutes les fonctions ?


---------------
Liberkey, colection d'utilitaires sur clef USB / Silverstone DS380 - Mini tour ITX 8 baies Hot-swap 3.5"
mood
Publicité
Posté le   profilanswer
 

 Page :   1  2  3  4  5  6  7  8  9  10  11  12  13

Aller à :
Ajouter une réponse
 

Sujets relatifs
[Résolu] Changement de carte mère : Linux en grève[RESOLU] Quel linux choisir avec ma mini config ?
Linux commande pour savoir les services qui sont installés ?Problème avec apache sur linux debian/ install GLPI
filezilla server sous linux[Gnu/Linux] Ouverture d'un xterm dans mon application graphique.
Installation serveur Darwin sous LinuxRecherche Mini pc tournant avec distrib linux
Routage et VLAN sous Linux - Virtualisation[Débutant] Linux et OS Alternatifs
Plus de sujets relatifs à : [Topic ZFS] ZFS on Linux et BSD - débats/questions


Copyright © 1997-2022 Hardware.fr SARL (Signaler un contenu illicite / Données personnelles) / Groupe LDLC / Shop HFR