Aller au contenu
  • 0

Led Verte Clignotant Incessant !


JCDUCE

Question

Bonjour,

Voila j'ai un petit probleme avec la led verte clignotant , si je verifie sur le bouquin (catalogue vue le nombre de pages) de qnap il est marqué que les disques ne sont pas formaté et autres (voir paragraphes sur les leds ,led verte clignotant).

Le problemes c'est que j'ai viré les disque durs et relance la machine mais rien n'y fais si rouge et ensuite vert en clignotant!

J'ai formater les disques n'ont pas sur le nas mais directement via un dock sous windows 7 (formatage des disques ) , ensuite j'ai remis les disques lancé l'update de la mise a jour , reboot , bip ,le nas est visible sur le finder , et la long bip et re-clignotement de la led verte !

,

Je ne sais que faire !

Merci de vos reponses.

Ps: si j'arrive pas a le remettre en place , je risque fortement de prende un nas chez synology .

Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 77
  • Created
  • Dernière réponse

Top Posters For This Question

Messages recommandés

  • 0
Sur 14/02/2015 at 10:21 , pipovip said:

Oui je sais que vous n’etes pas le support, mais il faut avouer que je recueil beaucoup plus d'informations ici que via le support et cela md permet d'échanger avec d’autres utilisateurs.

 

Et puis c’est pas evident de communiquer en anglais ... avec le support sur des aspect plutôt techniques.

 

Sur 06/01/2016 at 10:56 , Sokol05 said:

Bonjour, 

je suis équipé d'un QNAP TS-251 avec 2 disques WD Red 2To en RAID1, firmware 4.2.0 20151118. 

J'ai paramétré une veille des disques au bout de 20' car ils sont souvent inutilisés pendant plusieurs heures dans la journée ou la nuit. Mais les disques ne s'arrêtent jamais (led status 'on' en permanence). J'ai fouillé un peu sur ce forum et sur le forum.qnap.com pour essayer de résoudre ce point. C'est ici que je trouve une description la plus proche de la mienne. A savoir que la mise en veille fonctionne après que j'ai fait tourner blkdevMonitor et le lendemain plus (alors que je n'ai pas d'arrêt programmé). 

Depuis février 2015, avez-vous trouvé une solution ou explication à ce fonctionnement? Merci d'avance. 

Hello,

Par curiosité, j'ai fait une recherche sur ce problème aujourd'hui et je tombe sur ce sujet.

J'ai un TS251 chez moi et au boulot.

Mais, j'ai le TS251 de chez moi qui fait exactement ce que vous précisez. A savoir, les LED HDD clignotent 6sec, puis s'arrêtent, puis recommence.

Je ne m'étais pas inquiété outre mesure de ce détail jusque là.

 

Avez-vous trouvez une solution? Si oui laquelle?

 

D'avance merci

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

Une activité disque, c'est peut-être une activité provenant du réseau ou du NAS et/ou des deux.

QNAP propose une page sur son WIKI pour identifier le process qui agit en permanence sur l'activité des disques, activité interne seule ou en réaction/action à une activité réseau:

http://wiki.qnap.com/wiki/Find_out_which_process_prevents_the_hard_drives_from_spindown.

Si je ne me trompe, cela génère un rapport des activités qui écrivent/lisent sur le disque.

Personnellement pour avoir un aperçu en temps réel, iotop, un paquet ipkg installé via le QPKG Entware* me donne les résultats cumulés des entrées sorties disques avec la commande avec un terminal ssh:

iotop -ao

Et si vous voulez une visibilité en temps réelle, mettez juste "iotop -o"(process qui utilisent le disque) ou "iotop" (tous les process).

Cordialement.

* QPKG Entware : http://forum.qnap.com/viewtopic.php?f=351&t=116737 et la liste des paquets: http://forum.qnap.com/viewtopic.php?f=351&t=100843

 

 

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

Pour disposer d'iotop, il faut donc qu'entware soit installé, ouvrir une session ssh via un terminal pour lancer les commandes suivantes:

1°opkg update.

En théorie, ça passe tout seul sinon, il faut se rendre dans le dossier dans lequel est l'exécutable nommé "opkg": visible en général sous /opt (/opt/opkg update)

La commande opkg update comme apt-get met à jour la liste des paquets disponibles à l'installation. 

2° opkg install iotop

Quelques autres paquets seront installés avec... C'est tout ce qu'il y a à faire.

Une fois fait, lancez une des commandes que je vous ai proposée.

Cordialement.

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Merci pour ton aide.

J'ai pu installer le package et il semble que ce soit le process jbd2/dm-0-8 qui réveil les disques tout le temps.

J'ai fait une rapide recherche sur le net et il semble que je ne sois pas le seul. Je prendrais plus de temps pour le faire (je suis un peu court là).

Si quelqu'un a déjà rencontrer ce soucis, une expérience supplémentaire serait bienvenue.

Voici ce que j'obtiens avec la commande iotop -ao si ça peut aider.

 1461 be/3 admin         0.00 B     76.00 K  0.00 %  0.43 % [jbd2/dm-0-8]
  268 be/4 admin         0.00 B     40.00 K  0.00 %  0.02 % [kjournald]
26146 be/4 admin         0.00 B      0.00 B  0.00 %  0.00 % mongod --~-logappend
26166 be/4 admin         0.00 B     32.00 K  0.00 %  0.00 % python -m~awkeye.api
26485 be/4 admin         0.00 B     24.00 K  0.00 %  0.00 % python /s~python.pid

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

Je ne pense pas que ce soit le process jbd2, le terme jbdx me fait plus penser à la gestion des disques (jbd / JBOD...) qui ne fait qu'obéir aux demandes d'écritures sur disques.

Par contre le process mongod actif mais sans écriture me fait penser à une appli MongoDB/MySQL qui est à l'écoute de requêtes, d'où une mise en veille difficilement envisageable... Associée à des scripts python, ça ressemble à une applis AMP/LAMP, avez-vous installé ce genre de choses?

Cordialement.

 

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Si je regarde bien les log d'écriture, le process JBD2 apparait le plus souvent, alors que les autres sont vraiment très sporadique. En plus c'est le relevé cumulé et non en temps réel.

Je n'ai pas installé d'appli type MongoDB/MySQL ou AMP/LAMP. Ou alors si je l'ai fait, ce n'est pas intentionnellement mais avec un autre programme. Je n'ai plus accès au NAS (boulot), mais je peux étudier un peu plus en profondeur les applications installées (autre que PhotoStation, VideoStation, HybridStation, etc.).

En outre, est-ce que cela pourrait venir d'un disque dur? Sachant que j'ai remplacé un DD (WD RED 3To) sur les deux d'origines.

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

J'ai bien compris qu'il s'agissait d'un relevé cumulé...

Pour aller plus loin, procédez au test du wiki de QNAP. Vous avez en plus indiqué avoir changé de disque.... Il y a bien des raisons pour lesquels le process jbd2 peut faire "gratter" un disque, sa nature en soit, son état, la quantité de RAM, les process en cours et évidemment une question de configuration...

Cordialement.

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

J'ai donc effectué le teste avec blkDevMonitor sur le nas.

Le fichier est très long, voici juste un aperçu des dernières passes. Par contre, il me semble qu'il ne s'est pas terminé correctement.

Dois-je mettre le fichier entier pour que l'on puisse localiser le problème.

D'avance merci, cordialement.

 

extrait :

============= 97/100 test, Fri Apr  1 14:03:42 CEST 2016 ===============
<7>[441522.428133] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441522.428147] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441522.428152] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441524.674726] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441524.674751] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441524.674761] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441535.284876] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441535.284894] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441535.284899] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441536.646850] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441536.646873] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441536.646879] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441552.473229] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441552.473243] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441552.473248] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441554.299183] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441554.299198] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441554.299203] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441569.211049] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441569.211064] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441569.211069] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
er/u4:0(27564): WRITE block 1049636096 on dm-0 (8 sectors)
<7>[441519.679947] kworker/u4:0(27564): WRITE block 1049636088 on dm-0 (8 sectors)
<7>[441524.674754] jbd2/dm-0-8(1461): WRITE block 2898758168 on dm-0 (8 sectors)
<7>[441524.698540] kworker/u4:0(27564): WRITE block 3263440408 on dm-0 (8 sectors)
<7>[441524.705048] jbd2/dm-0-8(1461): WRITE block 2898758176 on dm-0 (8 sectors)
<7>[441524.705077] jbd2/dm-0-8(1461): WRITE block 2898758184 on dm-0 (8 sectors)
<7>[441524.705092] jbd2/dm-0-8(1461): WRITE block 2898758192 on dm-0 (8 sectors)
<7>[441524.705106] jbd2/dm-0-8(1461): WRITE block 2898758200 on dm-0 (8 sectors)
<7>[441524.705118] jbd2/dm-0-8(1461): WRITE block 2898758208 on dm-0 (8 sectors)
<7>[441524.705453] jbd2/dm-0-8(1461): WRITE block 2898758216 on dm-0 (8 sectors)
<7>[441530.334221] jbd2/dm-0-8(1461): WRITE block 2898758224 on dm-0 (8 sectors)
<7>[441530.364108] jbd2/dm-0-8(1461): WRITE block 2898758232 on dm-0 (8 sectors)
<7>[441530.364142] jbd2/dm-0-8(1461): WRITE block 2898758240 on dm-0 (8 sectors)
<7>[441530.364399] jbd2/dm-0-8(1461): WRITE block 2898758248 on dm-0 (8 sectors)
<7>[441534.737099] kworker/u4:0(27564): WRITE block 1049637408 on dm-0 (8 sectors)
<7>[441534.766893] kworker/u4:0(27564): WRITE block 1049636096 on dm-0 (8 sectors)
<7>[441534.766981] kworker/u4:0(27564): WRITE block 3276241192 on dm-0 (8 sectors)
<7>[441534.767011] kworker/u4:0(27564): WRITE block 504 on dm-0 (8 sectors)
<7>[441534.767036] kworker/u4:0(27564): WRITE block 1048576032 on dm-0 (8 sectors)
<7>[441539.332105] jbd2/dm-0-8(1461): WRITE block 2898758256 on dm-0 (8 sectors)
<7>[441539.364244] jbd2/dm-0-8(1461): WRITE block 2898758264 on dm-0 (8 sectors)
<7>[441539.364267] jbd2/dm-0-8(1461): WRITE block 2898758272 on dm-0 (8 sectors)
<7>[441539.364513] jbd2/dm-0-8(1461): WRITE block 2898758280 on dm-0 (8 sectors)
<7>[441545.303973] kworker/u4:0(27564): WRITE block 1049636096 on dm-0 (8 sectors)
<7>[441545.304005] jbd2/dm-0-8(1461): WRITE block 2898758288 on dm-0 (8 sectors)
<7>[441545.340067] jbd2/dm-0-8(1461): WRITE block 2898758296 on dm-0 (8 sectors)
<7>[441545.340255] jbd2/dm-0-8(1461): WRITE block 2898758304 on dm-0 (8 sectors)
<7>[441550.347244] kworker/u4:0(27564): WRITE block 1049637408 on dm-0 (8 sectors)
<7>[441550.376461] kworker/u4:0(27564): WRITE block 3275754688 on dm-0 (8 sectors)
<7>[441552.332535] jbd2/dm-0-8(1461): WRITE block 2898758312 on dm-0 (8 sectors)
<7>[441552.355435] jbd2/dm-0-8(1461): WRITE block 2898758320 on dm-0 (8 sectors)
<7>[441552.355666] jbd2/dm-0-8(1461): WRITE block 2898758328 on dm-0 (8 sectors)
<7>[441558.352447] jbd2/dm-0-8(1461): WRITE block 2898758336 on dm-0 (8 sectors)
<7>[441558.381374] jbd2/dm-0-8(1461): WRITE block 2898758344 on dm-0 (8 sectors)
<7>[441558.381398] jbd2/dm-0-8(1461): WRITE block 2898758352 on dm-0 (8 sectors)
<7>[441558.381642] jbd2/dm-0-8(1461): WRITE block 2898758360 on dm-0 (8 sectors)
<7>[441562.419084] kworker/u4:0(27564): WRITE block 3263168832 on dm-0 (8 sectors)
<7>[441567.309469] jbd2/dm-0-8(1461): WRITE block 2898758368 on dm-0 (8 sectors)
<7>[441567.342460] jbd2/dm-0-8(1461): WRITE block 2898758376 on dm-0 (8 sectors)
<7>[441567.342487] jbd2/dm-0-8(1461): WRITE block 2898758384 on dm-0 (8 sectors)
<7>[441567.342706] jbd2/dm-0-8(1461): WRITE block 2898758392 on dm-0 (8 sectors)
<7>[441567.462382] kworker/u4:0(27564): WRITE block 1049637408 on dm-0 (8 sectors)
<7>[441567.462481] kworker/u4:0(27564): WRITE block 1049636096 on dm-0 (8 sectors)
<7>[441572.345556] jbd2/dm-0-8(1461): WRITE block 2898758400 on dm-0 (8 sectors)
<7>[441572.378897] jbd2/dm-0-8(1461): WRITE block 2898758408 on dm-0 (8 sectors)
<7>[441572.379113] jbd2/dm-0-8(1461): WRITE block 2898758416 on dm-0 (8 sectors)
<7>[441519.880386] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441519.880414] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441524.674787] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441524.674817] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441524.959703] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441524.959737] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441527.628337] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441527.628374] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441527.863594] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441527.863631] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441530.334275] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441530.334309] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441530.603369] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441530.603405] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441534.737154] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441534.737189] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441534.968217] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441534.968252] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441539.332157] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441539.332191] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441539.602229] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441539.602266] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441545.304030] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441545.304068] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441545.595110] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441545.595138] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441550.347298] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441550.347332] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441550.577366] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441550.577401] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441552.332597] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441552.332633] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441552.594683] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441552.594720] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441558.352499] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441558.352534] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441558.620595] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441558.620631] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441562.419136] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441562.419170] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441562.651221] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441562.651258] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441567.309505] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441567.309529] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441567.663486] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441567.663522] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441572.345611] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441572.345649] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441519.880386] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441524.674787] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441524.959703] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441527.628337] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441527.863594] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441530.334275] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441530.603369] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441534.737154] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441534.968217] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441539.332157] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441539.602229] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441545.304030] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441545.595110] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441550.347298] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441550.577366] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441552.332597] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441552.594683] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441558.352499] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441558.620595] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441562.419136] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441562.651221] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441567.309505] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441567.663486] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441572.345611] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441519.880414] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441524.674817] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441524.959737] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441527.628374] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441527.863631] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441530.334309] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441530.603405] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441534.737189] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441534.968252] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441539.332191] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441539.602266] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441545.304068] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441545.595138] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441550.347332] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441550.577401] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441552.332633] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441552.594720] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441558.352534] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441558.620631] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441562.419170] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441562.651258] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441567.309529] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441567.663522] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441572.345649] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)

============= 98/100 test, Fri Apr  1 14:04:35 CEST 2016 ===============
<7>[441576.676907] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441576.676922] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441576.676928] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441586.719834] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441586.719866] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441586.719871] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441596.692504] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441596.692520] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441596.692525] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441601.919392] smbd(26172): dirtied inode 164626448 (serverid.tdb) on dm-0
<7>[441601.919401] smbd(26172): dirtied inode 164626448 (serverid.tdb) on dm-0
<7>[441601.926039] smbd(26172): dirtied inode 164626442 (smbXsrv_session_global.tdb) on dm-0
<7>[441601.926058] smbd(26172): dirtied inode 164626442 (smbXsrv_session_global.tdb) on dm-0
<7>[441601.926199] smbd(26172): dirtied inode 164626456 (dbwrap_watchers.tdb) on dm-0
<7>[441601.926212] smbd(26172): dirtied inode 164626456 (dbwrap_watchers.tdb) on dm-0
<7>[441606.372304] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441606.372319] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441606.372324] python(26485): dirtied inode 102373258 (gmetad-python.log) on dm-0
<7>[441612.563403] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441612.563418] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441612.563424] python -m hawke(26166): dirtied inode 101974150 (hawkeye.log) on dm-0
<7>[441582.368067] jbd2/dm-0-8(1461): WRITE block 2898758424 on dm-0 (8 sectors)
<7>[441582.396199] jbd2/dm-0-8(1461): WRITE block 2898758432 on dm-0 (8 sectors)
<7>[441582.396228] jbd2/dm-0-8(1461): WRITE block 2898758440 on dm-0 (8 sectors)
<7>[441582.396462] jbd2/dm-0-8(1461): WRITE block 2898758448 on dm-0 (8 sectors)
<7>[441582.496179] kworker/u4:0(27564): WRITE block 1049636104 on dm-0 (8 sectors)
<7>[441582.496254] kworker/u4:0(27564): WRITE block 1049636096 on dm-0 (8 sectors)
<7>[441587.507429] kworker/u4:0(27564): WRITE block 1049637408 on dm-0 (8 sectors)
<7>[441587.507464] jbd2/dm-0-8(1461): WRITE block 2898758456 on dm-0 (8 sectors)
<7>[441587.543799] jbd2/dm-0-8(1461): WRITE block 2898758464 on dm-0 (8 sectors)
<7>[441587.543822] jbd2/dm-0-8(1461): WRITE block 2898758472 on dm-0 (8 sectors)
<7>[441587.543839] jbd2/dm-0-8(1461): WRITE block 2898758480 on dm-0 (8 sectors)
<7>[441587.543853] jbd2/dm-0-8(1461): WRITE block 2898758488 on dm-0 (8 sectors)
<7>[441587.543866] jbd2/dm-0-8(1461): WRITE block 2898758496 on dm-0 (8 sectors)
<7>[441587.544195] jbd2/dm-0-8(1461): WRITE block 2898758504 on dm-0 (8 sectors)
<7>[441592.550679] kworker/u4:0(27564): WRITE block 3263168832 on dm-0 (8 sectors)
<7>[441592.580255] kworker/u4:0(27564): WRITE block 3276241192 on dm-0 (8 sectors)
<7>[441592.580291] kworker/u4:0(27564): WRITE block 504 on dm-0 (8 sectors)
<7>[441592.580313] kworker/u4:0(27564): WRITE block 1048576032 on dm-0 (8 sectors)
<7>[441597.593985] kworker/u4:0(27564): WRITE block 1049636104 on dm-0 (8 sectors)
<7>[441597.594023] jbd2/dm-0-8(1461): WRITE block 2898758512 on dm-0 (8 sectors)
<7>[441597.627804] jbd2/dm-0-8(1461): WRITE block 2898758520 on dm-0 (8 sectors)
<7>[441597.627834] jbd2/dm-0-8(1461): WRITE block 2898758528 on dm-0 (8 sectors)
<7>[441597.628068] jbd2/dm-0-8(1461): WRITE block 2898758536 on dm-0 (8 sectors)
<7>[441601.943838] smbd(26172): WRITE block 1963235968 on dm-0 (8 sectors)
<7>[441603.373731] jbd2/dm-0-8(1461): WRITE block 2898758544 on dm-0 (8 sectors)
<7>[441603.393004] jbd2/dm-0-8(1461): WRITE block 2898758552 on dm-0 (8 sectors)
<7>[441603.393028] jbd2/dm-0-8(1461): WRITE block 2898758560 on dm-0 (8 sectors)
<7>[441603.393042] jbd2/dm-0-8(1461): WRITE block 2898758568 on dm-0 (8 sectors)
<7>[441603.393057] jbd2/dm-0-8(1461): WRITE block 2898758576 on dm-0 (8 sectors)
<7>[441603.393070] jbd2/dm-0-8(1461): WRITE block 2898758584 on dm-0 (8 sectors)
<7>[441603.393083] jbd2/dm-0-8(1461): WRITE block 2898758592 on dm-0 (8 sectors)
<7>[441603.393455] jbd2/dm-0-8(1461): WRITE block 2898758600 on dm-0 (8 sectors)
<7>[441607.648520] kworker/u4:0(27564): WRITE block 1049637408 on dm-0 (8 sectors)
<7>[441612.371584] jbd2/dm-0-8(1461): WRITE block 2898758608 on dm-0 (8 sectors)
<7>[441612.403585] jbd2/dm-0-8(1461): WRITE block 2898758616 on dm-0 (8 sectors)
<7>[441612.403609] jbd2/dm-0-8(1461): WRITE block 2898758624 on dm-0 (8 sectors)
<7>[441612.403859] jbd2/dm-0-8(1461): WRITE block 2898758632 on dm-0 (8 sectors)
<7>[441612.707793] kworker/u4:0(27564): WRITE block 1962934280 on dm-0 (8 sectors)
<7>[441612.726011] kworker/u4:0(27564): WRITE block 3275754688 on dm-0 (8 sectors)
<7>[441612.726039] kworker/u4:0(27564): WRITE block 5268046080 on dm-0 (8 sectors)
<7>[441612.726058] kworker/u4:0(27564): WRITE block 5268046088 on dm-0 (8 sectors)
<7>[441612.726082] kworker/u4:0(27564): WRITE block 0 on dm-0 (8 sectors)
<7>[441612.726099] kworker/u4:0(27564): WRITE block 944 on dm-0 (8 sectors)
<7>[441612.726221] kworker/u4:0(27564): WRITE block 1963233296 on dm-0 (16 sectors)
<7>[441572.612733] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441582.368121] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441582.368157] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441582.697261] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441582.697297] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441584.535503] vgdisplay(26129): READ block 0 on md1 (8 sectors)
<7>[441584.596432] vgdisplay(26133): READ block 0 on md1 (8 sectors)
<7>[441584.659397] vgdisplay(26137): READ block 0 on md1 (8 sectors)
<7>[441584.719906] vgdisplay(26147): READ block 0 on md1 (8 sectors)
<7>[441587.507496] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441587.507529] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441587.869621] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441587.869657] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441592.550732] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441592.550767] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441592.781810] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441592.781846] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441597.594046] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441597.594079] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441597.890134] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441597.890168] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441601.943882] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441601.943906] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441602.208944] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441602.208981] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441603.373782] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441603.373816] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441603.626875] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441603.626909] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441607.648572] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441607.648606] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441607.890644] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441607.890679] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441612.371635] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441612.371669] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441612.639730] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441612.639766] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441612.707850] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441612.707880] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441582.368121] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441582.697261] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441587.507496] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441587.869621] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441592.550732] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441592.781810] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441597.594046] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441597.890134] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441601.943882] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441602.208944] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441603.373782] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441603.626875] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441607.648572] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441607.890644] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441612.371635] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441612.639730] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441612.707850] md1_raid1(1362): WRITE block 5840623504 on sda3 (1 sectors)
<7>[441572.612733] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441582.368157] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441582.697297] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441587.507529] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441587.869657] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441592.550767] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441592.781846] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441597.594079] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441597.890168] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441601.943906] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441602.208981] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441603.373816] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441603.626909] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441607.648606] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441607.890679] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441612.371669] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441612.639766] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)
<7>[441612.707880] md1_raid1(1362): WRITE block 5840623504 on sdb3 (1 sectors)

blkdevMonitor_v2.log

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

Merci pour ce long test parlant aussi et qui apporte une autre information.... Gardez ce log au chaud en tout cas.

Jbd2 ne faisait que tenter de corriger un problème sur le journal EXT4 à cause d'un problème d'I/O sur ce RAID, cela se voit sur une application qui tourne en permanence mais aussi sur le serveur Samba peut-être moins sollicité...

D'après  la continuité à tenter d'écrire sur un bloc d'un des deux disques du miroir, ça ressemble à un bloc défectueux sur un disque et il y en a peut-être plusieurs sur un des deux disques, ou les deux....

Envisagez d'éteindre le NAS et de passer les disques via un test long avec les logiciels propriétaires des éditeurs, voire mieux si vous avez.

Cordialement.

 

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Du coup, en partant cette après-midi, j'ai relancé le script.

Il s'est bien terminé cette fois-ci (lors du précédent script, une personne à toucher au nas provocant a mon avis l'erreur).

Je joins le nouveau log à ce post.

De toute façon, le nas étant mon premier, j'ai fait quelques petites bourdes lors du lancement que je n'ai jamais corrigé.

Je prévoyais d'effacer les deux disques et de repartir de 0.

A la vue du nouveau log, est-ce utile de la faire?

 

Merci beaucoup pour cette analyse pertinente et pour votre précieuse aide. Cependant, je fais tout les mois une analyse des disques et je n'ai jamais eu d'erreur. Est-ce normal?

blkdevMonitor_v2-2.log

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

Le terme "dirtied inode" émis par plusieurs process laisse penser soit à un défaut sur le système de fichiers, soit sur la structure matérielle. Le système de fichiers devient sale!

Notez la persévérance à écrire sur un bloc: "WRITE block 5840623504" qui se reproduit sans cesse sur les deux disques... Normal, c'est un miroir :-/ Mais ça ressemble à un problème de blocs défectueux qui n'a pas été réglé par les directives SMART intégrées des disques.

Vu la ténacité du NAS à vouloir remplir un bloc particulier, vous pouvez procéder si vous le désirez à un test SMART étendu/long.. Une vérification du système de fichiers toutes applications et tous services arrêtés ne ferait pas de mal non plus, couplé à une sauvegarde du NAS, bien évidemment.

En tout cas, je ne suis pas sûr du tout que le test long pousse le disque à corriger son bloc défectueux, si il y a et vous n'aurez pas un résultat complet comme celui de smartmontools ou de badblocks....

Cordialement.

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Ok, merci pour ces précisions.

Je vais donc faire une sauvegarde sur support externe du NAS et je vais tenter une analyse poussée des disques par la méthode interne.

Si rien n'est détecté, je vais analyser les disques un à un avec le logiciel du fabricant (en l'occurrence WD).

Les disques sont sous garanties, donc je ne vais pas me gêner d'en profiter si besoin.

Par contre, par quel moyen peut-on faire un test smatmontools ou badblocks que vous cités?

Je reviens ensuite avec les résultats des test.

 

En vous souhaitant un bon weekend.

Cordialement

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

Je citais ces deux exécutables... disponibles en Open Source!

J'ai pris une certaine expérience de ces outils un gros ménage sur mon stockage personnel...Avant destruction massive ou recyclage.

Mon cycle est de passer par un PC sous debian Jessie: test étendu avec smartmontools (portages disponibles sur d'autres systèmes), badblocks (linux only non destructeur, informations seules), gparted pour suppression de toute trace de partition et finalement dd (linux et portages linux) pour mapper les secteurs défectueux en écrivant des zéros partout...

Vous n'êtes pas obligé d'en arriver là, du moins je ne l'espère pas. Un vieux disque sur un PC avec une debian light Mate ça ira vite!

Cordialement.

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,
les deux disques ont été passé au test long interne du NAS ainsi qu'au tet long avec l'utilitaire constructeur (WD).

Aucune erreur n'a été détectée et ils ont passé le test avec succès dans les deux cas.

Est-il utile de les tester avec les deux executables cités plus haut (sachant que j'ai justement une Debian toute neuve sous la main)?

Est-ce possible que ce soit une partition qui soit "corrompue" et qui entraine cette réécriture aussi souvent?

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

Je propose souvent de commencer par les outils des constructeurs qui parait souvent le plus simple. Le test étendu Smartmontools devient inutile car ce sont souvent des tests SMART que font ces outils

Ce que je vous avez effectué est peut-être suffisant. Avez-vous décelé des blocs défectueux? La restreinte des tests SMART est qu'elle indique un état et une durée de vie encore probable mais ne corrige pas les problèmes existants. Le test SMARt indique le nombre de secteurs automatiquement réalloués par exemple mais pour ceux qui ne sont par ré-utilisables mais pas mappés.

Un petite test sur votre Debian fraiche peut être une idée. Assurez-vous d'y avoir gparted, hdparm, badblocks, lvm2 dans les paquets, ça peut servir.

Une fois identifié votre disque avec gparted en interface graphique ou df avec un terminal, vous pouvez faire un test avec la commande dans un terminal:

badblocks -svn-o liste-de-blocs-nomdisque-partition.txt : Vous en verrez la progression, puisque ça peut être long, et garderez une trace adns le fichier que vous nommerez comme vous le voudrez(j'ai mis "liste-de-blocs-nomdisque-partition.txt" comme référence...)

Cordialement.

 

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

Analyse du premier disque du RAID1 faite. Aucune erreur détectée et le fichier d'output ne contient aucune ligne.

L'analyse a tout de même durée 32h.

Du coup je passe mon disque 2 en analyse maintenant.

Qu'en pensez-vous?

 

Merci, cordialement.

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

L'analyse du premier disque indique qu'il est clean... Je serais tenté de tester le deuxième malgré le temps de tests.

Effectuer un diagnostic non-destructeur n'est pas toujours simple ni court, surtout à distance! Là, en l'occurence, je m'assurerais que ce n'est pas lié à cet aspect du matériel.

Bon courage.

Cordialement.

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Deuxième test en cours, j'espère qu'il se terminera également bien.

Merci beaucoup pour votre rapidité et votre précieuse aide. En plus de tout ceci, j'apprends également beaucoup.

Imaginons que le test soit aussi négatif, d'où pourrait provenir le problème?

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

Si le test se révèle négatif - ce que finalement j'espère - le problème pourrait venir d'une erreur dans la synchro du RAID, dans le système de fichiers, d'un bug allez savoir...: journaling corrigé en permanence par JBD2, tentatives de corriger les synchros sur les disques...

Il est toujours bon de s'assurer que les RAID sont bien finalisés/optimisés à leur création pour commencer à y stocker des données. C'est une chose longue parfois pas assez attendue.

Cordialement.

 

Lien vers le commentaire
Partager sur d’autres sites

  • 0

En fait, j'avais un premier RAID avec 2 Disques 3To. Tout se passait bien jusqu'à ce que j'ai une erreur récurrente de déconnexion d'un disque. J'ai alors changé le disque défectueux (que j'ai placé dans un second NAS) par un tout neuf de même marque, même capacité.

Et c'est après cette manipulation, mais pas immédiatement (donc reconsctruction de RAID, etc.) que j'ai eu ce problème. Mais je n'arrive pas à savoir si c'est apparue après une MàJ ou autre. Donc il est possible que la reconstruction ne se soit pas bien passée et entraîne ce problème.

Je pensais refaire le RAID de 0 et à ce moment là, j'attendrais un peu avant d'y mettre mes données.

Me conseillez-vous une façon de faire particulière pour éviter ou déceler tous problèmes?

Lien vers le commentaire
Partager sur d’autres sites

  • 0

2nd test terminé. Aucune erreur détectée et un fichier d'output vide.

Le problème vient donc surement du RAID. Je vais donc le reconstruire complètement en repartant de 0. Si vous avez des conseils pour que cela ne se reproduise pas, je suis preneur.

Cordialement.

ps : problème résolu, on peut à nouveau poster.

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Bonjour,

Bonne nouvelle que les disques soient en bon état, un fichier corrompu peut-être...

Si vous devez tout refaire, de manière générale, les seuls conseils que je peux donner, c'est de profiter de la situation pour mettre à niveau le firmware, laisser la préparation du stockage se finaliser, mettre à jour ensuite les QPKG, installer les optionnels, configurer les volumes partagés... Le tout avant de commencer à copier des données sur le NAS.

Cordialement.

Lien vers le commentaire
Partager sur d’autres sites

  • 0

Ok, c'est bien noté.

Cependant, je ne comprends pas le terme "volume partagé". Il s'agit du RAID ou d'autre chose?

Pour le reste, en général je fais les MaJ firmware dès qu'elles sont dispos. Là en l'occurrence, après ma remise à zéro, j'ai sauvegardé et réimporter les configurations. Il faut que je remette les données sur les disques maintenant, mais je voulais vérifier leur activité avant de commencer.

Lien vers le commentaire
Partager sur d’autres sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Invité
Répondre à cette question…

×   Vous avez collé du contenu avec mise en forme.   Supprimer la mise en forme

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement

×
×
  • Créer...