ce qui pousserait à dire qu'il faut éviter d'avoir 15 disques entassés les uns sur les autres
mieux vaut de "gros" disques que beaucoup de petits
et franchement, si 2 disques de 300Go ne suffisent pas à vos besoins (en tant que particuliers), c'est n'est plus une tour qu'il vous fait.
par contre je ne suis pas d'accord sur un point :
c'est sur la qualité des disques
les nouveaux disques sont à la limite du prototype fabriqué en série.
Poour preuve, depuis 1990 je ne compte pas le nombre de disques que j'ai possédé, ça dépasse la trentaine je pense.
Pendant ce laps de temps, j'ai eu des disques neufs qui ont laché au bout de quelques mois (les fameuses "mauvaises séries" je connais, pour moi c'est presque la moitié des séries produites) et aujourd'hui avec des disques ultra récents, j'ai encore des problèmes.
Pour moi ça ne fait aucun doute, plus on augmente les performances, plus le risque devient immense.
aujourd'hui au moindre problème le disque se ramasse dans la boue
par contre, pour info j'ai toujours un disque Quantum de 140Mo datant de mon 1er PC (386DX33), je n'utilise plus ce PC très souvent, mais le disque fonctionne très bien et je peux vous dire qu'en espérance de vie, ce genre de matos tue tous nos bécanes super neuves.
le Microsoft Office de l'époque tourne dessus sans problème, et graphiquement ça n'est pas à des années lumières de ce qu'on a aujourd'hui. comme quoi...
croyez moi, plus le temps passera et plus le matériel sera jetable, genre CD vierge, on fout les données dessus et on garde.
je pense qu'on disposera de ressources de stockage tellement importantes que rien ne sera plus effacé, au lieu d'écraser la nouvelle version d'un document, le système écrira un nouveau fichier à chaque fois.
ça laisse la porte ouverte à de nouveaux FS comme celui que Microsoft prépare pour Longhorn.
On pourrait par exemple penser à un fichier unique en apparence sur le disque, mais qui, quand on l'ouvre, propose de choisir la version sur laquelle on veut travailler, parmi l'historique des différentes versions du document à travers le temps.
De toute façon on est déjà arrivés à des capacités qui nous permettent de ne pas trop nous soucier de ce qu'on met sur nos disques et le futur devrait continuer dans cette voie.
Par contre une évolution souhaitable serait de voir le débit en écriture des disques se rapprocher de celui des cartes réseaux.
Ça permettrait de profiter vraiment des futures capacités d'accès à Internet.
Avec du SATA de compétition, on va de 20 à 66Mo/s, avec une moyenne de 36 environ (HD Tach : Seagate 80 Gb Barracuda SATA sur A7N8X-E Dlx).
transition à propos du S-ATA justement, tout le monde sait que c'est hot plug, mais ce que vous ne savez pas c'est que meme sur les carte mères les plus récentes (exemple de l'asus a7n8x-e dlx justement), le hot plug n'est pas activé...
pour preuve :
ftp://www.asus.it/pub/ASUS/mb/soc [...] deluxe.pdf (3.45Mo)
vous allez à la page 41/112
au beau milieu de la page vous tombez sur la petite note fatale :
"Important notes on Serial ATA solution:
Hot plug support for Serial ATA drive and connections are not available in this motherboard"
je précise bien, a7n8x-E deluxe, pas la a7n8x deluxe standard
je pensais avoir acheté une carte mère un peu mieux, mais en fait non, l'ajout d'un controleur ethernet gigabit ne compense pas l'absence du hot plug sur cette carte !!!
je ne me suis pas fait prier pour aller vérifier sur les autres cartes récentes d'asus, et bien c'est la surprise !
voyez donc, c'est aussi le cas pour la SK8V, la SK8N, la P4P8X, la P4P800 et la P4P800S ! pas les pires cartes et encore cette liste n'est peut-être pas complète ! un vrai hold-up d'asus !
sinon je voulais ajouter qu'avec ma carte mère j'ai eu 2 cables sata et 1 cable d'alim sata.
comme j'avais commandé une alim enermax en meme temps, j'ai eu un autre cable d'alim sata livrée avec l'alim.
ce sont des Y qui convertissent une alim molex standard en 2 connecteurs d'alims sata.
Message édité par kR0M le 26-02-2004 à 04:25:30