Toni Maverick :
Mémoire: Je dois être resté a Windows XP
je pensais que le 64 allait a peine jusqu'à 32... Par contre y'a bien marqué 1200MHz sur ses barettes je suis pas fou.. Moi je trouve ca leger. Autant en prendre moins et mieux, on peut quasi avoir le triple!
La version 32 bits de Win XP connaissant ce souci. Toute version 64 bits de Windows gère allègrement 128Go. De plus, Windows disposait par le passé une limitation en nombre de coeurs (2 si ma mémoire est bonne) pour éviter qu'on transforme un OS particulier en OS pro (pour gérer le multi processeur).
Aujourd'hui ces limites n'ont plus de sens.
De fait: 32 Go pour du montage vidéo a un sens, de même que pour le traitement de très grosses images, tout comme pour les VM et j'en passe.
Toni Maverick :
[Processeur: Le 3.6 s'overcloak bien, mais le 4.2 doit s'overcloak encore mieux! J'ai un phanteks double tour également sur mon I7-6700K 4.2, a l'allumage j'ai déjà atteint les 26°! ^^ je pense qu'on peut prendre facile 1 point d'OC... Le ventirad m'a couté 90e et le processeur 400.
L'overclock a deux limites:
- La capacité du processeur (débloqué ou non), les possibilités liées au matériel (limites de la CM)
- Les limites physiques générales
Aller au-delà de 5Ghz est aujourd'hui un vrai défi, parce que la fréquence est monstrueuse.
On a d'abord fait la course aux fréquences, parce qu'on n'avait qu'un coeur physique de calcul. Donc, plus de fréquence=plus de calculs par seconde.
Ensuite, on s'est heurté à la dissipation thermique (taille de gravure trop forte=surchauffe). On a donc commencé à réduire la gravure pour augmenter la fréquence
Puis, on s'est à nouveau heurté au souci de la fréquence maximale. De là on a multiplié les coeurs pour réduire la fréquence unitaire, mais en multipliant les unités de traitement
Maintenant, les OS et les logiciels tiennent compte de tous les coeurs disponibles, ceci afin de paralléliser les tâches et donc permettre une exploitation de toutes les unités de calculs.
De fait la fréquence ne fera pas forcément la puissance de calcul.
Toni Maverick :
[Stockage: Dans ce cas, je conseille de prendre 2x 4To et de les mettre en RAID mirroir plutot que d'acheter plusieurs 2 To independant... La au moins on est sur de pas avoir de panne matos!
Le miroir est bien, mais il faut aussi, quand on envisage réellement un environnement pro, prévoir un volume de stockage externe, et si possible non mécanique afin de réduire au possible les risques de panne.
Comme le dit turlupin dans ce forum "n'oubliez jamais la loi de murphy!".
Me concernant, il serait alors à cibler la quantité potentielle de données à stocker. Quand on fait de la vidéo, cela peut vite grandir, et un NAS comme première étape n'est pas inutile, et lui adjoindre une politique du genre sauvegarde DAT n'est pas du luxe pour les données réellement vitales.