Exactement ! Et sur la 8k, on démarre sur du 55" pour que ça vaille vraiment le coup, je serai en mesure de suivre sur cette génération en restant sur du 55". Mais faudra aussi attendre la next gen de carte graphique car bien qu'une 4090 gère la 8k, on est encore assez loin d'approcher les 100fps en natif (sans dlss donc).
Quid de la 16k ? En prenant un moniteur standard commun de 32", quelle différence verront nous entre de la 4k, 8k et 16k ? Je me pose bien la question
Vous devez être
connecté pour voir les liens.
Oublie pas la densité de pixel.
Dans un sens ton message est correct, mais ça rappel fortement les vieux mythes de " l'humain ne peux pas voir plus de 60 im/s"
Y'a des téléphone (dont la diagonal est très courte évidemment) avec 400 dpi, mais il semblerait que l'humain peuvent facilement voir des différence avec 1000
Un moniteur de 27 pouces en 8K a une densité de pixels de
326 ppi, et 8k avec du 55" à bien moins que ça.
Maintenant : c'est comme dans la réalité.
Si tu souhaite admirer les détails d'un tableau, tu ne te met pas à 10 m de lui.
Et si tu veux voir un tableau dans son emsemble tu ne te colle pas non plus le nez à un endroit.
Hormis dans les smartphone ou on commence à atteindre le seuil où on ne vois pas de différence significative en augmentant la résolution (à cause de la taille réduite des diagonales, justement) il y a des gains visuel possible dans toute les autres dimensions de dalle
, pour peu que les utilisateur aient l'acuité visuel pour les percevoir.
c'est un peu comme une photo ; vaut mieux une photo en 1920x1080 imprimé sur un format d'envelloppe, qu'une photo en 4k imprimé sur un poster de 3 mètre par 4
Extrait :
PPI et taille d’écran
Prenons un exemple. Imaginez que vous avez deux moniteurs en face de vous, tous les deux avec une résolution Full HD 1080p. Cela signifie donc qu’ils ont tous les deux 1920 pixels en largeur et 1080 pixels en hauteur. Maintenant, imaginez que l’un d’eux soit un écran de 32 pouces et l’autre un écran de 25 pouces. Vous devez commencer à voir en quoi la densité de pixel peut jouer un rôle. Car si ces deux écrans proposent le même nombre de pixels, ceux du moniteur de 32 pouces sont répartis sur une surface beaucoup plus grande. Le moniteur de 25 pouces, plus petit, aura une densité de pixels plus grande, ce qui se traduira par des images plus nettes.
Plus la densité de pixels est grande, mieux c’est, non ?
Eh bien, oui et non. Si, de manière générale, une plus grande densité de pixels est plutôt une bonne chose, celle-ci devient un inconvénient à partir d’un certain point. En effet, plus elle sera grande et plus les avantages qu’elle offre en termes de netteté seront réduits, jusqu’à atteindre un point où ceux-ci deviendront simplement indétectables à l’œil nu.
Dans l’exemple que nous prenions dans le paragraphe précédent, le moniteur de 25 pouces aurait une densité de pixel de
88 ppi, alors que le moniteur de 32 pouces aurait une densité de pixels de
69 ppi. Dans ce cas, on remarquera évidemment quelques différences dans la qualité des images affichées par ces deux écrans, le plus petit offrant bien sûr une image plus nette. Et aujourd’hui, pour un exemple qui parlera à tout le monde, il est courant que nos smartphones disposent de densités de pixels allant de 300 ppi jusqu’à plus de 500 ppi.
Le problème, c’est qu’il s’agit exactement du moment à partir duquel la question de l’utilité d’un plus grande densité de pixels commence à faire débat. Pour certains, la densité de pixels optimale se situe autour de 400 ppi, quand d’autres affirment que l’œil humain peut détecter jusqu’à 1000 ppi. Comme il s’agit surtout d’une préférence personnelle, le meilleur conseil que l’on puisse donner à ce sujet c’est de d’abord essayer les moniteurs par vous-même avant de les acheter.