Choix écran gaming 4k

  • Auteur de la discussion touille93
  • Date de début

dedzix

Grand Maître
L'intérêt du 4K et des définitions plus importantes est surtout de pouvoir augmenter la taille de la diagonale sans que ça crée des gros pixels bien dégueu.

À partir du 23 pouces, on peut remarquer les limites du 1080p qui devient de moins en moins fin visuellement. Le 4K quant à lui est intéressant sur des diagonales supérieur à 35 pouces minimum. Sinon la densité de pixel n'est pas différentiable avec un 1440p
 

Raionoragon

Expert
L'intérêt du 4K et des définitions plus importantes est surtout de pouvoir augmenter la taille de la diagonale sans que ça crée des gros pixels bien dégueu.

À partir du 23 pouces, on peut remarquer les limites du 1080p qui devient de moins en moins fin visuellement. Le 4K quant à lui est intéressant sur des diagonales supérieur à 35 pouces minimum. Sinon la densité de pixel n'est pas différentiable avec un 1440p
Exactement ! Et sur la 8k, on démarre sur du 55" pour que ça vaille vraiment le coup, je serai en mesure de suivre sur cette génération en restant sur du 55". Mais faudra aussi attendre la next gen de carte graphique car bien qu'une 4090 gère la 8k, on est encore assez loin d'approcher les 100fps en natif (sans dlss donc).

Quid de la 16k ? En prenant un moniteur standard commun de 32", quelle différence verront nous entre de la 4k, 8k et 16k ? Je me pose bien la question :unsure:
 

sosombre

Expert
Exactement ! Et sur la 8k, on démarre sur du 55" pour que ça vaille vraiment le coup, je serai en mesure de suivre sur cette génération en restant sur du 55". Mais faudra aussi attendre la next gen de carte graphique car bien qu'une 4090 gère la 8k, on est encore assez loin d'approcher les 100fps en natif (sans dlss donc).

Quid de la 16k ? En prenant un moniteur standard commun de 32", quelle différence verront nous entre de la 4k, 8k et 16k ? Je me pose bien la question

Oublie pas la densité de pixel.
Dans un sens ton message est correct, mais ça rappel fortement les vieux mythes de " l'humain ne peux pas voir plus de 60 im/s"
Y'a des téléphone (dont la diagonal est très courte évidemment) avec 400 dpi, mais il semblerait que l'humain peuvent facilement voir des différence avec 1000
Un moniteur de 27 pouces en 8K a une densité de pixels de 326 ppi, et 8k avec du 55" à bien moins que ça.

Maintenant : c'est comme dans la réalité.
Si tu souhaite admirer les détails d'un tableau, tu ne te met pas à 10 m de lui.
Et si tu veux voir un tableau dans son emsemble tu ne te colle pas non plus le nez à un endroit.
Hormis dans les smartphone ou on commence à atteindre le seuil où on ne vois pas de différence significative en augmentant la résolution (à cause de la taille réduite des diagonales, justement) il y a des gains visuel possible dans toute les autres dimensions de dalle , pour peu que les utilisateur aient l'acuité visuel pour les percevoir.
c'est un peu comme une photo ; vaut mieux une photo en 1920x1080 imprimé sur un format d'envelloppe, qu'une photo en 4k imprimé sur un poster de 3 mètre par 4


Extrait :

PPI et taille d’écran​


Prenons un exemple. Imaginez que vous avez deux moniteurs en face de vous, tous les deux avec une résolution Full HD 1080p. Cela signifie donc qu’ils ont tous les deux 1920 pixels en largeur et 1080 pixels en hauteur. Maintenant, imaginez que l’un d’eux soit un écran de 32 pouces et l’autre un écran de 25 pouces. Vous devez commencer à voir en quoi la densité de pixel peut jouer un rôle. Car si ces deux écrans proposent le même nombre de pixels, ceux du moniteur de 32 pouces sont répartis sur une surface beaucoup plus grande. Le moniteur de 25 pouces, plus petit, aura une densité de pixels plus grande, ce qui se traduira par des images plus nettes.


Plus la densité de pixels est grande, mieux c’est, non ?​


Eh bien, oui et non. Si, de manière générale, une plus grande densité de pixels est plutôt une bonne chose, celle-ci devient un inconvénient à partir d’un certain point. En effet, plus elle sera grande et plus les avantages qu’elle offre en termes de netteté seront réduits, jusqu’à atteindre un point où ceux-ci deviendront simplement indétectables à l’œil nu.


Dans l’exemple que nous prenions dans le paragraphe précédent, le moniteur de 25 pouces aurait une densité de pixel de 88 ppi, alors que le moniteur de 32 pouces aurait une densité de pixels de 69 ppi. Dans ce cas, on remarquera évidemment quelques différences dans la qualité des images affichées par ces deux écrans, le plus petit offrant bien sûr une image plus nette. Et aujourd’hui, pour un exemple qui parlera à tout le monde, il est courant que nos smartphones disposent de densités de pixels allant de 300 ppi jusqu’à plus de 500 ppi.


Le problème, c’est qu’il s’agit exactement du moment à partir duquel la question de l’utilité d’un plus grande densité de pixels commence à faire débat. Pour certains, la densité de pixels optimale se situe autour de 400 ppi, quand d’autres affirment que l’œil humain peut détecter jusqu’à 1000 ppi. Comme il s’agit surtout d’une préférence personnelle, le meilleur conseil que l’on puisse donner à ce sujet c’est de d’abord essayer les moniteurs par vous-même avant de les acheter.
 
Dernière édition:

Raionoragon

Expert

Oublie pas la densité de pixel.
Dans un sens ton message est correct, mais ça rappel fortement les vieux mythes de " l'humain ne peux pas voir plus de 60 im/s"
Y'a des téléphone (dont la diagonal est très courte évidemment) avec 400 dpi, mais il semblerait que l'humain peuvent facilement voir des différence avec 1000
Un moniteur de 27 pouces en 8K a une densité de pixels de 326 ppi, et 8k avec du 55" à bien moins que ça.
Très intéressant comme article (y)
Mais je n'ai aucun doute sur les capacités de fréquences et de résolutions de l'œil humain, c'est bien au delà de ce que les gens pensent.

D'ailleurs, concernant la résolution de l'œil humain, il y a un bon article réalisé par Cobrason qui apporte plus de précision sur le sujet :

La partie la plus intéressante est celle-ci :

Peut-on déterminer la définition d’un œil humain ?​


A la différence d’un téléviseur, l’œil humain ne contient pas de pixels. Ce qui pourrait s’en rapprocher le plus sont les cônes et les bâtonnets, situés sur notre rétine. Mais si nos yeux ne voient pas en termes de pixels, on ne peut donc pas les comparer avec un écran de télévision ? Un scientifique a tout de même tenté l’expérience grâce à des calculs mathématiques très poussés. Le résultat est impressionnant : d’après lui, la définition d’un œil humain correspondrait à 576 millions de pixels ! C’est environ 17,5 fois plus que ce qu’un téléviseur 8K peut afficher. Cette définition ne pourrait toutefois être atteinte que sur la zone optimale (fovéa), et dans certaines conditions. Un coup d’œil rapide plafonnerait entre 5 et 15 millions de pixels. Enfin, notons que les yeux humains ont des défauts que les appareils numériques n’ont pas (tache aveugle, myopie, hypermétropie)…

Donc théoriquement, on est à l'aise. Mais dans le concret, je demande à voir. Je pense que ce seront des facteurs déterminants pour ceux qui sont assez proche de leur écran, étant directement concerné, je pourrai apprécier le changement ou non mais j'y crois malgré tout. Par contre, de loin, je suis moins convaincu que la différence soit perceptible, sauf sur les écrans de très grande taille ;)
 

dedzix

Grand Maître
La clé est de donner de la cohérence entre ses besoins son matériel et son utilisation.

Je dirais que pour une utilisation de bureau donc avec peu de recul il n'est pas nécessaire de prendre un écran supérieur à 32 pouces ou son équivalent en version ultra wide en 37 pouces.

A ses diagonales la, pour un rapport qualité prix optimal le qhd est suffisant. il vaut mieux investir dans un bon écran qhd aux alentours de 500euro plutôt que prendre un mauvais 4k. Pour info un 4k de qualité c'est 1000 euro et est conditionné par la puissance de la carte vidéo.

L'avantage du qhd est de pouvoir atteindre "facilement" 100hz voire 144hz. A mon sens c'est le compromis parfait dans le milieu de gamme en attendant que le Oled se developpe pour les moniteurs pc.
 

AccroPC2

Fou du PC
Staff
Hello,

Je ne suis pas d'accord, pour plusieurs raisons. Déjà tu as de très bons écrans 4k sous les 700€ ne serait-ce que le Dell G3223Q ou le Gigabyte M32U. Des dalles IPS 4K@144Hz. Cela reste 2x plus cher qu'un bon WQHD. ( on ne parle pas d'écran pour graphiste bien entendu )

ex :

Perso j'ai touché un G3223Q à 560€.
Ensuite faire du WQHD ( 1440p )@144Hz c'est aussi exigeant que du 4K@60 Hz. La vraie question c'est l'usage. Si tu joues comme moi principalement à des RPG alors le 4K@60Hz est très supérieur à du 1440p. Si le but c'est du FPS compétitif alors il faut partir sur du 1440p.

La 1ère carte qui te permet de jouer en 4k dans de bonnes conditions c'est la 6950XT, trouvable à 650€. Attention cependant à la consommation électrique ( 850w mini ). Chez Nvidia faut au moins partir sur une 4070Ti voire une 4080.

Ensuite il ne faut pas oublier que le 4k c'est exactement du Full HD x2, que ça soit chez AMD ou NVidia, les cartes sont parfaitement capable de faire de l'upscale du FullHD en 4K avec un rendu bluffant.

Bye
 

dedzix

Grand Maître
Hello,

Je ne suis pas d'accord, pour plusieurs raisons. Déjà tu as de très bons écrans 4k sous les 700€ ne serait-ce que le Dell G3223Q ou le Gigabyte M32U. Des dalles IPS 4K@144Hz. Cela reste 2x plus cher qu'un bon WQHD. ( on ne parle pas d'écran pour graphiste bien entendu )

ex :

Perso j'ai touché un G3223Q à 560€.
Ensuite faire du WQHD ( 1440p )@144Hz c'est aussi exigeant que du 4K@60 Hz. La vraie question c'est l'usage. Si tu joues comme moi principalement à des RPG alors le 4K@60Hz est très supérieur à du 1440p. Si le but c'est du FPS compétitif alors il faut partir sur du 1440p.

La 1ère carte qui te permet de jouer en 4k dans de bonnes conditions c'est la 6950XT, trouvable à 650€. Attention cependant à la consommation électrique ( 850w mini ). Chez Nvidia faut au moins partir sur une 4070Ti voire une 4080.

Ensuite il ne faut pas oublier que le 4k c'est exactement du Full HD x2, que ça soit chez AMD ou NVidia, les cartes sont parfaitement capable de faire de l'upscale du FullHD en 4K avec un rendu bluffant.

Bye
Pour utiliser l'upscaling avec le DLSS, je trouve le rendu très terne/fade pourtant réglé en qualité.

Pour avoir deux écrans en 4k et WQHD, je trouve personnellement que le WQHD est bien plus polyvalent ne nécessitant pas forcément une config à 2000€ pour tourner correctement.

La vraie différence c'est le OLED, et là il faut avouer que le rendu est d'une autre catégorie seulement le prix aussi ...
 

sosombre

Expert
Pour utiliser l'upscaling avec le DLSS, je trouve le rendu très terne/fade pourtant réglé en qualité.

Pour avoir deux écrans en 4k et WQHD, je trouve personnellement que le WQHD est bien plus polyvalent ne nécessitant pas forcément une config à 2000€ pour tourner correctement.

La vraie différence c'est le OLED, et là il faut avouer que le rendu est d'une autre catégorie seulement le prix aussi ...
C'est peut être une question de taille justement.
Si je règle mon écran 4K (55 pouce) en 1440p : ça va être dégeulasse. La densité de pixel va énormement chuter.
Mais si j'avais un écran plus petit, je verrais moins la différence
 
Vous devez vous inscrire ou vous connecter pour répondre ici.
Derniers messages publiés
Statistiques globales
Discussions
730 137
Messages
6 718 161
Membres
1 586 399
Dernier membre
mehdivil59
Partager cette page
Haut