C'est normal, explications.
Tu fais tourner un jeu de combat, tu y vois des soldats qui avancent, tirent.
Des véhicules qui roulent, des explosions...
Un tas de choses!
Voyons de plus près le cas du soldat qui court.
Il a une forme (de soldat MDR), il a une texture, une ombre, de la lumière qui lui est appliquée, mais aussi de la physique (Gravité, force si il se fait toucher par l'explosion d'une grenade, un raycast si il décide de tirer...)
Bien, à présent on regarde un ordinateur de plus près, les principaux composants dans un jeux sont le CPU et la CG.
La CG son utilité peut être résumée en un verbe: afficher.
C'est aussi bête que cela.
Elle va donc afficher ce fameux soldat, la lumière qui lui est appliquée, son ombre, sa texture, l'environnement, etc.
Mais avant de pouvoir afficher tout ceci, il y a toutes sortes d'opérations effectuées auparavant.
Un objet 3D dans un jeux est composé de points dans un espace (repère orthonormé).
Ces points sont reliés par des vecteurs (précompilés, heureusement) pour former une matrice, un mesh.
Et sur c'est sur ce mesh on va appliquer une texture, lumière etc.
Mais... À chaque image par seconde, ce mesh doit être calculé (pour simuler un objet en mouvement, y a des exceptions si par exemple on a un batiment dit "statique")
Le soldat avance... Une animation doit être appliquée dessus, ainsi que de la physique, et ce durant toutes les images.
et c'est calculé par qui? Le cpu...
Une fois le soldat calculé il est envoyé à la CG avec tous les paramètres correspondants pour qu'elle l'affiche ensuite.
Admettons que, ton jeux tu décides de jouer en 1080p en médium (Comme dans le test) D'un seul coup ta CG se retrouve avec des textures beaucoup moins lourdes à appliquer, ainsi que un lightning plus léger, et une résolution plus grossière (et donc moins de pixels à afficher.)
C'est facile pour elle! En contrepartie elle donnera plus d'images par secondes.
Mais, pour offrir plus d'images par secondes, plus de mesh doit être calculé, plus de physique, d'ombres, de lumière...
Calculés rappelons le par le CPU.
Et c'est là où il s'étrangle...
D'ailleurs remarque, en 4k dans ton lien il n'y a jamais de différences.
C'est juste parce que la 4k est une résolution qui cloue toutes les CGs d'aujourd'hui. (4X plus de pixels à afficher qu'en 1080p!!)
Après c'est assez sommaire mon explication, il y a dans une machine plus de cas de bottleneck que le CPU et le GPU. (Le bus CPU par exemple, le paramètre principal qui fait que la puce M1 d'Apple est si "puissante").