FreeSync et VRR (Variable Refresh Rate) : guide et infos pour tout comprendre

«Tout savoir sur le VRR sur Xbox One» le 5 mai @ 13:002018-05-05T13:12:21+02:00" - 23 réaction(s)

C’est quoi le FreeSync ? À quoi sert le VRR ? Comment activer le FreeSync sur Xbox One ? La technosphère est en émoi. Depuis un CES marqué par l’annonce de téléviseurs au marketing centré sur les joueurs et de moniteurs évoluant toujours, ou encore depuis l’annonce de sa prise en charge sur Xbox One, le Variable Refresh Rate (VRR) est sur toutes les lèvres. Cette “nouvelle” technologie apporte avec elle nombre de termes barbares (FreeSync, G-Sync, Adaptive Sync…) et autant d’interrogations. À quoi ça sert ? Comment ça marche ? Que faut-il faire pour en profiter ? Voilà donc le guide complet qui répond à vos questions.

À quoi sert le Variable Refresh Rate (VRR) ?

Avant toute chose, pour bien comprendre l’objectif et les avantages du VRR, il est nécessaire de s’attarder sur les problèmes que la technologie est censée résoudre. C’est parti pour la minute (ou deux) technique.

On parle ici jeu vidéo. On a donc d’un côté une source (PC, console) et de l’autre un afficheur (moniteur, TV).

Côté source, les PCs et consoles doivent calculer chaque image avant de les envoyer à l’afficheur. Le temps nécessaire à ce calcul dépend de la puissance de la machine et du volume de données à calculer. Ce volume varie constamment au cours du jeu, potentiellement d’une image à l’autre selon que l’on regarde un simple mur ou que l’on assiste à une bataille avec plein d’effets, d’IA, etc.

Côté afficheur, tout écran quel qu’il soit affiche le flux qu’il reçoit à une fréquence fixe qui dépend de ses caractéristiques et de son réglage. Par exemple, un écran 60Hz rafraîchit l’affichage 60 fois par seconde. Chaque image est ainsi affichée en 1/60e de seconde, soit 16,67ms, au cours desquelles l’écran balaye progressivement l’image reçue de haut en bas, une ligne après l’autre (balayage vertical).

Pour résumer, nous avons donc d’un côté une source qui envoie des images à intervalles irréguliers, et de l’autre un écran qui affiche ces images à intervalles parfaitement réguliers. En résultent des phénomènes de désynchronisation auxquels des systèmes tels que V-Sync, G-Sync et FreeSync, ou VRR de manière plus générale, tentent de remédier.

Voici comment devrait s’afficher une image à l’écran

Dans un monde idéal, un développeur arriverait à faire rentrer tout ce qu’il est nécessaire de calculer dans le temps qu’il est nécessaire à l’écran pour afficher chaque image, quoiqu’il se passe dans le jeu. Ainsi, pour un écran 60Hz, chaque image serait calculée en 16ms puis envoyée à l’écran, qui l’afficherait tandis que l’image suivante est calculée dans le même temps, et ainsi de suite. Il en résulterait un jeu tournant parfaitement à 60 images par seconde.

JPEG - 70.5 ko
à l’écran on voit correctement 1 - 2 - 3 - 4

C’est là tout l’enjeu de “l’optimisation”, si souvent décriée. Mais si le sacro-saint 60fps n’est pas la priorité du développeur, celui-ci peut envisager l’alternative non moins optimisée d’une image calculée tous les 2 rafraîchissements d’écran, et profiter du double de temps, soit 32ms, pour effectuer davantage de calculs. En résulte un jeu tournant à 30 images par seconde, avec potentiellement plus de choses à l’écran, une meilleure IA, une meilleure physique (aaaahhh la physique), mais une image moins fluide en mouvement, l’afficheur répétant alors chaque image une fois.

JPEG - 67.6 ko
à l’écran on voit correctement 1 - 1 - 3 - 3

L’essentiel est que la source soit synchrone avec l’afficheur, que chaque image soit envoyée en début de rafraîchissement d’écran, même une fois sur deux, mais donc à intervalles parfaitement réguliers.

Le défaut à éviter : le tearing

Que se passe-t-il donc lorsque ce temps de calcul n’est pas stable et se termine au beau milieu d’un cycle de rafraîchissement d’écran ? La source et l’afficheur ne sont plus synchronisés. La source envoie une image alors que l’écran est en train de balayer la précédente. Lorsque l’image en sortie de calcul n’est pas prête en début de rafraîchissement de l’écran, celui-ci commence à balayer à nouveau l’image précédente (restée en mémoire tampon, “framebuffer” en anglais, qui commande l’affichage entre le GPU et l’écran), et finit son balayage avec les informations de l’image suivante lorsque celles-ci sont envoyées. Il en résulte une “déchirure” (“tear” en anglais, ou effet de “tearing”) à l’écran qui affiche à la fois le haut de l’image précédente et le bas de l’image suivante.

JPEG - 74.5 ko
à l’écran on voit 1 - 1/2 - 2/3 - 3/4

V-Sync : la synchronisation verticale

C’est pour éviter ce phénomène particulièrement désagréable qu’a été conçue la V-Sync, (pour synchronisation verticale, relativement au sens du balayage). Naturellement il a d’abord été souhaité régler les choses côté source plutôt que faire évoluer les normes de l’industrie des moniteurs et TV. À la source de se caler sur l’écran, et pas l’inverse. A donc été créée une technologie retenant simplement chaque image jusqu’au cycle de rafraîchissement d’écran suivant avant d’envoyer l’image. Faisable avec une simple horloge calée sur le rafraîchissement d’écran (réglable par l’utilisateur en PC du fait de la multiplicité des moniteurs ou prédéfini en console car invariable en TV), cela crée néanmoins des micro-saccades et du retard.

  • Des micro-saccades, ou “stutter” en anglais, traduit de façon assez imagée par “bégaiement” car chaque image peut alors être répétée plus ou moins de fois que la précédente ou la suivante, nuisant fortement à l’impression de fluidité.
  • Du retard, “lag" en anglais, car c’est tout le cycle de calcul qui s’en trouve retardé, attendant que l’image précédente soit envoyée avant d’entamer le calcul de l’image suivante. On est là dans une autre forme d’input lag que celle fréquemment rencontrée dans les spécifications d’écran. Ces derniers (hors cathodiques) mettent en effet un certain temps pour traiter ce qu’ils reçoivent avant d’entamer le balayage. Ces deux formes de retard sont donc malheureusement bel et bien à additionner.
JPEG - 68.1 ko
à l’écran on voit 1 - 1 - 2 - 3, pas le temps de voir 4

Comment fonctionne le VRR ?

Rappelons ici que le principe de fréquence de rafraîchissement fixe sur nos moniteurs et TV est un vieil héritage de l’ère des tubes cathodiques, et de leur nécessaire compatibilité avec les réseaux de distribution électrique. D’où les écrans 50Hz en France du fait du réseau EDF et 60Hz aux Etats-Unis par exemple. Cela fait pourtant déjà quelques années, surtout depuis l’avènement du numérique et des écrans LCD en fait, dont la technologie permet de retenir une image à l’écran sans la rafraîchir (contrairement aux tubes cathodiques), que les écrans savent prendre en charge différentes fréquences en entrée. Mais personne ne s’était jusque-là penché sur la possibilité de modifier cette fréquence de rafraîchissement “à la volée”.

C’est alors que, voyant dans l’industrie du “gaming” toujours plus florissante une nouvelle source de clientèle, le monde des TV et moniteurs s’est décidé à sortir de son carcan suranné.

Arrive enfin le VRR, pour Variable Refresh Rate (Fréquence de Rafraîchissement Variable, FRV en bon François), la technologie amie des gamers, ou presque. Rappelez-vous le principe illustré plus haut : “à la source de se caler sur l’écran”. So 2017… Il est désormais possible de faire communiquer ensemble source et afficheur, afin que ce dernier ne rafraîchisse l’affichage que lorsque la source le lui ordonne, donc dès qu’une image est prête. Qu’en résulte-t-il ? Plus de désynchronisation possible. Plus de “tearing”, plus de “stuttering”, pour une impression de fluidité grandement améliorée, et un retard largement diminué.

JPEG - 61.3 ko
à l’écran on voit bien 1 - 2 - 3 - 4

Avantages du VRR

Outre les défauts de synchronisation que la techno renvoie au rang de mauvais souvenirs, le VRR permet également des fréquences d’images plus variées ! En effet, si les développeurs visaient jusqu’à aujourd’hui dans leurs jeux des performances (en images par seconde) compatibles des écrans 60Hz, ils n’avaient comme choix que de viser 30 ou 60 fps et faire appel à la V-Sync pour rattraper les aléas. Maintenant nous pouvons voir naître toutes sortes de fréquences d’images intermédiaires ! Imaginez qu’un développeur, pour quelque raison que ce soit, n’arrive pas à faire rentrer tous ses calculs dans les 16ms que requiert le fameux 60fps, mais nécessite continuellement 17ms. Il proposait jusqu’alors soit un jeu au tearing permanent (injouable), soit un titre bourré de micro-saccades et de lags (inconfortable), ou se rabattait alors sur un mode en 30 fps ultra stable car avec une énorme marge. Eh bien il peut désormais ne plus se casser la tête et lâcher les chevaux, car son jeu tournera dans un parfait 58 fps (17ms par calcul). On ne verra même plus la différence avec le 60 fps !

Réserves à propos du VRR

Ce nouveau paradigme déplace sensiblement l’enjeu de l’optimisation que tout joueur attend d’un développeur, ou tout du moins le VRR peut contribuer à réduire le travail nécessaire en la matière. Toujours est-il que l’on espère que cette technologie ne sera employée que pour rattraper les dérives du code ou les surcharges temporaires, et que la stabilité demeurera un objectif prioritaire des développeurs. On espère également que les studios maintiendront suffisamment d’énergie pour atteindre les meilleures performances possibles, que ceux-ci ne se contenteront pas de ce que permet la technologie pour nous dire que “50 fps c’est déjà pas mal, c’est toujours mieux que 30” là où ils auraient avant cela fait la chasse au superflu et réussi à sortir un jeu en 60 fps.

Bonus : le HFR, alias le High Frame Rate

Petit détail qui n’en est pas un, sorti de l’exemple du 60Hz/60fps, la techno embarque avec elle le fameux HFR pour High Frame Rate (Fréquence d’Images Elevée) et peut alors emmener les jeux vers de nouvelles sphères de fluidité, jusqu’à plus de 120 fps ! Amis pro-gamers bonjour ! Oui toi, DarkSephiroth666, qui chantais tes propres louanges à faire tourner CSS à 120 fps sur ton PC master race, avec un écran 60Hz… Tu ne seras plus jamais ridicule ! Enfin presque, car voilà le temps de réponse (temps nécessaire à un pixel pour changer d’état) que les écrans devront atteindre pour n’afficher qu’une seule image à la fois à 120Hz : 8ms, grand max (à ne pas confondre avec l’input lag, rien à voir) ! On oublie donc direct les dalles IPS (+/-16ms) et VA (+/-12ms), soit 90% des afficheurs du marché, on se tourne vers les dalles TN (+/-5ms) mais avec les défauts qu’on leur connait (la luminosité, les angles de vision, etc.), ou alors on met de côté pour un futur écran OLED (<0,1ms) ! Sinon bonjour le ghosting (dédoublement d’image) et autres artefacts en tous genres lors de séquences en mouvement.

Le VRR en application : c’est encore compliqué

Pour en revenir à nos moutons, le principe de VRR est mis en oeuvre de façons somme toute très différentes selon que l’on s’appelle nVidia ou AMD, les principaux constructeurs de GPU à même donc d’employer ce nouveau canal de communication entre source et afficheur.

De son côté, nVidia propose le G-Sync, un système propriétaire de bout en bout. Cela signifie que l’afficheur doit être équipé d’une puce nVidia réceptionnant les données du GPU et commandant l’affichage à l’écran. Ce parti pris induit une offre d’écrans plus limitée, car il n’est pas gratuit pour un constructeur d’inclure cette technologie dans son produit. Mais cela permet une plus grande maîtrise du catalogue d’écrans en regard de leurs capacités, pour des résultats potentiellement possibles sur une plus grande gamme de fréquences que son concurrent. Aussi, cela permet à nVidia d’ajouter des fonctions à son système, comme ils l’ont fait d’emblée avec leur ULMB (Ultra Low Motion Blur) améliorant significativement l’impression de fluidité à de très faibles taux d’images par seconde.

AMD quant à lui répond avec le FreeSync, un système employant un canal de communication totalement ouvert pour faire communiquer ses GPU et les afficheurs : l’Adaptive Sync. Derrière ce nom se cache un standard permettant à une source de commander le rafraîchissement d’écran, et donc la mise en oeuvre du VRR. Supporté par les interfaces DisplayPort dès 1.2a et HDMI dès 2.0 (avec quelques réserves pour le moment que l’on vous détaille juste après), ce standard VESA (Video Electronics Standards Association) a l’énorme avantage d’être ouvert et de n’imposer quasiment aucun surcoût au constructeur souhaitant le proposer. Ainsi, tous les moniteurs employant l’une ou l’autre de ces interfaces, de plus en plus nombreux, se retrouvent de facto potentiellement compatibles FreeSync. L’offre est donc très large, mais le cahier des charges moins maîtrisé, avec donc une efficacité du système davantage dépendante des caractéristiques des moniteurs. AMD tient ainsi sur son site une liste des appareils compatibles et de leurs gammes de fréquences de rafraîchissement utiles au FreeSync.

À noter que dans leurs premières versions, ni le G-Sync de nVidia ni le FreeSync de AMD ne sont compatibles HDR. Si nVidia y planche en prévoyant de sortir prochainement son G-Sync HDR, AMD quant à lui est déjà en train de déployer son FreeSync 2 embarquant la compatibilité HDR via DisplayPort et HDMI.

Côté HDMI, le débit de sa version 2.0 est limité de par sa structure à un flux 4K HDR @60Hz. Donc en attendant le HDMI 2.1 (4K HDR @120Hz), qui vient d’être spécifié fin 2017 mais pas encore sur le marché, il n’est pas encore possible de profiter d’une fréquence supérieure à 60Hz en 4K et HDR, mais seulement en Full HD. De par ses énormes spécifications, il est possible de ne voir le HDMI 2.1 arriver sur les écrans qu’en 2019, l’argument seul du gaming n’étant peut-être pas suffisant pour un constructeur pour intégrer cette nouvelle interface dès maintenant. Microsoft de son côté clame avoir fait de sa Xbox One X une console compatible HDMI 2.1, alors que les spécifications de la norme n’étaient pas finalisées lors de sa conception. Il est probable que MS ait prévu de ne prendre en charge qu’une partie des spécifications pour une implémentation convenant à leur plan, car Bradley Rossetti, responsable Xbox Insider, vient d’ores et déjà d’annoncer l’arrivée prochaine dans le programme Insider de la prise en charge du 120Hz sur Xbox One en Full HD mais aussi en 1440p ! Quid du 4K et du HDR dans ces sphères de fréquences d’images ? Wait and see.

Xbox One et VRR

Et la Xbox, parlons-en justement, car c’est bien l’arrivée de la prise en charge du VRR sur One qui a motivé la rédaction de ce dossier. En mars dernier, Microsoft annonçait en effet l’arrivée prochaine du VRR sur toutes les consoles de sa gamme, Xbox One X, Xbox One S et Xbox One originale. Chacune d’entre elles embarquant des GPU AMD, c’est donc le FreeSync qui est de la partie, et même FreeSync 2 (compatible HDR) sur One S et One X ! Et c’est une excellente nouvelle, car comme vu précédemment, du fait de l’emploi d’une interface open source, l’offre compatible FreeSync est potentiellement bien plus variée et la techno plus applicable à l’industrie TV !

Jusque-là réservée au programme Insider, l’option, que vous retrouverez dans les paramètres d’affichage de la console, fait partie de la mise à jour de printemps dont le déploiement débute tout juste à l’heure où nous écrivons ces lignes.

PNG - 72.4 ko

Pour résumer, sachez donc que la prise en charge du VRR sur Xbox n’est disponible qu’avec des écrans FreeSync, donc pas avec les écrans G-Sync. Il faut pour cela un écran compatible FreeSync, ou FreeSync 2 si vous souhaitez profiter du VRR en HDR sur One S et One X, via HDMI 2.0 minimum. Microsoft annonce le support des résolutions 720p et 1080p sur toute sa gamme, 1440p sur One S et One X, et 4K sur One X. Nous le disions plus haut, la nouvelle vient de tomber, Microsoft vient d’annoncer en plus l’arrivée prochaine dans le programme Insider de la prise en charge du 120Hz sur Xbox One, mais pour le moment seulement en Full HD et 1440p.

Quel écran/moniteur compatible VRR choisir ?

La question que vous devez sûrement vous poser maintenant est : mais du coup, avec quel écran est-il possible de profiter de tout ça ?

Vous l’aurez sans doute compris si vous êtes arrivés jusque là, si vous souhaitez profiter du VRR sur moniteur, deux solutions s’offrent à vous, celle de nVidia ou celle de AMD. Le choix est donc assez varié, et vous ne devriez pas avoir trop de mal à trouver du matériel compatible.

Côté nVidia donc, avec son G-Sync imposant un certain surcoût au constructeur qui doit implanter le module de la marque dans son écran, la gamme ne débute qu’à partir de 399€ et s’étend jusqu’à du haut de gamme à plus 1000€. Attention, nous rappelons que ces produits ne sont pas compatibles du VRR sur Xbox, pour cela rendez-vous directement à l’offre compatible FreeSync d’AMD.

Acer Predator XB241 - 400€ - Ce moniteur propose une Dalle TN 24 pouces seulement Full HD (1920x1080) mais rafraîchie à 144Hz, overclockable à 180Hz ! Si l’on connait les défauts des dalles TN avec leurs angles de vision restreints et une colorimétrie moyenne, elles ont en revanche l’énorme avantage de proposer les meilleurs temps de réponse (à ne pas confondre avec input lag) du marché. Ce moniteur est ainsi présenté avec un temps de réponse de 1ms (!!!) que l’on aimerait bien voir confirmé en mesure, essentiel pour profiter de très hautes fréquences de rafraîchissement.

Acer Predator XB271 - 700€ - Voilà où les prix débutent si vous souhaitez profiter du G-Sync en 4K, mais vous serez alors limité à 60Hz et ne pourrez profiter des joies du HFR. Nous n’avons d’ailleurs trouvé aucun écran G-Sync 4K proposant une fréquence de rafraîchissement supérieure à 60Hz .  

 

 

AOC AGON AG352UCG - 900€ - Mieux vaut se rabattre sur la résolution phare des moniteurs. En 1440p vous pouvez profiter du G-Sync jusqu’à 100Hz. Attention toutefois à la qualité de la dalle MVA de ce moniteur et au chèque qu’il impose, mais on est là sur du 35 pouces tout de même !

 

Côté AMD, du fait de l’emploi d’une interface open source pour leur FreeSync, la gamme est bien plus vaste et plus étendue. Elle débute à à peine plus de 100€ pour aller jusqu’à plus de 2000€ ! Mais attention à la tenue du cahier des charges alors très fluctuante, nous ne saurions que trop vous conseiller de consulter les tests des références qui vous intéressent car la mise en oeuvre du FreeSync peut avoir des limitations très variables d’un modèle à un autre (plage de fréquence utile limitée, seulement disponible en Full HD même sur écran 4K, etc.). Vous pouvez également commencer par la page AMD recensant tous les moniteurs compatibles (voir ici) avec leurs principales caractérisques (dalle, taille, résolution, fréquence de rafraîchissement), elle est très bien faite.

AOC G2260VWQ6 - 120€ - Entrée de gamme de la marque mais déjà compatible FreeSync jusqu’à 75Hz, ce moniteur seulement Full HD embarque une dalle TN avec encore ses angles de vision et colorimétrie perfectibles mais une nouvelle fois avec un temps de réponse présenté à 1ms, à faire confirmer par les tests. Mais à 120€, difficile de demander mieux !

 

JPEG - 14 ko

Asus MG28UQ - 480€ - Et voilà un bon début pour profiter du FreeSync avec un écran 4K. Nous disons bien “avec un écran 4K” et non “en 4K” car nous l’avons vu tout récemment dans le test de la fonction par Digital Foundry avec le modèle VP28 que le FreeSync n’était disponible qu’en Full HD même sur cet écran 4K. Attention donc et rendez-vous à la case tests pour bien connaître les détails de compatibilité FreeSync.

 

JPEG - 9 ko

Philips 349X7FJEW - 800€

Et oui Philips fait également des moniteurs, et pas des moindres ! Voilà ce qu’il en coûte pour un écran en 1440p, FreeSync jusqu’à 100Hz, avec sa dalle VA UltraWide. Attention à son temps de réponse toutefois, encore une fois passez par la case tests pour plus de détails.

 

JPEG - 8 ko

Samsung C49HG90 - 1400€

Et enfin, pour le plaisir, on ne résiste pas à mentionner la dernière bête de Samsung, qui propose ici un écran Extra Large 144Hz de 49 pouces (!) en 32:9 (!!) et FreeSync 2 (!!!) équipé de leur dernière technologie QLED, et démontrant tout l’intérêt que porte la marque coréenne à la communauté Gaming. Le lien est tout trouvé pour aborder l’offre TV.

Quel écran TV VRR choisir ?

Si vous souhaitez en revanche un téléviseur qui gère toutes ces technologies, le choix est beaucoup plus restreint. Longtemps réservé au PC, le VRR débarque dans le monde des consoles via la Xbox One, et Microsoft s’est allié, comme l’an dernier, à Samsung pour proposer une expérience de jeu exemplaire sur les télés du géant coréen. De ce fait, la gamme 2018 (et uniquement 2018) de téléviseurs Samsung QLED est la seule compatible VRR via FreeSync sur le marché. De plus, les téléviseurs Samsung sont réputés pour offrir les mesures d’input lag les plus basses jamais mesurées sur une télé. Ils ont encore amélioré ces mesures cette année et on parle d’un input lag de 15ms en mode jeu, avec en prime la possibilité d’activer un moteur de compensation de mouvement exclusif à ce mode (bien entendu désactivable) pour quiconque souhaiterait “fluidifier” son image tout en gardant un très bon input lag de 24ms. Une mesure encore bien en dessous de la majeure partie des téléviseurs du marché même en mode jeu et sans compensation de mouvement.

JPEG - 46.5 ko

Malheureusement ces technologies ont un prix, et pas des moindres… La gamme QLED 2018 compatible FreeSync de Samsung débute à 1999€ avec le 55” Q7F, quand le fer de lance de la marque, le Q9 est lui proposé à 2999€. Petite précision toutefois, ce dernier est un modèle full-led, soit un téléviseur LCD haut de gamme, un marché auquel nous ne sommes pas habitués en France. Il ne faut donc pas s’étonner de voir son tarif concurrencer celui de modèles OLED, estimés systématiquement, à tort, supérieurs en tous points. Attention également à ne pas vous tromper, les modèles QLED 2018 portent le même nom que les 2017 (la bonne idée ! ) à savoir Q7, Q8 et Q9, mais seules les versions 2018 embarquent les technologies décrites ci-dessus.

Lexique et définitions

VRR : Variable Refresh Rate, Fréquence de Rafraîchissement Variable, aussi appelé FRV. Nom du principe permettant à un afficheur d’ajuster sa fréquence de rafraîchissement à la volée. Attention ceci n’est pas une norme. Apposé sur un produit, ce terme ne présente aucune garantie de la technologie employée ou des capacités du système.

G-Sync : C’est le nom de la technologie de nVidia permettant le VRR à travers un canal de communication propriétaire entre source et afficheur. Source et afficheur doivent être compatibles.

FreeSync : C’est le nom de la technologie de AMD permettant le VRR à travers un canal de communication open source entre source et afficheur. Source et afficheur doivent être compatibles.

Adaptive-Sync : standard VESA (Video Electronics Standards Association) du canal de communication permettant à un afficheur de se synchroniser à la source. Nécessaire pour le FreeSync de AMD.

HFR : High Frame Rate, Fréquence d’Images Élevée. Désigne des fréquences d’images supérieures à 60 images par seconde. Disponible uniquement sur des écrans aux capacités de rafraîchissement supérieures à 60Hz (communément 75Hz, 100Hz, 120Hz, 144Hz).

V-Sync : Synchronisation Verticale. Technologie permettant d’éviter les déchirures d’image à l’écran (aussi appelé communément “tearing”).

Adaptive V-Sync : non abordé dans ce dossier et à ne pas confondre avec Adaptive Sync. Il s’agit de la V-Sync “dynamique" de nVidia dont il est possible de régler la plage de fréquence où l’on souhaite qu’elle s’active ou se désactive.

Conclusion

Qu’il est fascinant le monde de l’industrie vidéoludique par moments. Le VRR n’intéressera probablement pas la majorité des joueurs, ses effets ne seront peut-être réellement appréciés que par une minorité d’entre eux, mais force est de constater que nous vivons là une petite révolution. Jamais l’industrie du jeu vidéo n’avait jusqu’alors tant fait bouger les lignes d’une autre industrie aussi grand public et massive que celle des téléviseurs (dans une moindre mesure celle des moniteurs). On assiste ici à la naissance d’un nouveau paradigme, fait de la prise en compte des besoins des joueurs, et uniquement des joueurs, à la base de la conception d’afficheurs, et jusque dans la remise en cause de celle-ci. Une nouvelle démonstration s’il en fallait une de l’ampleur qu’a pris l’industrie vidéoludique ces dernières années.

Comme à notre habitude chez Xboxygen, ce dossier a été préparé avec passion et est le fruit de nombreuses recherches et réflexions sur le sujet. Nous espérons qu’il suffira aussi bien à répondre aux interrogations des plus technophiles qu’à étancher la soif des plus curieux. N’hésitez pas à faire part de vos remarques ou expériences dans les commentaires !

Xbox One X

Accueil > News

23 reactions

bastoune

04 mai 2018 @ 18:27

Pfiou, quel boulot ! Merci Jony. J’ai pas tout pigé mais j’ai tout lu ;-) Il serait bon de nous faire un petit tuto pour bien nous expliquer comment bien positionner son écran avec ses baffles, avec les distances optimales et les angles qui vont bien parce que des fois on est un peu perdu :’-))

En tout cas merci pour tout ça, Xboxygen toujours à la pointe avec des articles de grande qualité, tant rédactionnelle que technique, chapeau bas :-)B-)

GigaTRIPELX

04 mai 2018 @ 18:39

C’est sûrement @Jony ! Good job ! Thx pour ce tuto à lire plusieurs fois afin de commencer à bien comprendre !

GigaTRIPELX

04 mai 2018 @ 18:43

Pour les concernés*

UFSAYAN11

04 mai 2018 @ 20:11

Salut !! Article excellent merci !!!

En ce qui concerne l’écran en 32:9,

L’image serait étirée ou avec ses bande noires ?

Ou alors les champ de vision élargi, comme un triple écran ?

micordi

04 mai 2018 @ 21:34

Article tres complet , felicitations.

Mais pourquoi ne pas parler du 27/32HG70 ,1440p, HDR, 144Hz, freesync 2....?

On trouve la version 32" a 499€ sur amazon it

mafaceenligne

04 mai 2018 @ 21:35

Question à la con ! tout les cerveaux sont t’il compatibles avec ces tèchnologie ?

Jonyboy

Rédaction

04 mai 2018 @ 22:58

Merci pour vos commentaires chaleureux |-)

Merci également à Tomchoucrew et Saurone pour leurs contributions à la création de ce dossier !

@UFSAYAN11 : je sais pas trop, je pense que comme pour un triple écran il faut que le jeu propose ce type de résolution, sinon bandes noires en effet.

@micordi : la sélection présentée n’est réellement utile qu’à illustrer l’offre et mieux comprendre le sujet. Elle est basée sur les specs et prix des écrans. Ce n’est en rien une analyse qualitative (je n’ai consulté les tests que de ceux que j’ai sélectionnés) et encore moins exhaustive. Si vous avez des références ou avis à partager, faites le dans les commentaires ne vous gênez pas !

@mafaceenligne : :'-)) pas si conne la question ! Quand on voit les temps de réponse de certains, c’est à se demander à quelle fréquence ils fonctionnent... J’ai rencontré un mec une fois, je suis sûr qu’il avait même de l’input lag ! #BlagueDeGeek :-D

jm ysb

04 mai 2018 @ 23:23

super dossier.

je constate surtout le maintien des prix vers le haut à chaque nouveauté présenté...

il me semble que se soucis n’existait pas sur des écrans analogiques. certes la qualité d’image n’était pas la même.

avatar

BAGADOU

04 mai 2018 @ 23:26

Micordi, j’ai commandé le Samsung dont tu causes en 32 pouces sur Amazon Italie hier soir pour un peu plus de 450 euros livré, je croise les doigts pour les fuites de lumières et éventuels pixels morts...

avatar

BAGADOU

04 mai 2018 @ 23:30

Micordi, j’ai commandé le Samsung dont tu causes sur Amazon Italie hier soir, à un peu plus de 450 euros livré. Maintenez je flippe pour les éventuels fuites de lumières et pixels morts... https://www.dealabs.com/bons-plans/ecran-pc-32-samsung-c32hg70-wqhd-va-144hz-1ms-freesync-2-hdr-qdot-1211549

123