TV et écrans HDMI 2.1 : tous ne possèdent pas les fonctions annoncées

HDMI 2.1 est la plus récente des normes HDMI. La certification est cependant encore floue. Ce n’est pas parce que vous achetez un écran certifié HDMI 2.1 qu’il possède toutes les fonctionnalités de la norme. Voici ce qu’il faut savoir.

Un port HDMI à l'arrière d'une TV
Un port HDMI à l’arrière d’une TV – Crédit : Patrick Campanale / Unsplash

Vous avez probablement déjà entendu parler de l’HDMI 2.1 si vous suivez les nouvelles consoles de jeu vidéo, les écrans, les cartes graphiques, etc. La norme la plus récente du standard HDMI est progressivement adoptée par de plus en plus d’appareils. Elle apporte son lot de fonctionnalités comme des débits jusqu’à 48 Go/s, la 8K à 60 images par seconde ou encore la 4K à 120 images par seconde.

Actuellement, la norme HDMI 2.0 n’existe plus à proprement parler et les fabricants doivent maintenant certifier leurs écrans avec HDMI 2.1. Néanmoins, cela ne signifie pas forcément que les écrans certifiés HDMI 2.1 possèdent toutes les nouvelles fonctionnalités de la norme. Certains consommateurs risquent donc de s’y perdre à l’achat d’un nouvel écran.

À lire aussi > Quelle TV HDMI 2.1 pour votre PS5 / Xbox Series ? Quel câble choisir ?

Un écran certifié HDMI 2.1 ne peut prendre en charge qu’une seule fonctionnalité de la norme

L’HDMI Licensing Administrator a expliqué les caractéristiques de la certification à TFT Central. En fait, tous les écrans HDMI 2.x devraient déjà être certifiés HDMI 2.1 à condition qu’ils prennent en charge au moins une nouvelle fonctionnalité. Cela signifie donc que les fonctionnalités de l’HDMI 2.1 sont facultatives.

Pour rendre la situation encore plus claire, l’HDMI Licensing Administrator a déclaré que : « un fabricant n’a besoin de prendre en charge qu’une seule fonctionnalité 2.1 (comme eARC, par exemple) pour appeler un appareil compatible HDMI 2.1. Cependant, il doit également indiquer les fonctionnalités prises en charge par l’appareil – afin d’être clair sur les fonctionnalités prises en charge par l’appareil. C’est important pour que les consommateurs ne pensent pas qu’un appareil compatible 2.1 prend en charge toutes les fonctionnalités ».

À lire aussi > Test Sony XH90 : 4K, HDR, 120 Hz, HDMI 2.1, la TV conçue pour la PS5

Les consommateurs doivent-ils faire eux-mêmes la différence entre l’HDMI 2.1 et l’HDMI 2.0 ?

Les fabricants doivent donc considérer les clients comme des experts capables de faire la différence entre le VRR (Variable Refresh Rate), la fonctionnalité ARC (Audio Return Channel) ou encore l’ALLM (Auto Low Latency Mode). Ce n’est évidemment pas envisageable. Les normes servent justement à indiquer les fonctionnalités prises en charge par un appareil donné. Par exemple, un client achète un câble USB 3.0 parce qu’il sait qu’il est plus rapide grâce à son port bleu. Cela ne veut pas dire que le client connaît la vitesse précise de l’USB 3.0 par rapport à l’USB 2.0.

Avec cette confusion qui flotte autour de l’HDMI 2.1, certains moniteurs sont déjà passés de l’HDMI 2.0 à l’HDMI 2.1. Ils ne sont pourtant pas forcément capables d’afficher du contenu en 8K à 60 images par seconde. Pour le moment, ce problème n’est pas encore très répandu. Il faut aussi préciser que la plupart des fabricants réputés ont déjà fait la clarification de leur côté. Il vaut tout de même mieux faire preuve de vigilance à l’achat d’un nouvel écran. Dans tous les cas, il ne faut pas se fier uniquement à la certification HDMI 2.1 si les fonctionnalités ne collent pas.

Source : Digital Trends

👉 Vous utilisez Google News ? Ajoutez Tom's Guide sur Google News et sur Whatsapp pour ne rater aucune actualité importante de notre site.

Votre Newsletter Tom's Guide

📣 Souscrivez à notre newsletter pour recevoir par email nos dernières actualités !