WINTXCODERS Terminal
[visitante@wintxcoders-pc ~]:$ Bienvenido a la comunidad
Recuerda que puedes participar en nuestra comunidad registrándote

La tecnología HDR en monitores, explicada «sin marketing»

Iniciado por Noticias Informáticas, Febrero 03, 2020, 06:00:05 PM

« anterior - próximo »

Noticias Informáticas

Noticias

  • Desconectado
  • La tecnología HDR en monitores, explicada «sin marketing»


    Los fabricantes siempre tratan de hacer que sus «nuevas tecnologías» nos entren por los ojos, algo literal cuando hablamos de HDR en monitores. Estas técnicas de marketing nos muestran una imagen SDR al lado de una HDR, y ésta última se ve mucho mejor, más nítida y con mejores matices. Pero, ¿cómo es eso posible si no tienes un monitor HDR? En este artículo vamos a explicarte cómo funciona de verdad esta tecnología en monitores y pantallas de TV.

    Realmente los fabricantes, tratando de promocionar sus tecnologías, a veces hacen que las cosas sean confusas y complicadas de entender, hasta el punto de que muchas personas confunden una pantalla HDR con otros conceptos relacionados como HDR Rendering, HDR Imaging o algunos «efectos» que se ponen en fotos mediante filtros, como los de Instagram.
    Entendiendo cómo funciona la tecnología HDR
    Obviamente, será complicado enseñaros de manera literal cómo se ve el HDR real si no tenéis un monitor con esta tecnología, así que tendremos que utilizar analogías para entender el concepto. Para que nos entendamos, en lugar de simplemente aumentar la saturación en la imagen, realmente se puede hacer ver una diferencia real entre imágenes SDR y HDR de una manera más empírica.
    Algunas preguntas que podrían ayudaros a entender el concepto:

    ¿Por qué no puedes simplemente incrementar el brillo de tu pantalla SDR para que sea HDR?
    ¿Por qué no todas las pantallas OLED cuentan con esta tecnología?
    ¿En qué influye la relación de contraste?
    Si las pantallas con esta tecnología tienen tanto brillo, ¿por qué no te ciegan o hacen daño a la vista?

    Vamos a tratar de contestarlas con esta imagen de ejemplo.

    [/url]
    Teniendo en cuenta que estamos ante una analogía ya que no vamos a poder diferenciar esta tecnología en un monitor SDR, se muestran las diferencias relativas con diferentes circunstancias que han sido exageradas a propósito para que sean más entendibles. Fijaos especialmente en las diferencias que se ven en la pared de piedra que está en la zona izquierda, pues ésta llega incluso a ganar o perder definición.
    Lo primero de lo que os daréis cuenta es que es una imagen monocromo, sin colores, y esto también se ha hecho a propósito porque vamos a hablar del rango dinámico, no el espaciado de color, así que lo que nos interesa ver ahora es el brillo. En la imagen HDR simulada se puede ver cómo se pierde definición en la pared de piedra, y esto se produce porque incluso en monitores con un brillo muy elevado, éste no puede ser tan alto como el que se produce por la luz solar, por lo que deben recortarse detalles para que se mantenga fiel al nivel de brillo.
    Por supuesto, en la imagen también se puede comprimir el brillo adicional dentro del rango de niveles que tiene disponible el monitor, pero eso hace que los reflejos no se vean con el brillo correcto como lo tendrían en la vida real (en otras palabras, la imagen es menos real). Lo que sucede en la imagen es que se recortan algunos detalles para que el blanco sea blanco puro, y se comprime un poco para que no todos los blancos sean blancos puros, de manera que se genere una escala de grises. Esto es lo que se entiende por «mapeo de tonos«.
    Lo segundo de lo que os daréis cuenta es en la pérdida de definición en las sombras. Esto se debe a que la pantalla no puede oscurecerse lo suficiente porque no hay profundidad de bits suficiente para transmitir todos los detalles de las sombras. Esto mejorará cuantos más bits le arrojemos, por lo que una pantalla de 12 bits tendrá mejor definición en estas sombras que una de 10 bits, por poner un ejemplo.
    Ahora, si bajamos a la imagen SDR, el problema más importante es que los negros no son del todo negros y los blancos no son del todo blancos. Obviamente una buena pantalla SDR en realidad no se ve así, pero recordad que estamos ante una analogía en la que se han exagerado las imágenes a propósito. Lo que realmente sucede es que las pantallas SDR no tienen negros tan negros ni blancos tan blancos como las pantallas HDR.
    Por supuesto, hay excepciones, ya que hay excelentes pantallas OLED SDR que permiten mostrar negros puros y blancos muy brillantes pero, volviendo a una de las preguntas iniciales, ¿no sería esto lo mismo que una pantalla HDR? No, porque hay una tercera diferencia que a lo mejor has pasado por alto, y es que hay una reducción adicional de bits, como hemos explicado antes, lo que resulta en una pérdida de detalles.
    Las diferencias en las pantallas

    [/url]
    En la imagen de arriba podemos ver una comparación más simple y directa. Aquí se ve que para tener una buena experiencia HDR, necesitas varias cosas al mismo tiempo:

    Una alta profundidad de bits.
    Un alto nivel de brillo.
    Negros profundos / alto contraste.
    Compatibilidad del software para que todo funcione en consonancia.

    La razón por la que algunos excelentes paneles OLED no pueden mostrar imágenes HDR es porque no tienen la profundidad de bits necesaria, como por ejemplo sucede en gafas VR, que no pueden hacerlo porque no cuentan con el ancho de banda suficiente. Y si no pueden manejar más bits, incluso aun ampliando de verdad el contraste simplemente notaremos mejores detalles en algunas partes de la imagen, pero no de manera homogénea.
    ¿Qué significa todo esto a la hora de comprar una pantalla HDR?

    Las pantallas LCD, especialmente las IPS sin atenuación local a través de mini-LED, no muestran imágenes HDR reales. Simplemente son pantallas SDR con más bits y soporte de software para HDR, que básicamente convierten estas imágenes a SDR dado que el hardware de la pantalla no puede mostrarlo de verdad.
    Las pantallas LCD con matriz LED-VA podrían ser más prometedoras dado a su alta relación de contraste dinámico, pero tienen otros inconvenientes como el ángulo de visión.
    Los OLED que no llegan a cierto nivel de brillo máximo tampoco son HDR real, pero en este punto realmente es la mejor relación que se puede encontrar en momentos como cuando se enfoca al sol en una película. En este caso, además, no será tan brillante como en la vida real y no dañará la vista.

    Así pues, la única solución HDR completa y sin inconvenientes que existe son las pantallas LED-IPS + atenuación local con mini LED. Básicamente es una pantalla LCD sobre una matriz de iluminación LED, que ayuda a brindar ese brillo máximod eseable y los negros profundos (ya que se apagan completamente para ello).

    [/url]
    La pantalla LCD compensa la falta de resolución en la tecnología LED, pero aun así hay que tener cuidado a la hora de elegir, porque de nuevo el marketing busca engañarnos con pantallas de 400 euros que presumen de tener HDR y hasta G-Sync pero luego en imágenes brillantes muestran unos halos exagerados que hacen que se vea todo como si fuera una pesadilla fantasmagórica, debido a las malas zonas de atenuación.
     
    The post La tecnología HDR en monitores, explicada «sin marketing» appeared first on HardZone.