¿Qué espacio de color elegir? ¿Más grande es mejor?

In Tecnología y reflexiones by Carlos A. Oliveras30 Comments

Me gustaría grabar un vídeo para continuar el tema de la entrada anterior por donde yo quería, pero ahora mismo no puede ser pues como ya comenté, el tema de los vídeos está complicado, así que de momento aprovecharé para despejar con una entrada de texto algunas dudas que sería lógico que surgieran tras ver el vídeo anterior (o incluso sin haberlo visto).

Espacios de color: ¿El tamaño importa?

Es de lógica preguntarse para qué querríamos trabajar en sRGB si el ProPhoto RGB es notablemente más grande que el otro (y fijaos que digo «trabajar» – luego ya hablaremos del espacio final en el que termina nuestra imagen). Pues bien, contrariamente a lo que la intuición nos dictaría, sí puede haber algún motivo para «desconfiar» del ProPhoto RGB o de los espacios «grandes» en general, y para explicarlo voy a poner un ejemplo.

Imaginad que podéis construir un edificio pequeño o un edificio grande, pero con una misma limitación: las escaleras que comuniquen los pisos del edificio desde la calle hasta el terrado solo pueden tener en total 8 escalones, tanto en el pequeño como en el grande. La siguiente imagen trata de representar lo que ocurrirá: el edificio pequeño tendrá sus 8 escaloncitos con saltos relativamente suaves, mientras que el grande tendrá 8 saltos de nivel mucho más acusados (pues ha de cubrir mayor distancia con la misma cantidad de puntos intermedios).

edificio_escaleras

Pues bien, algo similar ocurre en la «paleta de colores» de nuestras imágenes digitales por el siguiente motivo: si bien la amplitud tonal disponible depende del espacio de color en el que trabajamos (que sería como la altura del edificio), la cantidad de colores distintos realmente disponibles en nuestra imagen es una cantidad fija (como los escalones) que no depende del espacio de color, sino de los «bits» en los que trabajamos. Sin entrar en mucho follón matemático, el asunto es que el color de cada píxel tiene que estar codificado con un número, y la cantidad de números disponibles es limitada. Otro ejemplo de lo mismo sería imaginar que tenemos millones de coches, cada uno de un color distinto – para ponerlos a «circular» necesitan matrícula, y si las matrículas solo tienen 4 dígitos, solo podremos sacar a la carretera (nuestra imagen) 10.000 de ellos (de la matrícula 0000 a la 9999).

Por tanto, si he de cubrir un rango de tonalidades bestial, pero tengo una cantidad limitada de casillas o «matrículas» en mi paleta de colores, el salto de un tono a otro será tanto más notable cuanto mayor sea ese rango y menor esa paleta, con lo que podría terminar con un efecto de «franjas» en zonas como el cielo. Si uso un rango más justito, me quedaré más corto en los extremos, pero las transiciones serán más suaves.

Para explicarlo bien tendría que ir poniendo varias fases de este gráfico, pero pasaré directamente a esta imagen (clic en la imagen para ampliar):

edificios_espacios_colorEl degradado suave dentro de las escaleras representa simplificadamente el espacio de color: es una gradación continua. Por otro lado, los circulitos del canto de cada escalón representan cómo el espacio de color «aterriza» en la dura realidad de los bits del documento: obliga a que los infinitos matices de esa gradación teórica se concreten en un número finito de tonos (8 en este caso). Si os fijáis, veréis que aunque la gradación de la izquierda sea más corta, sus tonos en circulitos evolucionan más suavemente que los de la derecha, que «saltan» más notablemente de uno a otro.

Podemos ver un ejemplo relacionado con esto en la magnífica web de Cambridge in coloren esta página en concreto , bajando hasta el apartado «Bit depth visualization«, podéis pasar el ratón sobre las cifras de bits por píxel (que equivale a la suma de los bits por canal) para ver cómo el efecto de los «escalones» se va reduciendo a medida que aumenta este valor:

bits_cambridgeComo vereis en ese ejemplo (si visitais la página), un mismo espacio de color de referencia se mostrará más o menos posterizado («escalonado») en función de los bits disponibles para representarlo.

Conclusión de tanto rollo: un espacio de color muy grande parece apetecible, pero podría causar gradaciones más abruptas. Y, además, como vimos en el vídeo anterior, sus tonos más extremos posiblemente no sean visibles en nuestros monitores actuales, con lo cual se diría que tampoco vamos a ganar nada.

Ya puedo oír al respetable público gritando algo como «pero qué vergüenza, ¿quién ha inventado esto del ProPhoto RGB? Un enemigo de la humanidad, sin duda. ¡¡Vamos a linchar al señor ProPhoto RGB!! «. Un enfado muy comprensible, pero dejemos momentáneamente las antorchas, los tridentes y la soga, y leamos el siguiente apartado.

Mito y realidad: el tío Martin acude al rescate

Si bien lo anterior es cierto y resulta evidente para 8 colores, en la edición de imágenes RGB tal como la conocemos en fotografía tenemos muchos, muchísimos más. Concretamente, trabajando en 8 bits tenemos 16 millones de colores distintos. Y en 16 bits, la cifra alcanza la friolera de 281 trillones de colores únicos. Un trillón es un millón de billones, así que… bueno, son muchos, muchísimos colores. Evidentemente, no los tendremos todos en la misma imagen a la vez: simplemente son las posibles combinaciones a partir de los bits por canal.

Con semejantes cifras, da la impresión de que va a ser muy difícil llegar a tener el problema del que hablábamos antes, pues aunque el edificio sea muy alto, tenemos escalones para parar un carro, pero incluso así, hay quien desconfía, pues al fin y al cabo, un espacio de color es algo continuo y, como tal, sus valores son infinitos. ¿Cómo garantizar que cuando esa función continua se proyecte sobre una cantidad finita de tonos mantendrá una uniformidad perceptual equivalente para todos sus tonos, tanto aisladamente como en gradaciones? Es una cuestión un tanto mareante para quien pretenda resolverla únicamente armado de su intuición o «a ojo», así que no es de extrañar que el miedo a posibles saltos o cambios de tono bruscos se haya empleado tradicionalmente como argumento para disuadirnos del uso de ProPhoto RGB o, en general, del uso de cualquier espacio de color «amplio».

Pero si bien la prudencia de esos argumentos puede estar justificada, parece que en la práctica la sangre no llega al río. Esto es lo que nuestro gurú photoshopero favorito, el maestro Martin Evening, dijo al respecto hace ya unos años en su serie de libros «Photoshop para fotógrafos«:

evening_cs4_prophotoEstá en inglés pero resumo lo que dice: Martin comenta que durante los últimos 10 años, los expertos habían recomendado Adobe RGB como espacio de edición (digamos que es un intermedio entre sRGB y ProPhoto RGB), pero que esto ha variado y ahora se aboga por el uso de ProPhoto RGB como espacio de edición. Y da dos razones: una, que actualmente las impresoras pueden beneficiarse de la mayor amplitud de este espacio (tienen gamas de color que superan las del espacio Adobe RGB). Y otra, que ProPhoto RGB permite llevar a cabo cálculos de mayor amplitud y esto evita que los valores se recorten por culpa de trabajar en un espacio más pequeño.

Dicho esto, y aunque yo creo haber comprobado esta mayor precisión o mejor conservación de valores al editar en ProPhoto RGB o en AdobeRGB respecto a sRGB, debo decir que también me plantea algún interrogante – iba a poner un ejemplo práctico de imagen editada de forma extrema en sRGB y en ProPhoto RGB pero finalmente he decidido no ponerla porque requeriría dar muchas explicaciones y para ser sincero, tengo algunas dudas acerca de la forma en que Photoshop adapta sus funciones de edición a la hora de calcular los valores numéricos. Prefiero que los expertos se ocupen de esto.

[Actualizo: Hablando de expertos y a raíz de algo que ha comentado Paco J. Muñoz, quizá sí que habría que ser algo más prudente en el sentido de que si los colores se salen mucho del espacio de destino, los colores recortados pueden causar una diferencia significativa. Como siempre, es difícil hacerse una idea porque tal vez en una imagen no llega a notarse, y en otra sí, pero quería al menos añadir este apunte para que nadie baje la guardia.]

¿Y no será malo trabajar en un espacio mayor que el de nuestro monitor?

El argumento de las gradaciones y las franjas ha perdido algo de fuerza los últimos años (al menos en 16 bits), o yo no lo veo tanto, pero otro argumento que parece haberle tomado el relevo es el del «falseamiento de colores«. La idea es la siguiente: dado que nuestros monitores actuales ni de lejos llegan a cubrir un espacio como ProPhoto RGB, acabaremos con una imagen que, en realidad, no tiene nada que ver con lo que estamos viendo. ¡Y el granuja del Martin quería que lo usásemos alegremente! Rápido, volvamos a coger las antorchas, tridentes y soga, y vamos a lincharlo. Bueno, un momento: pensémoslo mejor, no sea que luego nos arrepintamos.

Veamos. Esa afirmación parte de una realidad: lo limitado de la gama de colores que pueden mostrar nuestros monitores de hoy en día – esto ya lo vimos en el vídeo anterior, así que hasta aquí, bien. Pero deberíamos diferenciar entre el espacio de trabajo/edición y el espacio final o de destino, el perfil que acabará llevando la imagen. Evidentemente, mientras trabajo en un espacio más amplio que el que permite reproducir mi monitor, no distinguiré todos los colores que realmente contiene la imagen, pero según los presuntos expertos (tampoco nos fiemos demasiado), esto nos da margen para manipular la imagen con menos riesgo de perder información: simplemente, tendremos información adicional que, en general, se descartará definitivamente cuando llegue el momento de crear una versión final y convertirla a un perfil más ajustado, igual que cuando pasamos de 16 a 8 bits para guardar en jpg, o cuando aplicamos definitivamente un recorte no destructivo previamente practicado a efectos de visualización.

De hecho, quizá usar la palabra «falseamiento» no ayude mucho, pues da a entender que algo se está haciendo mal o nos están engañando, pero no sé si es adecuado verlo así – al contrario, el perfil del documento se está convirtiendo sobre la marcha para mostrarlo correctamente en el dispositivo de salida, en este caso el monitor. Si se ha de recortar, se recorta, pero esto ocurre de forma controlada y predecible, y no es un fenómeno único – pasa lo mismo en muchas otras situaciones donde los perfiles no coinciden. Yo reservaría lo de «falsear» para casos en que un fallo técnico o un error de estandarización (como una mala calibración/caracterización del dispositivo, o una iluminación al azar, según la hora del día) dé lugar a una reproducción o percepción de colores incorrecta. Pero bueno, la terminología es lo de menos, y le llamemos falseamiento o recorte, el caso es que hay gente empeñada en usar como espacio de trabajo el espacio «final» (el perfil del dispositivo de salida), basándose en este argumento. Incluso hay quien defiende trabajar en el espacio de color del monitor (a partir de su perfil, supongo). Esto es poco recomendable porque la función del perfil del monitor no es esa, pero no perdería un minuto en este debate ni en ningún otro.

Ver el monitor con la luz que entra por la ventana por la mañana o la luz de la bombilla por la noche tiene más de falseamiento que el hecho de trabajar en un perfil mayor al del monitor.

Una pequeña cabina para ver imágenes con iluminación estandarizada – la luz que incide sobre la imagen impresa o el monitor sí puede «falsear» la imagen.

El perfil de color de las versiones «finales»

Cuando realmente tendremos que preocuparnos de estas limitaciones del monitor (o de la impresora, o de lo que sea que vaya a dar salida a nuestra imagen terminada) será cuando generemos un archivo o reproducción final que, de hecho, tal vez vaya a seguir su curso en otros dispositivos, o simplemente será compartida con otras personas. A lo mejor este archivo de imagen va a verse solo en tablets y móviles que no llegan ni a un sRGB. O se va a enviar a clientes de un estudio con monitores que cubren el AdobeRGB. O se va a imprimir en una buena impresora doméstica caracterizada con un perfil de color determinado que no llega (en gama de colores) a ProPhoto pero supere el AdobeRGB. Bueno, y todo esto suponiendo que nos quedemos en RGB – puede que en algún momento la imagen acabe convirtiéndose a otro modelo de color como CMYK y que la mitad de colores palmen no por el monitor, sino simplemente por el espacio/perfil CMYK concreto que tenga que usarse. En este aspecto concreto, ProPhoto RGB tiene la ventaja de ser un buen espacio de conexión entre perfiles, por su amplitud (es decir, incluso aunque consideremos que es demasiado grande para nuestras necesidades, puede cumplir este papel de espacio intermedio).

No solo de RGB vive el hombre.

No solo de RGB vive el hombre.

Con lo anterior solo intento sugerir que la cantidad de casos posibles es muy amplia y ni de lejos voy a cubrirla aquí, además de que tampoco conozco todos los casos. Como ya he dicho muchas veces, esto es todo un mundo. De todas formas, por concretar un poco, supongo que la mayoría de quienes lean esto suelen pasar el raw a su equipo, revelarlo/procesarlo y crear una versión final en jpg para ver en pantalla. En tal caso, yo pienso (no solo porque lo digan los expertos, sino por mi experiencia), que en ProPhoto y 16 bits no se trabaja mal. Bueno, claro, una cosa es trabajar, el problema vendrá (o no) al tener que convertir a un espacio menor. Pero de hecho, en Lightroom ya por defecto se trabaja así e incluso las preferencias de edición externa del programa sugieren mantener esta configuración al pasar a Photoshop, con lo que supongo que no será tan disparatada esta forma de trabajar. Luego, al terminar, pienso que lo más sensato sería crear la versión final pasando a un perfil de color estándar lo más parecido posible al que nuestro monitor aplicaba mientras editábamos la foto, más que nada porque en caso contrario (dejarla en un espacio mayor al de nuestro monitor), podría pasar que el día de mañana tengamos un monitor mejor y entonces, al abrir imágenes «antiguas», veamos tonos que antes se recortaban y ahora no, y no nos guste tanto el resultado. Tampoco está garantizado que ocurra, pero podría pasar. Ahora bien, incluso así, si se trata de recortar colores para verlo como antes, que no cunda el pánico porque siempre estamos a tiempo de ir a menos – podemos resolver el asunto convirtiendo la imagen al espacio estándar más parecido al que tuviera el monitor con el que hubiéramos editado la imagen en su momento (porque seguramente ya no conservemos el mismo perfil que en su día creamos para el monitor). Por supuesto, esto no es lo ideal e introduce otras consideraciones, pero lo dejaré aquí o no acabo.

Los propósitos de conversión o "rendering intents": el truco más viejo del mundo. A mí también me engañaron.

Los propósitos de conversión o «rendering intents»: el truco más viejo del mundo. A mí también me engañaron.

Solo dos apuntes más en este apartado: primero, estoy hablando bastante de conversiones de perfil, pero no he dicho nada de motores de conversión y propósitos de conversión. ¿Qué es eso? Es algo que entra en juego al convertir de un espacio o perfil a otro, pues la conversión se puede hacer de acuerdo a distintos criterios (como recortar colores que sobran o no recortar, pero redistribuir tonos para que quepan todos y se mantenga la percepción relativa de alguna de sus cualidades). Es un tema aparte (para variar) pero un motivo adicional por el que no le dedico mucha atención aquí es que al convertir entre perfiles RGB, el propósito de conversión es indiferente por tratarse de perfiles matriciales: siempre (o al menos en el motor de Adobe) se van a convertir por relativo colorimétrico, que en esencia, es un recorte y es justamente lo que pienso que nos interesaría de acuerdo a lo que dije en el párrafo anterior. Esto lo supe gracias a Paco J. Muñoz, como muchas otras cosas que he aprendido de él en este campo. [Actualizo: Hablando de Paco, en un comentario de facebook me ha hecho notar que este recorte puede ser más dañino de lo que quizá yo estoy considerando – lo sigo prefiriendo a una conversión que redistribuya todos los tonos de la imagen, y en todo caso, yo por lo general no lo he notado en exceso salvo en fotos bastante concretas, pero creo que voy a estar más atento a partir de ahora.]

En segundo lugar, he utilizado en esta entrada el término espacio de color a veces, y perfil de color otras, implicando cierta equivalencia. Y, aunque sí que existe una correspondencia, estrictamente hablando no son lo mismo – el espacio es un modelo abstracto, con vocación de ser el «entorno» de trabajo donde se desarrollan nuestros colores, mientras que el perfil es la forma en que esto se refleja y se concreta en cada documento o como «ficha» descriptiva de las capacidades de color de un dispositivo físico. Pese a esta diferencia, aunque estrictamente hablando no sea lo correcto, en la práctica yo no diferencio mucho, porque tanto Photoshop como Lightroom y software similar ya saben cuándo procede trabajar con un espacio o con un perfil. Son dos caras de la misma moneda y creo que intentar explicar su diferencia no solo es complicado, sino innecesario. En general soy partidario del máximo rigor, pero este es un detalle donde relajo un poco esta exigencia. De todas formas, en caso de duda, recomiendo fijarse en Photoshop y Lightroom en el término que se utiliza en cada caso (por ejemplo, al crear un documento, Photoshop nos pregunta el espacio de color; al guardarlo, nos pregunta si incrustar el perfil; etc.)

El navegador, la vista previa y otros coloricidios

Quiero terminar ya, pero no puedo hacerlo sin repasar lo más divertido del asunto: resulta que por muy bien que lo hagamos todo, hoy por hoy, el simple hecho de crear imágenes con un perfil más grande que sRGB nos expone a que otras personas no vean la foto como esperamos, no solo por el tema de que tengan monitores más limitados, sino porque algunos navegadores tienen la mala costumbre de pasarse el perfil de la imagen y/o del monitor por el arco de triunfo, como si dieran por hecho que todo está en sRGB o, simplemente, que toda la realidad colorimétrica que entra por un lado y que sale por otro va a cuadrar sola por arte de magia, de modo que no hacen conversión alguna de un espacio a otro.  Incluso la vista previa de Windows es tristemente famosa por sus atropellos cromáticos.

A la izquierda, una imagen en Firefox. A la derecha, la misma imagen en IE 11.

A la izquierda, una imagen en Firefox 29. A la derecha, la misma imagen en IE 11. Uno de tantos ejemplos de las cosas raras que pueden pasar incluso haciendo las cosas bien.

Todo esto es también un tema aparte, pues hay navegadores más o menos flexibles en este aspecto que ofrecen distintas opciones de configuración, y otro tanto ocurre con los visualizadores de imágenes y con los sistemas operativos: como usuario de Windows, me he encontrado problemas distintos en cada versión. Lo que hay que tener claro es que por mucho que calibres, que exportes en un pefil que le siente como un guante a tu imagen y a tu monitor, y en definitiva, por más exquisita que sea tu forma de trabajar, al final no tenemos ningún control sobre el monitor del vecino. Y si imprimimos, tendremos que pasar por el tubo del perfil de impresión, porque una impresora no es un monitor – es más, incluso los colores de la imagen ya impresa en papel pueden deteriorarse con el paso del tiempo o, simplemente, variar según la luz bajo la cual se observen, como cualquier otra cosa. Esto no quiere decir que nuestros esfuerzos no tengan su recompensa, simplemente, que hemos de ser conscientes de que siempre habrá limitaciones fuera de nuestro alcance. O a lo mejor es que yo me resigno y no hilo tan fino, pero en fin, a partir de cierto punto, prefiero no amargarme más de la cuenta, pues como ahora repetiré en las conclusiones, yo me dedico a hacer fotos, no a cuadrar espacios de color o a volverme majara con los propósitos de conversión y similares. No se trata de quitarle importancia a nada, simplemente de establecer prioridades y ser realista.

Conclusiones

Antes semejante panorama, es típico (de hecho, hace poco alguien lo comentó en YouTube) que haya quien prefiera tirar por el camino del medio y limitarse desde el principio a un espacio relativamente pequeño como sRGB, dejarse de calibración del monitor e historias, y a vivir que son dos días. No es mi opción favorita, pero es una actitud que comprendo perfectamente. En todo caso, vuelvo una vez más a la idea que yo siempre defiendo: hacer lo que sea, pero siendo consciente de lo que haces y por qué. La mayoría de problemas que veo en gestión del color no son fruto de las limitaciones técnicas que antes mencioné, sino de no conocer (y, por tanto, no saber aplicar correctamente) una serie de conceptos básicos. Cosa, por otro lado, de lo más natural, pues nadie nace enseñado y estos temas en concreto son bastante «pantanosos».

Por otro lado, siempre está la opcion de limitarse al blanco y negro (escala de grises) y quitarse de encima unos cuantos problemas.

Por otro lado, siempre está la opcion de limitarse al blanco y negro (escala de grises) y quitarse de encima unos cuantos problemas.

En todo caso, aunque ahora me haya dado por centrarme en este tema (de hecho como dije, aún me gustaría grabar un vídeo para rematarlo), su importancia será relativa para cada persona en función de lo que haga con sus imágenes y de lo familiarizado que esté con todo esto.

Por último, ahora sí, quiero señalar que por más argumentos que se den a favor de hacer las cosas de tal o cual forma, siempre habrá gente que opine lo contrario. Y, a veces, más que cuestionarme los argumentos, me pregunto si de verdad es tan importante usar tal o cual espacio. Es relevante, sí, pero al fin y al cabo, me parece una cuestión secundaria si se compara con la composición, la exposición, el rango dinámico, la nitidez de la imagen, el ruido y los tropecientos aspectos que, como fotógrafos, pienso que deberían importarnos más. Es decir, está bien saber todo esto, pero al acabar de leer este o cualquier otro rollo sobre el asunto, creo que vale la pena distanciarse un poco de todo ello. O así lo veo yo desde mi situación particular, así que quería dejar constancia de ello antes de terminar.

Pues nada, ya he pegado un buen rollo. Espero que algo de todo esto haya tenido sentido. La continuación y conclusión de esta serie es este videotutorial sobre avisos de gama.

Etiquetas: , , , , , , , , , , , , , , , , , , , , , , ,

Comments

  1. 🙂 Me alegra, informa, enriquece, admira y, sobre todo, reconforta, tu entrada. Saludos. Buena semana. Por aquí seguiremos aprendiendo, cuasi tocayo 🙂

  2. ¡Me encantó! Una magnífica y clarísima exposición.
    Gracias por el aporte. Como siempre, es un placer leerte.
    Saludos 🙂

  3. Eres especialista en convertir en fáciles y comprensibles los temas más complicados. Muchas gracias por la explicació, ha sido muy interesante. Un saludo!

  4. Author

    Respondo en plan agregado si no os importa, que voy mal de tiempo: ¡¡gracias Paqui, Luis, María Amparo, Henry y Silvia por leer este rollo y por vuestros amables comentarios!! 🙂

  5. Hola Carlos.
    Un artículo, como siempre, para quitarse el sombrero.
    Dicho esto, cada maestrillo tiene su librillo, o libraco, según el caso…
    Yo personalmente, por si vale de algo la aportación, “tiro” siempre la imagen en el perfil más amplio del que disponga mi cámara, es decir Pro-Photo o Adobe RGB. Más tarde a la hora de editar uso el mismo perfil. Y por último defino el perfil de salida según el medio de visualización, papel o pantalla.
    Como bien has dicho, no conocemos los monitores de los demás y menos aún el navegador que utiliza, pero generalmente, si el cliente va a ver las fotos en pantalla suelo decantarme por Srgb, pero en papel suelo preferir Adobe RGB por cuestiones de impresión.
    Para terminar tengo un pregunta;
    ¿Tiene sentido trabajar, a la hora de editar/revelar, en un perfil más amplio que el usado a la hora de capturar la imagen?.
    Un abrazo.

    1. Author

      Hola Eduardo, gracias por el comentario. Sobre lo que comentas, por lo que dices deduzco que tiras en jpg. Si el jpg lo has tirado en AdobeRGB, en LR se va a trabajar en ProPhoto RGB quieras o no porque LR funciona así.
      Si abres directamente en Photoshop el jpg, técnicamente yo creo que hay más a perder que a ganar por convertir a otro espacio de color. Se supone que se pierde algo de información y que puede haber algún cambio de color, y peor aún, que en tu monitor no percibas ese cambio. Otros igual opinen que la mayor amplitud para los cálculos compensa, como si abres un archivo de 8 bits y lo conviertes a 16.
      El asunto es que como no tiro en jpg no sabría decir, aunque por prudencia como digo yo lo dejaría en el espacio que venga. De hecho, si piensas editar la imagen, yo de ti haría la foto en raw y así tienes la libertad de elegir luego en que perfil quieres revelar.
      Saludos y gracias!

      1. Hola otra vez.
        A ver Carlos, o me he explicado mal o estoy hecho un lio, jejeje.
        No sé por qué deduces que tiro en JPG, pero no es así, siempre tiro en RAW.
        Por otro lado, revelo en ACR, no en LR. Quizá al usar ambos el mismo motor los dos trabajen en ProPhoto, eso ya no lo sé.
        Pero mi duda es otra;
        Si una cámara, por ejemplo, no es capaz de registrar un espectro tan amplio como ProPhoto, ya que el espacio de color más amplio con el que puede trabajar es Adobe RGB, qué sentido tiene revelar en ProPhoto. ¿No sería más lógico trabajar esas imágenes en Adobe RGB durante el revelado?.
        Por tu respuesta anterior, ahora deduzco yo, interpreto que lo que quieres decir es que al trabajar en RAW no influye el espacio de color elegido en el momento de la toma y que por lo tanto ese espacio podemos definirlo más tarde, a la hora del revelado.
        A mi entender si capturamos la imagen en ProPhoto y revelamos en Adobe RGB, estamos perdiendo información, o mejor dicho “colores”, pero si lo hacemos a la inversa, es decir, tiramos en Adobe RGB y revelamos en ProPhoto, no creo que ganemos nada independientemente de que se trate de un JPG o un RAW. De ahí que no entienda la ventaja de revelar en un espacio de color más amplio del usado durante la toma, ya que si esos colores “no están” no podemos inventarlos.
        Básicamente yo lo entiendo como el tema de los bits que comentas. ¿De que valdría tirar en 8 bits y revelar en 16?. Si lo que queremos es “pintar” la imagen puede que tuviera algún sentido, pero para un simple revelado no le veo la utilidad.
        Yo personalmente entiendo los cambios de espacio de color por motivos concretos y siempre de mayor a menor, no al revés, pero quizá me esté equivocando en algo.
        Por supuesto luego está el tema de la visualización en sí. Si nuestro monitor no reproduce el espacio de color que estemos empleando o está mal calibrado todo lo demás no tiene mucho sentido, pero eso ya es otro tema.
        Por lo tanto y concluyo;
        Yo disparo en RAW, usando el espacio de color más amplio que puede registrar mi cámara, ya sea Prophoto o Adobe RGB, revelo en el mismo espacio de color y posteriormente decido si necesito guardar una copia en un espacio de color más reducido por algún motivo concreto.
        Bueno, no sé si ahora me he explicado mejor, pero no quiero meter aquí un ladrillo interminable.
        En cualquier caso espero impaciente tu respuesta por si me estoy equivocando.
        Un abrazo y gracias por compartir tus conocimientos.

        1. Author

          Eduardo: Ah, yo deduje lo del jpg porque decías que tirabas en un espacio concreto, y eso solo se puede hacer en jpg (o sea, la opción de espacio de color sRGB/AdobeRGB1998 de la cámara se refiere al jpg y a la vista previa que se incrusta – solo tiene sentido en archivos rgb y el raw no lo es). Si tiras en raw, el raw no tiene espacio de color RGB concreto porque como decíamos, no es una imagen en un modelo de color RGB, sino algo un poco más… «indefinido» que debe ser interpretado. La cámara (con la tecnología más habitual, lo de la matriz de Bayer etc.) no capta colores sino luminosidad a través de unos filtros rojo, verde (el doble que los otros) y azul dispuestos siguiendo un patrón concreto. También se registra un balance de blancos que actúa como multiplicador de los canales luego, por eso hay que pasar por un proceso llamado «demosaicing» o interpolación que acaba volcando todo eso en un sistema de codificación concreto que termina en un espacio de color. Pero bueno da igual el proceso exacto, el asunto es que no se hace la foto en un espacio de color de la cámara, digamos que es un «espacio» (entre comillas) referido a lo que había en la escena, a su vez supeditado a lo que es capaz de captar el sensor de acuerdo a sus características técnicas (rango dinámico/relación señal-ruido etc.). Es un mundo distinto. Mellado, supongo que con afán simplificador, dijo en uno de sus libros algo así como que sRGB era para compactas, AdobeRGB para reflex de aficionado y ProPhotoRGB para máquinas profesionales. No tengo el libro así que no te lo puedo mostrar pero lo leí una vez que le eché un vistazo, lo comento por aportar lo que dicen expertos, aunque como digo yo creo que lo dijo orientativamente pues la cosa no tiene una equivalencia directa. De hecho, fíjate que distintos reveladores proporcionan colores y resultados distintos, por tanto ¿qué colores hay o no hay realmente en la imagen? (Es una pregunta retórica para que no nos confundamos con la idea de que hay colores que están o no están en la toma – en cierto modo sí, pero no de forma tan determinante como en una imagen RGB «normal»).

          Sobre lo otro perdona, deduje que usabas LR. Si usas ACR, de todos modos, puedes probar una cosa: abre alguna foto con colores muy brillantes o muy saturados, bueno… no sé,.. quizá una imagen sobreexpuesta sea lo mejor. Bueno, ábrela en ACR y activa el aviso de luces quemadas, eso que pone en rojo todo lo que va a salir sin detalle o que no entrará en la foto. Ahora mira al cambiar el espacio (desde el enlace/botón de abajo) de sRGB a AdobeRGB1998 y luego a ProPhotoRGB. Casi con total seguridad verás que en ProPhotoRGB es donde más colores y detalle de la foto logras rescatar (menos aviso en rojo). En AdobeRGB1998 lo rojo aumenta y en sRGB peor aún. ¡Ojo! Esto realmente tampoco quiere decir que haya que usar ProPhotoRGB o que la cámara tenga ese espacio, pero es una muestra de cómo puedes sacar más partido de la información del raw en ese espacio, y es al menos un argumento para usarlo (luego pueden haber argumentos en contra, pero ahora intento mostrar uno a favor).

          ¿De qué sirve tirar en 8 y revelar en 16? De nuevo, en raw creo que no se pueden elegir los bits en que tiramos y que hoy por hoy suelen ser 12 o 14. Bueno no sé si en formatos raw recortados se hace algún potaje y se puede elegir, pero en fin, a lo que iba: aunque no sirve de mucho, puede servir para que si abres una imagen de 8 bits y la editas en 16, los cálculos a partir de esa información se harán con más precisión y se deteriorará menos la imagen. Evidentemente lo perdido, perdido está, pero es una forma de no empeorarlo más desde el inicio de la edición.

          Espero que lo anterior aclare un poco algo, de todos modos ya te adelanto que si empiezas a preguntar, en muchos temas te vas a encontrar con que los expertos dicen una cosa y la contraria… Por otro lado, demostrar que hay un caso donde forzando las cosas, un determinado método sale ganando, no significa que siempre vaya a ser lo ideal, lo digo porque con todo lo anterior no pretendo decir que haya que hacer tal o cual cosa, solo intento dar argumentos para cada posibilidad. ¡Saludos!

          1. O.K. Carlos.
            Gracias por tu detallada explicación, tomo nota de todo. Especialmente del tema de los RAW y los espacios de color.
            Ahora voy a ver si pruebo lo de Prophoto que me comentas, al menos en los avisos de recorte, ya que mi monitor, desgraciadamente no es capaz de mostrar un espacio de color tan amplio.
            Un saludo.

  6. Hola Carlos,
    Me pasó por la cabeza lo de pasarme al blanco y negro. El color desde luego es una locura, al menos para mi. Parto de la base que soy una aficionadilla, con cámaras y monitor modestos, pero con cierta manía perfeccionista. Con estas premisas me encontré con el problema de los espacios de color y después de volverme medio loca con todos los asuntos que tan bien has explicado, llegué a una conclusión: Revelaba el Raw en CR en espacio de color amplio, no apreciando gran diferencia con respecto al espacio srgb en mi monitor (repito que modesto, aunque creo que bien calibrado) . Con el agravante de que después de haber tenido tanto cuidado por evitar los recortes durante el revelado, al convertir la copia final a srgb para no tener problemas en web, visores, etc, me encontraba que, aunque repito no encontraba diferencias notables en mi monitor, el histograma frecuentemente se desparramaba después de tanto trabajo por ajustar los extremos. Finalmente opté por revelar en srgb (en16 bits) desde CR hasta el final y olvidarme de todo este rollo que solo me traía quebraderos de cabeza y muy pocas satisfacciones. Y coincidiendo con parte de tus conclusiones me dedico a otras cosas, para mi más satisfactorias.
    Muchas gracias por tu aclaratoria aportación sobre el tema

    1. Author

      Gracias Elvira por tu comentario y por tu valiente aportación. A veces parece que debamos sentirnos cohibidos por no ser colorimétricamente perfectos, pero es que es un tema demasiado mareante. De hecho, a raíz de todo esto, está mañana he leído un artículo muy largo sobre el tema y para ser sincero, al final he terminado leyéndolo por encima, porque el propio artículo estaba sembrado de matices y rectificaciones posteriores de acuerdo a casos hipotéticos de desconocido impacto en la práctica, y todo eso sin hablar de los comentarios de la gente en los que cada cual se salía por la tangente con un tema diferente. Y es una sensación que ya he tenido demasiadas veces.
      Así que te felicito por elegir lo que mejor te funciona y no claudicar ante teorías esotéricas cuyo beneficio no terminas de ver en la práctica, que es al final lo que realmente cuenta (el resultado y nuestra satisfacción con él). Saludos!

  7. Author

    Eduardo: Mi monitor principal tampoco lo muestra todo (se acerca al AdobeRGB1998), pero lo de los avisos de sobreexposición en teoría ha de verse fácilmente. De todos modos, más allá del hecho de que la captura en raw no es una imagen con un espacio asignado, te diría que lo demás que diga yo (o casi cualquiera) lo pongas en cuarententa (o sea, que lo tomes en cuenta pero que te distancies un poco de ello y solo lo incorpores a tu base de conocimientos y tu forma de trabajar en la medida en que lo contrastes con tu experiencia y con la opinión de gente capacitada o con cierto prestigio en este campo). Es un tema muy técnico en el que he visto debatir a gente de todo nivel de conocimientos y desbaratar teorías correctas en la práctica simplemente porque alguna terminología o suposición no podía sostenerse por sí solas en la teoría, incluso expertos cambiando de idea y, en general, mucho follón. Yo mismo he reeditado partes de la entrada que no me parecían bien explicadas o sobre las que estoy reflexionando más a raíz de haber escrito (es un tema en el que yo mismo llevo años y años sin conclusiones 100% certeras en algunos aspectos un tanto escurridizos)Así que yo no querría caer en decir nada categórico tampoco, ni impartir «lecciones magistrales» más allá de 4 conceptos básicos. Gracias en todo caso por valorar lo que yo tenga que aportar al respecto!

  8. Gracias por tus explicaciones de tan fácil comprensión, tienes un gran arte para enseñar .. con tus artículos estoy logrando comprender montones de conceptos que no llegaba entender. Un abrazo agradecido

    1. Author

      Me alegra leer eso, no deja de ser una explicación un tanto incompleta y liante como ya dije antes, pero bueno, todo son escalones para avanzar en el conocimiento! A ver cuándo puedo grabar el siguiente vídeo, que sería el más «práctico» y claro del asunto (o eso espero). Gracias por comentar, un saludo 🙂

  9. Yo no veo ninguna dificultad en emplear PROFOTO, todo lo contrario. Nunca observe ninguna varaición del color, ni en la pàntalla ni pasando la foto a papel.

    1. Author

      Saludos Mr. Valcarcel, yo tampoco he tenido problemas aunque siempre trato de estar «vigilante», por si acaso. Gracias por aportar tu testimonio para que la gente le pierda el miedo a este espacio que tantas veces se tilda de «peligroso» por su amplitud.

  10. Buenas Carlos, entonces en resumidas cuentas, yo que revelo con el ACR ¿qué le ponemos,
    ProPhoto a profundidad de 8 o 16 BIts?

    y luego en Photoshop que espacio ponemos. Lo único que tengo claro es que a la hora de generar el jpg, pasar a srgb.

    La verdad al final aunque lo has expuesto muy claro, me gustaría saber como lo harías tu y sobre todo teniendo en cuenta mi monitor que aunque es un buen panel IPS no llega a tener un espacio color más allá de SRGB.

    Como siempre muchas gracias.

    1. Author

      Raúl: Bueno, como comento en la entrada, es un tema que más que hacer lo que le digan a uno, lo ideal es entenderlo y tomar decisiones. Por ejemplo, yo te recomendaría ProPhoto 16 bits, pero a lo mejor en tu caso no te aporta nada y encima hasta te crea problemas. Por ejemplo, usar 16 bits duplica el tamaño de archivo, y a lo mejor, si ya haces el revelado muy completo en ACR, no necesitas luego los 16 bits.
      Lo que sí puedo decirte es que en Photoshop no has de poner ningún espacio pues la imagen llegará con el espacio que tengas en ACR. No creo que tuviera mucho sentido ponerle ProPhoto en ACR, y luego a entrar en PS, cambiárselo a otro… para eso yo ya pondría ese otro directamente en ACR.

      En caso de duda y si tu monitor no supera el sRGB (o quizá ni llegue pues muchos monitores realmente no cubren ni siquiera el sRGB), puedes trabajar en sRGB para ahorrarte follones y no creo que vayas a notar gran diferencia salvo que hicieras ajustes muy extremos en Photoshop.

      Por último lo siento si la entrada no es muy clara o no da una pauta clara, mi idea era que la gente tuviera una idea para guiarse por sí misma, pero comprendo que a veces soy demasiado friki y demasiado poco práctico… intento corregirme y no aprendo! Pero con vuestros comentarios me voy mentalizando 🙂 Gracias y saludos.

  11. Muchas gracias Carlos.
    La entrada está super clara, el problema es que cada vez tenemos menos criterio y aunque eternamete demandamos libertad de elección, en el fondo nos gusta que nos digan lo que tenemos que hacer, sobre todo cuando la persona que te puede recomendar que hacer, tiene unos conocimientos abrumadoramente superiores a los tuyos, pues dado que en este mundo que nos toca vivir las personas con amplia ignorancia se permiten aconsejarte desconociendo por completo la temática que abordan.
    Cuanto menos es llamativo que alguien simplemente ponga en tu mano la decisión a tomar, explicándote las diferentes opciones.

    En el fondo soy muy práctico y cuando me topo con alguien que domina un tema, necesito que me diga configura esto así y olvidate de entenderlo, ignorante. 😉

    Lo dicho gracias por tu tiempo.

  12. Por fin, una explicación clara y que pude entender, el ejemplo de los edificios y los escalones estuvo genial, muchas gracias por tomarte tu tiempo en escribirlo.

  13. Hola, Carlos.

    Primeramente felicitarte por esta y otras tantas publicaciones que haces, realmente instructivas, reveladoras e interesantes.
    A ver si se me entiende la pregunta. 8 bits puede representar más de 16 millones de colores. El ojo humano, de 10 a 12 millones. El espacio adobe RGB tiene colores cubren aproximadamente el 90% del espectro visible, es decir, de esos 10-12 millones.
    Entonces, cuando trabajamos a 16 bits, ¿de dónde se obtienen tantos colores si todo está limitado por el espacio de color?
    Todo tendría sentido si el espacio de color tuviera una gama bien amplia capaz de cubrir más de 16 millones de colores. ¿Para qué quiero una profundidad de color mayor si estoy limitado por el espacio de color?
    Hay algo que no cuadra o se me escapa algo.

    1. Author

      Hola, Javier. Yo no soy super-experto en estas cosas, pero que yo sepa, los espacios de color no tienen una cantidad definida de colores, o al menos yo nunca he visto que se definan así. Los espacios de color definen un espectro continuo de tonos que viene determinado, entre otras cosas, por unos colores primarios. Pero como digo, son un continuo de gradaciones que solo se concretan en un número específico de tonos una vez se representan con una profundidad de color determinada. Al menos eso es lo que yo sé. Un saludo y gracias por comentar.

      1. Gracias por su pronta respuesta, Carlos.
        Pues estoy bastante perdido. Si no tienen una cantidad definida de colores, no entiendo cómo hay diferencias de tamaño entre los diferentes espacios, ni entiendo cómo se dice que adobe RGB cubre aproximadamente el 90% del espectro visible. Estas afirmaciones dan lugar a pensar que existen cotas, y por tanto, a determinar que el número de colores es finito, como si de una paleta de colores se tratara.
        Existe muy poca información al respecto.
        Muchísimas gracias, Carlos.
        Saludos.

        1. Author

          Hola Javier: Los espacios no tienen una cantidad definida de colores porque las gradaciones pueden ser teóricamente infinitas. Lo que tienen es una definición de hasta dónde llegan, es decir, de dónde están los límites por así decirlo.
          Los espacios de color están definidos de modo similar a una función matemática, es decir, son un continuo. No sé cómo está definido el espectro visible así que ahí no puedo concretar, pero si comparamos entre distintos espacios de color, como digo vienen a ser como funciones (aunque realmente no sé si técnicamente se definen así) que se pueden representar como áreas tridimensionales que contienen todos esos posibles valores. Comparando y superponiendo esas representaciones en 3D para distintos espacios, se puede comparar el rango de colores que cubre cada espacio.
          Si quieres, puedes consultar el vídeo de esta entrada a partir del minuto 5 más o menos (puedes verlo desde el principio también, claro):
          https://www.photoshopeando.com/2014/05/15/colores-que-cambian-al-exportar-introduccion-al-follon-colorimetrico/
          , ahí se muestra cómo «ver» representados los distintos espacios de color, y compararlos.
          Dicho todo esto, el número de colores se vuelve finito una vez esos colores «aterrizan» en una imagen con valores finitos (que solo tienen una gama de 8 bits, 16 bits o lo que sea). Ahí ese continuo se convierte en una especie de paleta (colores individuales). En todo caso es verdad que estos temas no siempre son muy intuitivos, y de hecho son una disciplina aparte en sí misma.
          Ojalá lo anterior aclare un poco más el tema. Gracias por comentar y un saludo.

  14. Hola, Carlos.

    Ahora sí que sí. Llevaba bastante tiempo deseando resolver esta duda y no hubo suerte hasta ahora. No me aclararaban, no explicaban correctamente, o quizá no lo entendía bien.
    En resumen, entre dos tonos que marcan un límite, por ejemplo blanco y verde, existen infinitos tonos verdosos en la gradación. La intensidad del tono verde límite, así como en otros primarios, define a cada espacio. Y entiendo que el ojo humano ve tonos más intensos que los existentes en adobe RGB.
    Lo que me parece increíble es que todo esto no esté claramente explicado en distintas webs que he visitado.
    Así que te agradezco infinitamente que hayas despejado una duda que me embargaba desde hace bastante tiempo.
    Gracias, gracias, gracias.

    1. Author

      Javier: Sí, básicamente es lo que dices. Y por eso es que un espacio de color grande puede ser problemático si luego se representa con pocos bits, porque esas gradaciones que en el espacio de color son continuas, se vuelven discretas (no continuas, sino saltos de tonos) al representarse con un paleta de «x» tonos. Te dará colores más extremos en los límites, pero puede que las gradaciones salgan como franjas en vez de ser una transición suave (y, a su vez, todo esto luego depende de que el monitor o impresora sea capaz de representar esos tonos, pero eso ya es otra historia).
      Supongo que cuando comparan algún espacio de color con el ojo humano, será más por esos límites de hasta donde se llegan a apreciar o distinguir tonos de los extremos, que por número de tonos en sí, pues eso ya depende de los bits o paleta con que se represente, o de la capacidad del órgano para diferenciar matices de gradación sutiles.
      No sé si todo esto está explicado o no en algún lado, lo que sí sé que es un tema bastante complejo y normalmente las explicaciones son largas y a menudo algo abstractas o difíciles de seguir, y al final uno se pierde. De hecho, como ya comentaba, aunque sé algo del tema, no soy experto porque es todo un campo aparte que tiene sus propios especialistas, como ocurre con la impresión (sé algo, pero de nuevo, es un tema que ya constituye una disciplina aparte).
      Gracias de nuevo por tus comentarios y un saludo.

Leave a Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.