Imagen: Licencia Creative Commons. |
En ésta oportunidad vamos a arrojar algo de luz sobre cómo se determina la calidad de una imagen, ya sea impresa o vista desde algún dispositivo electrónico. Primero, dando una explicación general de los factores que entran en juego, y luego, yendo al plano de lo visual que es lo que nos trae aquí.
Es muy frecuente leer o escuchar que se hable indiscriminadamente
de tamaño, resolución, y calidad de imagen. Televisores, cámaras fotográficas, imágenes
en pantalla, impresoras, escáneres, y muchos otros ejemplos están íntimamente relacionados
por estos conceptos y es fácil malinterpretarlos si no nos tomamos un momento
para pensar lo que significa cada cosa. Les propongo que partamos de la física
más simple e intuitiva.
Empecemos por definir lo que implica el tamaño. El tamaño es un valor que representa qué tanto ocupa algo
en el espacio. Es una magnitud física simple porque puede cuantificarse y
expresarse con un número y una sola unidad de medida. En el caso particular de
las imágenes podemos asumir que estamos dentro del plano en dos dimensiones,
con lo cual consideremos áreas definidas por su alto y su ancho.
Otro atributo muy importante de la imagen es la resolución. La resolución no es más que
otra forma de ver la densidad. Es
decir, la cantidad de materia que hay por unidad de espacio. Por ejemplo, si
medimos la cantidad de personas que habitan por km2 en un país,
entonces estaremos hablando de densidad por área. La densidad entonces es
una magnitud física compuesta, ya que consta de dos unidades de medida: la
cantidad, y el área o espacio ocupado por esa cantidad.
De acuerdo. Tomémonos un tiempo para asociar los dos
conceptos vistos hasta ahora. Imaginemos
que podemos jugar con un puñado de materia, supongamos que son granos de arroz, y pensemos en acomodar ese arroz de varias maneras. Podemos tomar mucha cantidad
y compactar todos los granos en un espacio reducido; también podemos tomar esa
misma cantidad y esparcirla en un espacio más grande; podemos conservar ese
espacio grande y quitar parte de los granos que pusimos; etc. Tenemos así
infinitas formas de disponer nuestros granos de arroz por todo el espacio que
queramos. Esta es la forma en la que un dispositivo muestra o imprime una imagen. Ni más ni menos, ordena una determinada
cantidad de puntos en el espacio que tenga.
¿Y de qué depende la calidad
de la imagen generada? Bueno, no solamente del tamaño y la densidad de puntos en el dispositivo como hablamos recién, sino también de otros factores como la construcción
del instrumento (lente y sensor) que capturó la imagen, y la distancia que nos separe de la pantalla o del papel. No está de más
hacer hincapié en esto porque es justamente aquí donde otras definiciones
fallan en explicar correctamente toda la cuestión. También cabe aclarar que para
mantener la simplicidad de este artículo no explicaremos cómo se determina la
precisión óptica en las cámaras, sino que diremos sencillamente que las hay de
mayor o menor calidad.
Entonces, hablando estrictamente en términos de
visualización, podemos decir que la calidad de una imagen depende de la calidad
de construcción de la cámara y su lente,
de cuántos puntos se dispongan por unidad de medida, y finalmente de
qué tan grande sea el área donde se
muestre la imagen respecto de su
observador. La clave está en entender que la calidad de una imagen es
relativa. Así puede ocurrir entonces que una fotografía tomada con la mejor
cámara del mercado se aprecie con mala calidad si se la reduce demasiado y se
la mira desde lejos, como así también se apreciará con pésima calidad una
gigantografía publicitaria vista a pocos centímetros de distancia. ¿Se entiende
la relación entre todos los conceptos?
Si no quedaron dudas, la próxima vez que tengamos en mano
las características de una cámara, salgamos a comprar un televisor, o estemos mirando las
propiedades de una imagen en nuestro editor favorito, sólo deberemos interpretar
cuál de estos conceptos se tiene en frente y la unidad de medida con la que se está
trabajando. ¡Suerte!