Programa de restauración de imágenes gratuito

Restauración 1.0 es una aplicación con entorno MDI desarrollada en Visual C++ 6.0 de Microsoft. Es una herramienta completa que permite restaurar imágenes digitales estáticas que han sufrido algún proceso de degradación. Entre sus principales características incluye funciones que permiten minimizar el ruido, enfocar o mejorar el brillo y el contraste de una imagen, siendo además una buena herramienta didáctica, ya que permite simular la mayoría de los procesos de degradación en una imagen, para su posterior restauración.

Esta herramienta ha sido creada por David de la Torre Abellán y se distribuye de manera completamente gratuita con fines educativos.

Descárgala aquí.

Puedes ver y descargar todas las funciones de MATLAB utilizadas en Restauracion 1.0 aquí.

https://pixabay.com/es/edici%C3%B3n-de-fotos-429676/

======================================================
Restauración 1.0
Windows 98/98SE/ME/NT/2000/XP/2003
David de la Torre Abellán
======================================================

Características principales:

– Permite la manipulación de imágenes en formatos BMP de 1, 4, 8 y 24 bits/píxel
sin comprimir y RAW y PGM con un máximo de 256 niveles de gris.
– Sistema integrado de Ayuda en formato “Archivo de ayuda”.
– Completa información de la imagen seleccionada.
– Aplicación de la Transformada de Fourier (FFT) a una imagen.
– Herramientas de filtros en el dominio espacial y frecuencial.
– Herramientas para restauración de imágenes desenfocadas.
– Herramientas para la mejora del brillo y contraste de la imagen.
– Histograma.
– Zoom.
– Transformación a escala de grises.
– Cambio de tamaño y de cuantificación.
– Permite la simulación de degradaciones en la imagen.
Read more

8 características que deberías conocer antes de comprar una TV.

1. RESOLUCIÓN

FullHD es la resolución del Blue-Ray Disc, pero las emisiones de televisión HD no son FullHD. En televisión HD hay dos modalidades:

HDTV (1280×720). Resolución vertical de 720 líneas verticales (720p).

1080i (1920×1080) entrelazado (interlaced). No es una resolución de 1080 líneas, porque se emiten imágenes entrelazadas: líneas pares / líneas impares. Teóricamente es una resolución real 540 líneas (si cada imagen cambiase totalmente con respecto a la anterior).

¿Cuál es mejor? El tema es un poco subjetivo, pero se recomienda la 1080i para imágenes con poco movimiento o movimientos lentos, ya que los movimientos rápidos pueden provocar distorsiones en la imagen. A cambio, esta resolución ofrece más detalles y una mejor imagen.

En cambio, la 720p está más indicada para movimientos de cámara rápidos, por ejemplo, ofrece mejores resultados en sus retransmisiones de acontecimientos deportivos, donde las cámaras muchas veces tienen que moverse a gran velocidad.

Si quieres saber qué es la resolución de una imagen y qué son los megapíxeles:

https://principiatechnologica.com/2013/10/25/que-es-la-resolucion-de-una-imagen-de-fullhd-a-ultrahd/

En cuanto a si merece la pena comprar una televisión 4K (o incluso 8K):

https://principiatechnologica.com/2015/01/13/televisor-4k/

2. 3D

El 3D pasivo emplea la polarización de la luz para lograr que las líneas pares pasen a través de un cristal de la gafa, pero sean filtradas por el otro cristal, y al contrario con las líneas impares. Es el 3D pasivo entrelazado, aunque también se pueden diseñar otros esquemas. La resolución final de la imagen 3D se reduce de manera incontestable, y por ello empieza a tener sentido hablar de 4K. Las gafas son más sencillas, baratas y no llevan electrónica alguna, sólo óptica.

Read more

¿Por qué somos más sensibles al verde? ¿Por qué se creó RGB?

Hablando de colorimetría… este post es una breve historia acerca de la creación del modelo RGB, estudiando qué relación tiene el modelo con la sensibilidad del ojo humano a los colores.

Como sabéis, el modelo RGB es la base del almacenamiento de imágenes en formato RAW (en crudo). Si bien existen muchos otros formatos, como el gran JPG, la información que realmente capta la cámara inicialmente es RGB. Esta información, en crudo y sin procesar, es la que nos ofrece las máximas posibilidades de edición fotográfica, lo que no quiere decir que la imagen tenga mayor calidad. Típicamente, antes de almacenar la imagen comprimida, la cámara aplica multitud de ajustes que aumentan la calidad de la fotografía final en JPG, sucediendo como en el caso de otros formatos que aparecen los artefactos de compresión.

Por lo tanto, la información en bruto de una imagen se almacena en estas tres coordenadas: RED, GREEN, BLUE. Pero estamos hablando de colorimetría, por tanto: qué rojo, qué verde, qué azul, y por qué. Lo primero que cabe decir es que cualquier color existente en el mundo mundial puede ser representado por la suma de tres colores primarios (espacio tridimensional), es lo que nos dicen las Leyes de Grassmann. Tres colores, si se eligen bien (linealmente independientes), son suficientes para representar cualquier color. A continuación se verá que lo interesante es que esos tres colores primarios sean reales, visibles:

Los que han estudiado el ojo humano saben que los bastones captan el nivel de iluminación (luminancia, luma) y son los principales responsables de la visión periférica y de la visión nocturna en blanco y negro. Sin embargo, no aportan información de color (crominancia, croma). Los que se encargan del color son los conos, de los que tenemos tres tipos:

  • Long (L), que detectan longitudes de onda largas (rojos)
  • Medium (M), que detectan longitudes de onda medias del visible (verdes)
  • Short (S), que detectan longitudes de onda cortas (azules).

Read more

Cuantificación y Dither, el ruido bueno

Veamos una vez más la imagen de Lena:

lena_8bits_redondeo
Lena

En este post veremos cómo reducir el número por bits por muestra de una imagen, pero tratando que la calidad se vea afectada lo menos posible. En este caso, sorprendentemente, un ruido inyectado voluntariamente mejora la calidad final. Para empezar, recordemos:

¿Qué es la cuantificación?

La cuantificación es el proceso a través del cual una señal analógica (con niveles de voltaje, por ejemplo) se representa a través de niveles digitales (valores discretos). La señal analógica es perfecta, pero la señal digital ha de ser almacenada como datos en una memoria. La cuantificación es el proceso a través del cual se determinan los números que hay que guardar en esa memoria, y a través de los cuales tenemos que ser capaces de reproducir de nuevo la señal para presentársela al usuario.

Una señal de audio analógica puede tener en un instante de tiempo (diferencial) un valor de tantos decibelios (dB) de nivel de presión sonora (SPL); de la misma forma una imagen analógica puede tener en un punto del espacio (diferencial) un nivel de brillo determinado. El equivalente psicológico del brillo, en fotometría, es la luminancia y se mide en nits o candelas/m2. Las candelas son la intensidad luminosa de una fuente, lo mismo que un altavoz emite con cierta intensidad sonora. Lo interesante es que un sistema de captación, traducirá el SPL o la luminancia en una señal analógica eléctrica, en voltios, y esa señal tiene infinitos niveles. Sin embargo, para almacenar, reproducir, transmitir o procesar esa señal en sistemas digitales, es necesario disponer de ella muestreada con un número discreto de niveles (esto es la cuantificación).

Read more

Aliasing, Moiré y otros fantasmas.

¿Qué hace el filtro AA?

Cuando en una cámara digital vemos filtro AA, el fabricante se está refiriendo a un filtro paso bajo que pone delante del sensor de imagen, también denominado filtro anti-aliasing. Como todo filtro paso bajo, este filtro impone una frecuencia espacial máxima en la imagen final, y en consecuencia es limitante de la resolución, es decir, de la nitidez. En tratamiento digital de imagen, el filtro paso bajo se implementa haciendo la media de brillo de los píxeles de la máscara. Así un filtro de máscara 3×3 tiene como salida en cada píxel la media de brillo de los 8 píxeles que le rodean junto con la del propio píxel, lo que supone un emborronamiento de la imagen. A la hora de digitalizar, el filtro AA analógico hace exactamente lo mismo, perder nitidez y detalles de la imagen original antes de pasar por el CCD.

Pero, ¿por qué interesa al fabricante reducir la calidad de la imagen de su sensor? Pensemos en que la resolución de una cámara es inferior a la de nuestro ojo, y a continuación pensemos en una señal de muy pequeñas barras verticales blancas y negras, de tal manera que una línea es: blanco, negro, blanco, negro, y así sucesivamente. Nosotros lo vemos así, pero como la cámara tiene menor resolución, será incapaz de registrar todas las barras. Lo que ocurrirá es que, según la frecuencia de muestreo, la señal digitalizada tendrá barras blancas y negras de ancho distinto, dando lugar a frecuencias inferiores a las de la señal original. Es el llamado efecto Moiré o ondas de agua, especialmente molesto cuando se trata de señales de video debido al movimiento de las mismas, pero perfectamente apreciable también en imágenes:

Fuente: Wikipedia
Fuente: Wikipedia

Aunque una pérdida de nitidez no es deseable, en fotografía, para huir de este efecto se ha colocado típicamente el filtro AA en los sensores. En el ejemplo anterior, si la señal de barras no era posible digitalizarla sin este efecto, al poner delante un filtro paso bajo, la imagen pierde toda su nitidez y se convierte en un gris, pero es el máximo rendimiento que podemos sacar a la cámara sin el Moiré.

El filtro paso bajo es esencial en todo sistema de adquisición de imágenes o digitalización de señales. El teorema de Nyquist nos dice que la máxima frecuencia que podemos tener en la señal muestreada es la mitad de la frecuencia de muestreo, toda frecuencia superior presente en la imagen no hace más que emborronar la resolución en altas frecuencias de la señal (aliasing), de ahí la existencia del filtro. Por usar una de las imágenes más famosas en procesado de imagen, tomemos la imagen de Lena:

Lena512
Lena512

Esta es la resolución de imagen que ha logrado la cámara, aceptable para nuestro ojo, pero supongamos que como decíamos antes la cámara tiene mucha menos resolución, por ejemplo una cuarta parte. La adquisición será similar a:

Read more