Conversión analógica-digital
La conversión analógica-digital (CAD) consiste en la transcripción de señales analógicas en señales digitales, con el propósito de facilitar su procesamiento (codificación, compresión, etc.) y hacer la señal resultante (la digital) más inmune al ruido y otras interferencias a las que son más sensibles las señales analógicas.
Comparación de las señales analógica y digital
Una señal analógica es aquella cuya amplitud (típicamente tensión de una señal que proviene de un transductor y amplificador) puede tomar en principio cualquier valor, esto es, su nivel en cualquier muestra no está limitado a un conjunto finito de niveles predefinidos como es el caso de las señales cuantificadas.
Esto no quiere decir que se traten, en la práctica de señales de infinita precisión (un error muy extendido): las señales analógicas reales tienen todas un ruido que se traduce en un intervalo de incertidumbre. Esto quiere decir que obtenida una muestra de una señal analógica en un instante determinado, es imposible determinar cuál es el valor exacto de la muestra dentro de un intervalo de incertidumbre que introduce el ruido. Por ejemplo, se mide 4,3576497 V pero el nivel de esa muestra de la señal de interés puede estar comprendida entre 4,35 V y 4,36 V y no es físicamente posible determinar ésta con total precisión debido a la naturaleza estocástica del ruido. Sólo el más puro azar determina qué valores se miden dentro de ese rango de incertidumbre que impone el ruido. Y no existe (ni puede existir) ningún soporte analógico sin un nivel mínimo de ruido, es decir, de infinita precisión. Por otro lado, si se pudiera registrar con precisión infinita una señal analógica significaría, de acuerdo con la Teoría de la Información, que ese medio serviría para registrar infinita información; algo totalmente contrario a las leyes físicas fundamentales de nuestro universo y su relación con la entropía de Shannon.
En cambio, una señal digital es aquella cuyas dimensiones (tiempo y amplitud) no son continuas sino discretas, lo que significa que la señal necesariamente ha de tomar unos determinados valores fijos predeterminados en momentos también discretos.
Las señales analógicas no se diferencian, por tanto, de las señales digitales en su precisión (precisión que es finita tanto en las analógicas como en las digitales) o en la fidelidad de sus formas de onda (distorsión). Con frecuencia es más fácil obtener precisión y preservar la forma de onda de la señal analógica original (dentro de los límites de precisión impuestos por el ruido que tiene antes de su conversión) en las señales digitales que en aquéllas que provienen de soportes analógicos, caracterizados típicamente por relaciones señal a ruido bajas en comparación.
¿Por qué digitalizar?
Ventajas de la señal digital
- Cuando una señal digital es atenuada o experimenta perturbaciones leves, puede ser reconstruida y amplificada mediante sistemas de regeneración de señales.
- Cuenta con sistemas de detección y correción de errores, que se utilizan cuando la señal llega al receptor; entonces comprueban (uso de redundancia) la señal, primero para detectar algún error, y, algunos sistemas, pueden luego corregir alguno o todos los errores detectados previamente.
- Facilidad para el procesamiento de la señal. Cualquier operación es fácilmente realizable a través de cualquier software de edición o procesamiento de señal.
- La señal digital permite la multigeneración infinita sin pérdidas de calidad.
- Es posible aplicar técnicas de compresión de datos sin pérdidas o técnicas de compresión con pérdidas basados en la codificación perceptual mucho más eficientes que con señales analógicas.
Inconvenientes de la señal digital
- Se necesita una conversión analógica-digital previa y una decodificación posterior, en el momento de la recepción.
- Si no se emplean un número suficientes de niveles de cuantificación en el proceso de digitalización, la relación señal a ruido resultante se reducirá con relación a la de la señal analógica original que se cuantificó. Esto es una consecuencia de que la señal conocida como error de cuantificación que introduce siempre el proceso de cuantificación sea más potente que la del ruido de la señal analógica original, en cuyo caso, además, se requiere la adición de un ruido conocido como «dither» más potente aún con objeto de asegurar que dicho error sea siempre un ruido blanco y no una distorsión. En los casos donde se emplean suficientes niveles de cuantificación, la relación señal a ruido de la señal original se conservará esencialmente porque el error de cuantificación quedará por debajo del nivel del ruido de la señal que se cuantificó. Esto, naturalmente, es lo normal.
- Se hace necesario emplear siempre un filtro activo analógico paso bajo sobre la señal a muestrear con objeto de evitar el fenómeno conocido como aliasing, que podría hacer que componentes de frecuencia fuera de la banda de interés quedaran registrados como componentes falsos de frecuencia dentro de la banda de interés. Asimismo, durante la reconstrucción de la señal en la posterior conversión D/A, se hace también necesario aplicar un filtro activo analógico del mismo tipo (pasa bajo) conocido como filtro de reconstrucción. Para que dicho filtro sea de fase lineal en la banda de interés, siempre se debe dejar un margen práctico desde la frecuencia de Nyquist (la mitad de la tasa de muestreo) y el límite de la banda de interés (por ejemplo, este margen en los CD es del 10%, ya que el límite de Nyquist es en este caso 44,1 kHz / 2 = 22,05 kHz y su banda de interés se limita a los 20 kHz).
Digitalización
La digitalización o conversión analógica-digital (conversión A/D) consiste básicamente en realizar de forma periódica medidas de la amplitud (tensión) de una señal (por ejemplo, la que proviene de un micrófono si se trata de registrar sonidos, de un sismógrafo si se trata de registrar vibraciones o de una sonda de un osciloscopio para cualquier nivel variable de tensión de interés), redondear sus valores a un conjunto finito de niveles preestablecidos de tensión (conocidos como niveles de cuantificación) y registrarlos como números enteros en cualquier tipo de memoria o soporte. La conversión A/D también es conocida por el acrónimo inglés ADC (analogue to digital converter).
En esta definición están patentes los cuatro procesos que intervienen en la conversión analógica-digital:
- Muestreo: el muestreo (en inglés, sampling) consiste en tomar muestras periódicas de la amplitud de onda. La velocidad con que se toma esta muestra, es decir, el número de muestras por segundo, es lo que se conoce como frecuencia de muestreo.
- Retención (en inglés, hold): las muestras tomadas han de ser retenidas (retención) por un circuito de retención (hold), el tiempo suficiente para permitir evaluar su nivel (cuantificación). Desde el punto de vista matemático este proceso no se contempla, ya que se trata de un recurso técnico debido a limitaciones prácticas, y carece, por tanto, de modelo matemático.
- Cuantificación: en el proceso de cuantificación se mide el nivel de voltaje de cada una de las muestras. Consiste en asignar un margen de valor de una señal analizada a un único nivel de salida. Incluso en su versión ideal, añade, como resultado, una señal indeseada a la señal de entrada: el ruido de cuantificación.
- Codificación: la codificación consiste en traducir los valores obtenidos durante la cuantificación al código binario. Hay que tener presente que el código binario es el más utilizado, pero también existen otros tipos de códigos que también son utilizados.
Durante el muestreo y la retención, la señal aún es analógica, puesto que aún puede tomar cualquier valor. No obstante, a partir de la cuantificación, cuando la señal ya toma valores finitos, la señal ya es digital.
Los cuatro procesos tienen lugar en un conversor analógico-digital.
Ejemplo de digitalización
Un ordenador o cualquier sistema de control basado en un microprocesador no puede interpretar señales analógicas, ya que sólo utiliza señales digitales. Es necesario traducir, o transformar en señales binarias, lo que se denomina proceso de digitalización o conversión de señales analógicas a digitales.
En la gráfica inferior se observa una señal analógica, que para ser interpretada en un ordenador ha de modificarse mediante digitalización. Un medio simple es el muestreado o sampleado. Cada cierto tiempo se lee el valor de la señal analógica.
- Si el valor de la señal en ese instante está por debajo de un determinado umbral, la señal digital toma un valor mínimo (0).
- Cuando la señal analógica se encuentra por encima del valor umbral, la señal digital toma un valor máximo (1).
El momento en que se realiza cada lectura es ordenado por un sistema de sincronización que emite una señal de reloj con un período constante. Estas conversiones analógico-digitales son habituales en adquisición de datos por parte de un ordenador y en la modulación digital para transmisiones y comunicaciones por radio.
Compresión
La compresión consiste en la reducción de la cantidad de datos a transmitir o grabar, pues hay que tener en cuenta que la capacidad de almacenamiento de los soportes es finita, de igual modo que los equipos de transmisión pueden manejar sólo una determinada tasa de datos.
Para realizar la compresión de las señales se usan complejos algoritmos de compresión (fórmulas matemáticas).
Hay dos tipos de compresión:
- Comprensión sin pérdidas: en esencia se transmite toda la información, pero eliminando la información repetida, agrupándola para que ocupe menos, etc.
- Comprensión con pérdidas: se desprecia cierta información considerada irrelevante. Este tipo de compresión puede producir pérdida de calidad en el resultado final.
Las técnicas de compresión sin pérdidas se basan en algoritmos matemáticos que permiten la reducción de los bits que es necesario almacenar o transmitir. Como por ejemplo la llamada codificación de longitud de secuencias, muy utilizada en las técnicas de transmisión digital, mediante la cual se sustituye las secuencias de bits repetidos por la codificación de la longitud de la secuencia (en lenguaje coloquial, mejor decir diez unos que decir uno, diez veces). O la conocida como la codificación relativa o incremental que codifica las diferencias entre dos valores consecutivos, en vez de los valores absolutos (si para representar el valor absoluto de una muestra de una señal con un gran valor dinámico necesitamos un elevado número de bits, seguro que si la señal no tienen tránsitos muy bruscos, necesitaremos menos bits para codificar el rango de la diferencia entre dos muestras consecutivas). Y un último ejemplo podría ser la denominada codificación de longitud variable, que utiliza una codificación dependiente de la frecuencia de repetición de los valores, empleando menos bits para codificar las muestras de los valores se repiten con más frecuencia,(al estilo código Morse).
Las técnicas de codificación mencionadas son de gran utilización en los sistemas de transmisión digital. Sin embargo, en lo que se refiere al tratamiento digital de imagen y sonido, dada la aleatoriedad de este tipo de señales, son poco efectivos en cuanto a la reducción del tamaño de los archivos resultantes.
Por eso, la compresión del sonido y la imagen para Internet se basa más en el conocimiento del funcionamiento de nuestros sentidos. Son técnicas que asumen pérdidas de información, de ahí su nombre de comprensión con pérdidas, pero están diseñados de modo que las “pérdidas” no sean apenas percibidas por los seres humanos.
Como ejemplos clásicos de éstas, podemos citar:
La compresión gráfica GIF. Se basa en la utilización de una paleta de 256 colores estudiados cuidadosamente de acuerdo con la apreciación del color por ojo humano. Con esto se logra una razón de compresión de 1/3. Los 256 se pueden codificar con 8 bits, en vez de usar 24 bits para definir el color verdadero. La pérdida de información parece grande, pero ¿puede el ojo humano apreciar los matices de más de un millón de colores?
La comprensión gráfica JPEG. En lugar de definir la imagen por sus tres colores básicos (G;R;B), utiliza la trasformación de la información de color a la de luminancia (1 valor por muestra) y de crominancia (2 valores por muestra) de forma similar a como se emplea en la señal de televisión. Resulta que el ojo humano es más sensible a los cambios de brillo (luminancia) que de color (crominancia), por lo que estos codecs codifican la luminancia de todas las muestras o pixels y un valor medio de cada una de los valores crominancias cada 4 pixels. Para codificaciones de 8 bits por píxel, la cuenta de la razón de compresión es 4×8+8+8=48, en vez de 4x8x3=96 de la codificación directa).
La comprensión de sonido MP3. La señal se descompone mediante filtros en diversos canales de frecuencia que se muestrean y codifican independientemente teniendo en cuenta la sensibilidad del oído humano a las diferentes frecuencias y rangos dinámicos de cada uno de los canales.
Ejemplo
La música en el formato digital se almacena en el CD. Un sistema óptico de diodos láser lee los datos digitales del disco cuando éste gira y los transfiere al conversor digital-analógico. Este transforma los datos digitales en una señal analógica que es la reproducción eléctrica de la música original. Esta señal se amplifica y se envía al altavoz para poder disfrutarla.
Cuando la música original se grabó en el CD se utilizó un proceso que esencialmente, era el inverso del descrito aquí, y que utilizaba un conversor analógico-digital.
—————————————————–
El presente artículo es una revisión de qué es MPEG (Moving Picture Experts Group) y de los estándares que se usan hoy en día; lo podemos considerar de actualidad, ya que hoy en día se está utilizando MPEG-4
MPEG se estableció en la Junta de Comité Técnico de la ISO/IEC (International Organization of Standarization / International Electrotechnical Commission) con el objetivo de crear estándares de codificación para la representación de imágenes en movimiento, audio asociado y la combinación de los dos, para ser guardados y recuperados en un medio de almacenamiento digital con una tasa de transmisión mayor a 1.5 Mbit/seg.; este estándar se llamó MPEG-1 y fue lanzado en 1992.
MPEG-2 fue lanzado en 1994, con el fin de proveer calidad no menor a los estándares NTSC/PAL y mayor al CCIR 601, con tasas de transmisión entre los 2 y 10 Mbit/seg. Aplicaciones como distribución digital de TV por cable, servicios de bases de datos en red por medio de ATM (Asynchronous Transfer Mode), reproductores digitales de video y distribución de radiodifusión digital vía satélite o terrestre se vieron beneficiadas del lanzamiento de este estándar.
MPEG-4 tiene como objetivo el estandarizar algoritmos y aplicaciones para una flexible codificación y representación de datos audiovisuales, para afrontar los cambios de las futuras aplicaciones de multimedia. Particularmente debe tener una alta interacción y funcionalidad, debe codificar datos naturales y artificiales; así como una gran eficiencia en la compresión. La velocidad de transmisión para MPEG-4 está entre lo 5-54 kbits/seg. para aplicaciones de video redes telefónicas móviles o públicas y arriba de 4 Mbit/seg. para aplicaciones de TV y películas.
Un modelo general, MPEG consta de:
Un algoritmo de compresión en donde se establece como se van a eliminar las redundancias de la señal de video. Existen básicamente dos tipos de algoritmo para realizar la compresión de imágenes los cuales son:
Sin pérdidas: Consiste en reducir el tamaño de la imagen para no perder sus características y calidad originales. La imagen codificada y la original deben de ser iguales antes que se empiece el proceso de decodificación
Con pérdidas: Es en este tipo de compresión en el que se basa MPEG y sus derivaciones (1, 2 y 4), el cual consiste en limitar o reducir la cantidad de bits, esto se debe a que la mayoría de las aplicaciones en transmisión de video tienen un ancho de banda limitado o restringido. Es obvio que mientras más pequeña sea la cantidad de bits, se vuelve más complicado el proceso de compresión de la señal.
Un modelo del Codificador del Video, en el cual se deben de eliminar las redundancias de las señales, tanto espaciales como frecuenciales, con técnicas como interpolación y correlación, esto se realiza con técnicas de interpolación intertramas y de codificación entre estas manipulando los pixels de las mismas, esto lo realiza a través de DPCM/DCT (Differencial Pulse Code Modulation / Discrete Cosine Transform)
Submuestreo e Interpolación: El principio del submuestreo es reducir el tamaño de la imagen, tanto verticalmente como horizontalmente; y por consiguiente el de los pixels que se codificarán. En el receptor, las imágenes son interpoladas antes de que se decodifiquen
Predicción Compensada de Movimiento: Es un proceso muy útil usado en MPEG para eliminar redundancias; se basa en la estimación del movimiento entre dos tramas de video; estas predicciones y el posible error son transmitidos al receptor.
Codificación de Transformación del Dominio: El propósito de la codificación de transformación es de correlacionar el contenido de las inter o intra tramas de imagen de error y codificarlos coeficientes de transformación en vez de los pixels originales de las imágenes.