Tema 1

Tema 01 – Representación y Comunicación de la Información índice 1. Introducción 2. ¿A qué nos refermos cuando hablamos de Información? 1. Definición de Información 2. La Información a lo largo de la Historia 1. Edad Media 2. Edad Moderna 3. Siglo XX 4. Siglo 3. Tipos de Informa 1. Magnitudes 2. Textos 3. Imágenes 4. Señales PACE 1 ori? to View nut*ge 4. La Información Digital 3. Representación Digital de la nformación 1. Sistemas de numeración (posicionales, no posicionales) 1. Cambios de sistemas de numeración 1. Paso de base b a decimal 2. Paso de un decimal a cualquier base 3.

Paso de base b a base c Full-duplex) 3. Según la forma de sincronización (Asíncrona, Sincrona) 4. Según la naturaleza de la señal (Analógicas, Digitales) 3. Problemas de transmisión 1. Distorsión 2. 3. Atenuación ó pérdidas de potencia 4. Alteración de la temporización 5. Ruido 4. Codificación de linea analógica 5. Cifrado digital 6. Compresión digital 1. Comprensión lossless (sin perdida) 1. Compresores estadísticos 2. Compresores basados en diccionario o sustitucionales 3. Compresores híbridos o de dos fases 2. Comprensión lossy (con perdida) 1. Codificación diferencial 2.

Compresión basada en transformadas . Cuantización de vectores 4. Compresión fractal 5. Técnicas de compresión de imágenes en movimiento (interframe) 7. Velocidades de transmisión digital 8. Elementos de un sistema de comunicación digital imprescindible en todos los campos de las ciencias, en cualquier actividad comercial, y siendo característica de la sociedad moderna en los países industrializados, donde se ha acuñado el concepto de sociedad de la información, que ha permitido el mayor grado de intercomunicación global entre todos los puntos del planeta. . ¿A qué nos referimos cuando hablamos de Información? Denominamos información a todo conocimiento comprensible y aprehensible para el ser humano, susceptible de ser expresado en un lenguaje apropiado y de ser transferido a otros seres humanos, para ser compartido y utilizado. 1. En la Edad Media el almacenamiento, acceso y uso limitado de la información se realizaba en las bibliotecas de los monasterios. 2. En la Edad Moderna, con el nacimiento de la imprenta (Gutenberg), los llbros empiezan a fabricarse en serie y surgen los primeros periódicos. . En el siglo XX, irrumpe la radio, la televisión e Internet 4. Hoy en día, ya en el siglo XXI, se habla de la sociedad de la nformación, que ha permitido el mayor desarrollo social y tecnológico en la historia de la humanidad, y se basa en la globalización del acceso a los enormes volúmenes de información existentes en medios cada vez más complejos, con capacidades ascendentes de almacenamiento y en soportes cada vez más reducidos. 3. Tipos de Información directamente interpretables en el modo humano de expresarse por escrito.

Cada símbolo es distinguible y legible por separado, y se compone de símbolos elementales formantes de la comunicaclón verbal llamados caracteres (letras y números, también denominados caracteres alfanuméricos). Se llama alfabeto al conjunto básico de símbolos diferentes que componen todas las palabras formantes del texto. Es el tipo de información que emula a la capacidad humana de la visión. Son percibidas directamente como representación del mundo real y su valor de información será mayor cuanto más lo sea su tamaño, y la precisión con que la imagen representa el objeto real.

Esto se expresa con los conceptos de fiabilidad ó similitud entre la imagen y el objeto representado, y de resolución ó precisión empleada para la representación. Son el tipo de información ligada a la variación de aracterísticas físicas, que se va percibiendo de forma continuada con el paso del tiempo, como puede ser una sucesión más ó menos continua de sonidos y/ó imágenes. Valores como frecuencia de llegada de las señales, calidad de las mismas, precisión de las mismas son criterios para considerar el valor informativo de las señales.

Como hemos dicho, los dos conceptos claves de la información son: 1. poder ser expresada de la manera más adecuada, para que pueda ser mantenida y aumentada sistemáticamente 2. y poder ser comunicada de forma eficaz a cualquier lugar donde se necesita, y en el que se precisa esarrollado sucesivamente nuevas herramientas para el tratamiento y la transmisión de la información. Estas herramientas se basan en la información digital, que utillza sólo dos símbolos, el O y el 1, para cualquier tipo de dato.

Cualquier tipo de información es susceptible de ser convertida en digital, para su tratamiento y transmisión, y ser recuperada posteriormente con sus características originales. 3. Representación Digital de la Información El fenómeno que convierte cualquier tipo de información en digital se denomina codificación y al proceso inverso decodificación. para tener claro los conceptos de codificación y ecodificación de la información, hay que conocer primeramente como funciona el sistema de numeración binario. or ello entraremos brevemente en el estudio de sistemas de numeracion. 1. Sistemas de numeración Sistema para expresar gráficamente los números. Existen sistemas posicionales donde el valor depende de la posiclón (por ejemplo la numeración decimal) y otros no posicionales (sistema romano) donde el valor es independiente de la posición. Para p cifras enteras, q cifras decimales y siendo b la base: = np-l•bp-l + np-2•bp-2 n2•b-2 + 4. nq•b-q – N(IO Ejemplo: 1234(5 = 194(10 = 4, q=o, b = 5) 14-1,54-1 + n4_ -51 +nO. bO+ n1.

S-1 + 112-5-2 + + no•5-o = N(10 2-25 + 3-5 +41 -N(IO 125 + 50+ 1234(5 = 194(10 Se divide el número decimal por la base hasta que se obtenga un cociente menor que la base, luego se recoge el último cociente y los restos obtenidos en orden inverso. Ejemplo: 14414{5 1234/5=246 | resto 4 246 / 5 = 49 resto 49/5=9 | resto 4 9/5=1 resto 4 1/5=0 resto 1 1234(10 14414(5 Se pasará de base b a base decimal y luego de base decimal a base c. 2. El sistema binario El sistema de numeración de base dos, se conoce como sistema binario y utiliza los símbolos O y 1 que correxponden con n BIT (del inglés Binary digilT, Dígito Binario). . Nombre de los grupos de bits, dependiendo de su longitud 3. 4. 4 bits nibble 8 bits byte / octeto 16 bits media palabra 32 bits palabra 64 bits doble pala 0 and O and 1 = O 1 and 2. OR OorO=O 00<-1 1 orO—1 orl- 3. XOR oxoro=o Oxorl-l 1 xorO=1 1 xorl —0 3. El sistema octal El sistema octal utiliza 8 símbolos {0,1 la ventaja de este sistema es la facilidad para pasar un número octal a binario y viceversa. 000(2 = 001(2 - 010(2 - 011(2 - 100(2 101(2 = 110(2 - 111(2 = Ejemplo: 1234(8 = 1 234 001010011100(2 4.

El sistema hexadecimal El sistema hexadecima 10011 100= bolos VOF17 a misma ventala que el ser establecidas, eligiendo intervalos de distinta longitud, más pequeños en aquellos rangos de valores donde es necesaria mayor precisión. 2. Margen de error El error cometido como diferencia entre el valor efectivo, y el valor central asumido para su representación está limitado por la mitad de la anchura del intervalo. Es por lo tanto predecible y controlable. El nivel de estos errores se puede reducir adecuadamente, y en todo caso, por debajo del umbral de percepción del ser humano.

La información es objeto del conocimiento humano, y es ercibida con unos órganos sensonales, que son dispositivos analógicos, basados en reacciones físicas y químicas. Su precisión no es infinita, lo que hace que no sean distinguibles pequeñas diferencias entre señales analógicas antes y después del procesamiento digital. 3. Codificación Una vez reducido el rango continuo a un conjunto de valores discretos, el siguiente proceso es codificar numéricamente estos valores, obteniendo el conjunto de los valores numéncos digitales, en el código binario adecuado. . Extracción de la información desde el formato digital Los valores binarios obtenidos contienen toda la información ue contenía su forma analógica, de manera que se puede volver a recuperar ésta, si se han observado las debidas precauciones en los procesos anteriormente explicados. 4. Datos binarios 1. Enteros Codificando la expresión denominada coma flotante, con una base decimal, y un exponente entero. 2.

Símbolos y Textos Los textos son la expresión del lenguaje humano escrito, y se representan codificando por separado cada uno de los símbolos (caracteres) que lo componen, que pueden ser letras del un alfabeto, cifras numerales sin correspondencia con su valor numérico, signos de puntuación, caracteres especiales, y aracteres de control, y alineación. La codificación se realiza mediante los códigos ASCII (American Standar Code for Information Interchange)y EBCDIC (Extended Binary Code Decimal Interchange Code), especialmente el primero.

Cualquier información digital binaria se puede agrupar en bloques, e interpretarse directamente como un conjunto de caracteres, en este caso se dice que se tratan como ficheros de texto. Se codifican como datos el tamaño de la imagen, la posición de cada elemento de la imagen en las dos dimensiones, generalmente llamado píxel, y los valores que definen su color. Hay multitud de formatos que guardan dicha información (JPG, GIF, PNG, DWG, TIFF, ecétera), algunos de ellos permiten la compresión de la información a base de perder cierta cálidad de la imagen.

Los algoritmos de compresion tienen en cuenta ciertos parámetros de la visión humana para que esta perdida de informacón no sea visible a simple vista. 4. Audio Hay multitud de formatos que guardan dicha información (COA, WMA, ACC, MP3, OGG, ecétera), algunos de ellos permiten la compresión de la infor del sonido. Los algoritmos de perder cierta cálidad n tienen en cuenta tienen en cuenta ciertos parámetros del oido humano para que sta perdida de informacón no sea perceptible. 5. Video Se consideran imágenes en movimiento, lo que equivale a una sucesión de imágenes a un ritmo suficiente para crear la percepción de movimiento.

Se codifican de la misma forma, es decir, como imágenes sucesivas codificadas. Se les sueleñadir sonido, lo que se consigue incluyendo la información sonora intercalada dentro del formato del video. Los formatos de video más conocidos son VCD, SVCD, AVI, DVD. La compresión de la información está implícita. 5. Redundancia en las codificaciones binarias 1. Cálculo de la redundancia R R = 1 -(ln / It) , siendo: In = cantidad de información utilizada por el código *It cantidad de información total Por ejemplo el código BCD usa 4 bits para representa 10 símbolos distintos: R-l -(10 / 24) – 1 -(10 / 16) -1 -0. 25 0. 375 37. 5 % de redundancia. Un código poco redundante es el que aprovecha al máximo todas las posibilidades que tiene para representar la información. 2. Detección de errores A veces es interesante que un código sea redundante para facilitar la detección de errores e incluso repararlo. El bit de paridad (par ejemplo de redundancia para detectar errores. El ue tiene es que no es