CODIFICACION DE LA INFORMACION

Condificion de informacion

Comienza Ya. Es Gratis
ó regístrate con tu dirección de correo electrónico
CODIFICACION DE LA INFORMACION por Mind Map: CODIFICACION DE LA INFORMACION

1. ANDRADE SALDARRIAGA ALEJANDRA - BARRETO GUTIERREZ MARIA PAULA

2. Permite almacenar información utilizando determinadas reglas

2.1. codificacion: Cambio en la información a señal, apta para su comunicación

2.2. Decodoficacion: la señal comunicada es transformada en la información original.

2.3. Codificacion de señales: serie de señales de tipo analógico se transcriben en señales de tipo digital.

2.3.1. Muestreo: Consiste en la toma de muestras de la amplitud de la señal de entrada

2.3.1.1. Cuantificación : Consiste en estimar un valor de cada una de las muestras, de modo que se asigna uno de los posibles valores de la señal a cada de las muestras.

2.3.1.1.1. Codificación : Consiste en traducir los valores obtenidos en el proceso de cuantificación (ya son valores digitales) al sistema binario, mediante la utilización de una serie de códigos preestablecidos.

2.4. ASCII: Es un código de codificación con una capacidad de 7 bits

2.4.1. ASCII Extendido: Estas extensiones usan ocho bits para realizar la codificación, de modo que surgen diversos códigos extendidos que sirven cada uno de ellos para un conjunto de lenguas que tienen caracteres en común

2.4.1.1. Unicode: El objetivo es proporcional el medio mediante el cual es posible la representación de textos en cualquier idioma del mundo, resolviendo la problemática existente con el resto de sistemas de codificación que existían hasta ese momento

3. Unidades de medida

3.1. eferencia convencional que se usa para medir la magnitud física de un determinado objeto, sustancia o fenómeno.https://www.significados.com/unidades-de-medida/

3.1.1. bit es la unidad mínima de información. Se utiliza para representar la contraposición entre dos valores (apagado y encendido, falso y verdadero, abierto y cerrado).https://www.jvs-informatica.com/blog/glosario/bit/

3.1.1.1. El byte es la unidad de información estándar utilizada en informática y en telecomunicaciones. Un byte equivale a un conjunto ordenado de 8 bits.https://www.jvs-informatica.com/blog/glosario/byte/

4. Sistema numericos y alfabeticos: conjunto de símbolos y reglas con los que representar datos numéricos.

4.1. Sistema numeracion decimal: conjunto de símbolos, cuyo significado depende de su posición relativa al punto decimal, que en caso de ausencia se supone colocado implícitamente a la derecha.

4.1.1. Numeracion binario: Este sistema de base 2 es el más sencillo de todos por poseer sólo dos dígitos, fue introducido por Leibniz en el Siglo XVII, es el sistema que internamente utilizan los circuitos digitales que configuran el hardware de las computadoras actuales.

4.1.1.1. Numeracion Hexadecimal: El sistema hexadecimal emplea la base 16. Así, tiene 16 posibles símbolos digitales. Utiliza los dígitos del 0 al 9, más las letras A, B, C, D, E y F como sus 16 símbolos digitale

4.2. Por ejemplo: 10 cententas son 1 unidad de millar 10 C = 1 UM. 6 centenas son 600 unidades 6 C = 600 U. 3000 decenas son 3 decenas de millar 3000D = 3DM.https://aulaprende.com/

4.2.1. Por ejemplo el número en binario 1001 es un número binario de 4 bits. https://www.areatecnologia.com/sistema-binario.htm

4.2.1.1. S = \{0, 1, 2, 3, 4, 5, 6, 7, 8, 9, \cdot \mathrm{A}, \mathrm{B}, \mathrm{C}, \mathrm{D}, \mathrm{E}, \mathrm{F}\}