miércoles, 19 de octubre de 2011

CAPITULO 4

UNIDADES DE ALMACENAMIENTO PROCESAMIENTO Y TRANSMICION DE DATOS:

 UNIDADES DE PROCESAMIENTO:La velocidad del procesamiento se mide en hercios o herz y un megahercio que es igual a un millon de herz y esta unidad de frecuencia es equivalente a un ciclo o repeticion de un evento por segundo
La unidad central de procesamientoUCP o CPU (por el acrónimo en inglés de central processing unit), o simplemente el procesador omicroprocesador, es el componente del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce comomicroprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores.
La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros computadores que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término en sí mismo y su acrónimo han estado en uso en la industria de la informática por lo menos desde el principio de los años 1960. La forma, el diseño y la implementación de los CPU ha cambiado drásticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar.
Los primeros CPU fueron diseñados a la medida como parte de una computadora más grande, generalmente una computadora única en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los transistores discretos,computadoras centrales, y microcomputadoras, y fue acelerada rápidamente con la popularización del circuito integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta teléfonos móviles o celulares, juguetes, entre otros.


LOS MICROPROCESADORES
Desde la introducción del primer microprocesador, el Intel 4004, en 1971, y del primer microprocesador ampliamente usado, el Intel 8080, en 1974, esta clase de CPUs ha desplazado casi totalmente el resto de los métodos de implementación de la Unidad Central de Proceso. Los fabricantes de mainframes y minicomputadores de ese tiempo lanzaron programas de desarrollo de IC propietarios para actualizar sus más viejas arquitecturas de computador, y eventualmente produjeron microprocesadores con conjuntos de instrucciones que eran compatibles hacia atrás con sus más viejos hardwares y softwares. Combinado con el advenimiento y el eventual vasto éxito del ahora ubicuo computadora personal, el término "CPU" es aplicado ahora casi exclusivamente a los microprocesadores.
Las generaciones previas de CPUs fueron implementadas como componentes discretos y numerosos circuitos integrados de pequeña escala de integración en una o más tarjetas de circuitos. Por otro lado, los microprocesadores son CPUs fabricados con un número muy pequeño de IC; usualmente solo uno. El tamaño más pequeño del CPU, como resultado de estar implementado en una simple pastilla, significa tiempos de conmutación más rápidos debido a factores físicos como el decrecimiento de la capacitancia parásita de las puertas. Esto ha permitido que los microprocesadores síncronos tengan tiempos de reloj con un rango de decenas de megahercios a varios gigahercios. Adicionalmente, como ha aumentado la capacidad de construir transistores excesivamente pequeños en un IC, la complejidad y el número de transistores en un simple CPU también se ha incrementado dramáticamente. Esta tendencia ampliamente observada es descrita por la ley de Moore, que ha demostrado hasta la fecha, ser una predicción bastante exacta del crecimiento de la complejidad de los CPU y otros IC.
Mientras que, en los pasados sesenta años han cambiado drásticamente, la complejidad, el tamaño, la construcción, y la forma general del CPU, es notable que el diseño y el funcionamiento básico no ha cambiado demasiado. Casi todos los CPU comunes de hoy se pueden describir con precisión como máquinas de programa almacenado de von Neumann.
A medida que la ya mencionada ley del Moore continúa manteniéndose verdadera, se han presentado preocupaciones sobre los límites de la tecnología de transistor del circuito integrado. La miniaturización extrema de puertas electrónicas está causando los efectos de fenómenos que se vuelven mucho más significativos, como la electromigración, y el subumbral de pérdida. Estas más nuevas preocupaciones están entre los muchos factores que hacen a investigadores estudiar nuevos métodos de computación como la computadora cuántica, así como ampliar el uso de paralelismo, y otros métodos que extienden la utilidad del modelo clásico de von Neumann.



UNIDADES DE TRANSMISION DE DATOS: La velocidad de trasmicion de datos mide un tiempo que tarda un host o un servidor en poner en la linea de transmicion el paquete de datos a enviar la unidad de medida que se usa son multiplos de 10 por unidad de tiempo

La velocidad de transmisión de datos se mide en bits por segundo (bits per seconds, bps).Las menciones de bauds o tasa de bauds son incorrectas, El baud es una unidad variable de transmisión de datos y la "rapidez en bauds" es la velocidad a la cual viaja un pulso. La velocidad de transmisión a menudo se llama "rapidez en bits", pero ya que un pulso puede representar varios bits a la vez, a velocidades mayores que 1.200 bps, la rapidez de bits generalmente excede a la rapidez en bauds.
Protocolo de comunicaciones
Conjunto de reglas establecidas para regir el intercambio de datos que permiten que las entidades que se están comunicando puedan comprenderse. Uno de estos protocolos es la velocidad de transmisión; si una máquina "habla" a una 2.400 bps y las otra "escucha" a 1.200 bps, el mensaje no pasará. Entre los protocolos hay códigos predeterminados para algunos mensajes. Los protocolos se definen en capas, la primera de las cuales es la capa física; ésta define la manera en que los nodos de una red se conectan entre sí. Las capas subsecuentes, que varían en cantidad entre protocolos, describen cómo se empacan los mensajes para su transmisión, cómo se encaminan los mensajes a través de la red, los procedimientos de seguridad y la forma en que se proyectan en pantalla los mensajes. Un protocolo sirve para desarrollar tareas como:
·        obtener la atención de otro dispositivo;
·         identificar cada uno de los dispositivos de la comunicación;
·        verificar la correcta transmisión de los mensajes;
·         recuperar los datos cuando ocurran errores.

UNIDADES DE PROCESAMIENTO:La velocidad del procesamiento se mide en hercios o herz y un megahercio que es igual a un millon de herz y esta unidad de frecuencia es equivalente a un ciclo o repeticion de un evento por segundo
SISTEMA BINARIO
El sistema binario, en matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, debido a que trabajan internamente con dos niveles de voltaje, por lo cual su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).

Decimal a binario

Se divide el número del sistema decimal entre 2, cuyo resultado entero se vuelve a dividir entre 2, y así sucesivamente hasta que el dividendo sea menor que el divisor, 2. Es decir, cuando el número a dividir sea 1 finaliza la división.
A continuación se ordenan los restos empezando desde el último al primero, simplemente se colocan en orden inverso a como aparecen en la división, se les da la vuelta.

Ejemplo
Transformar el número decimal 131 en binario. El método es muy simple:
131 dividido entre 2 da 65 y el resto es igual a 1
 65 dividido entre 2 da 32 y el resto es igual a 1
 32 dividido entre 2 da 16 y el resto es igual a 0
 16 dividido entre 2 da 8  y el resto es igual a 0                   
  8 dividido entre 2 da 4  y el resto es igual a 0
  4 dividido entre 2 da 2  y el resto es igual a 0
  2 dividido entre 2 da 1  y el resto es igual a 0
  1 dividido entre 2 da 0  y el resto es igual a 1
             -> Ordenamos los restos, del último al primero: 10000011


Los dispositivos o unidades de almacenamiento de datos son componentes que leen o escriben datos en medios o soportes de almacenamiento, y juntos conforman la memoria o almacenamiento secundario de la computadora.
Estos dispositivos realizan las operaciones de lectura o escritura de los medios o soportes donde se almacenan o guardan, lógica y físicamente, los archivos de un sistema informático.
Byte es una palabra inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto (es decir a ocho bits), para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido.
Se usa comúnmente como unidad básica de almacenamiento de datos en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término "octeto" se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).
La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente la "B" mayúscula, mientras que en los francófonos es la "o" minúscula (de octet); la ISO y laIEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bits).

http://www.youtube.com/watch?v=LRDkLv7A1jk

No hay comentarios:

Publicar un comentario