martes, 19 de noviembre de 2013

CARACTERÍSTICAS DE LOS SISTEMAS OPERATIVOS Y SU EVOLUCIÓN A TRAVÉS DEL TIEMPO.

CARACTERÍSTICAS DE LOS SISTEMAS OPERATIVOS Y SU EVOLUCIÓN A TRAVÉS DEL TIEMPO.




¿ QUÉ ES UN SISTEMA OPERATIVO?

Un Sistema Operativo es una parte importante de cualquier sistema de computación. Un sistema de computación puede dividirse en cuatro componentes: el hardware, el Sistema Operativo, los programas de aplicación y los usuarios. El hardware (Unidad Central de Procesamiento(UCP), memoria y dispositivos de entrada/salida (E/S)) proporciona los recursos de computación básicos. Los programas de aplicación (compiladoressistemas de bases de datosjuegos de video y programas para negocios) definen la forma en que estos recursos se emplean para resolver los problemas de computación de los usuarios.
Esto es a grandes rasgos un concepto de sistemas operativos en el contenido que a continuación presentamos existen diversos conceptos, así como también su historia, características y su clasificación, más adelante se consiguen características o información bastante importante sobre un sistema operativo en particular llamado Novell-Netware.

Existen diversas definiciones de lo que es un Sistema Operativo, pero no hay una definición exacta, es decir una que sea estándar; a continuación se presentan algunas:

1.- Se pueden imaginar un Sistema Operativo como los programas, instalados en el software o firmware, que hacen utilizable el hardware. El hardware proporciona la "capacidad bruta de cómputo"; los sistemas operativos ponen dicha capacidad de cómputo al alcance de los usuarios y administran cuidadosamente el hardware para lograr un buen rendimiento.

2.- Los Sistemas Operativos son ante todo administradores de recursos; el principal recurso que administran es el hardware del computador ;además de los procesadores, los medios de almacenamiento, los dispositivos de entrada/salida, los dispositivos de comunicación y los datos.
3.- Un Sistema Operativo es un programa que actúa como intermediario entre el usuario y el hardware del computador y su propósito es proporcionar el entorno en el cual el usuario pueda ejecutar programas. Entonces, el objetivo principal de un Sistema Operativo es, lograr que el sistema de computación se use de manera cómoda, y el objetivo secundario es que el hardware del computador se emplee de manera eficiente. 4.- Un Sistema Operativo es un conjunto de programas que controla la ejecución de programas de aplicación y actúa como una interfaz entre el usuario y el hardware de una computadora, esto es, un Sistema Operativo explota y administra los recursos de hardware de la computadora con el objeto de proporcionar un conjunto de servicios a los usuarios del sistema.
En resumen, se podría decir que los Sistemas Operativos son un conjunto de programas que crean la interfaz del hardware con el usuario, y que tiene dos funciones primordiales, que son:
  • Gestionar el hardware.- Se refiere al hecho de administrar de una forma más eficiente los recursos de la máquina.
  • Facilitar el trabajo al usuario.-Permite una comunicación con los dispositivos de la máquina.
El Sistema Operativo se encuentra almacenado en la memoria secundaria. Primero se carga y ejecuta un pedazo de código que se encuentra en el procesador, el cual carga el BIOS, y este a su vez carga el Sistema Operativo que carga todos los programas de aplicación y software variado.

CARACTERÍSTICAS DE LOS SISTEMAS OPERATIVOS.

En general, se puede decir que un Sistema Operativo tiene las siguientes características:
  • Conveniencia. Un Sistema Operativo hace más conveniente el uso de una computadora.
  • Eficiencia. Un Sistema Operativo permite que los recursos de la computadora se usen de la manera más eficiente posible.
  • Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin interferir con el servicio.
  • Encargado de administrar el hardware. El Sistema Operativo se encarga de manejar de una mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es, asignar a cada proceso una parte del procesador para poder compartir los recursos.
  • Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se debe encargar de comunicar a los dispositivos periféricos, cuando el usuario así lo requiera.
  • Organizar datos para acceso rápido y seguro.
  • Manejar las comunicaciones en red. El Sistema Operativo permite al usuario manejar con alta facilidad todo lo referente a la instalación y uso de las redes de computadoras.
  • Procesamiento por bytes de flujo a través del bus de datos.
  • Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al usuario el acceso y manejo de los dispositivos de Entrada/Salida de la computadora.
  • Técnicas de recuperación de errores.
  • Evita que otros usuarios interfieran. El Sistema Operativo evita que los usuarios se bloqueen entre ellos, informándoles si esa aplicación esta siendo ocupada por otro usuario.
  • Generación de estadísticas.
  • Permite que se puedan compartir el hardware y los datos entre los usuarios.
El software de aplicación son programas que se utilizan para diseñar, tal como el procesador de palabras, lenguajes de programaciónhojas de cálculo, etc.
El software de base sirve para interactuar el usuario con la máquina, son un conjunto de programas que facilitan el ambiente plataforma, y permite el diseño del mismo.
El Software de base está compuesto por :
  • Cargadores.
  • Compiladores.
  • Ensambladores.
  • Macros.

lunes, 11 de noviembre de 2013

COMPONENTES Y FUNCIONES DE UNA COMPUTADORA

COMPONENTES Y FUNCIONES DE UNA COMPUTADORA.




Una computadora o computador (del  inglés computer y este del latín computare -calcular), también denominada ordenador (del francés ordinateur, y este del latín ordinator), es una máquina electrónica que recibe y procesa  datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas  y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, que puede ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento.
La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.

Las PC forman parte de una de las muchas categorías de computadoras que hay, en nuestra actualidad este tipo de computadora es la que mejor tendremos acceso. Las principales partes de un PC son:


COMPONENTES                                                           FUNCIÓN
MONITOR: El monitor de computadora o pantalla de ordenador, aunque también es común llamarlo «pantalla», es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora. 
CPU:La unidad central de procesamiento o CPU o simplemente el procesador o microprocesador, es el componente del computador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. Los CPU proporcionan la característica fundamental de la computadora digital (la programabilidad) y son uno de los componentes necesarios encontrados en las computadoras de cualquier tiempo, junto con el almacenamiento primario y los dispositivos de entrada/salida. Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a todos los microprocesadores. 
TECLADO: En informática un teclado es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las máquina de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 108 teclas aproximadamente, y está dividido en cuatro bloques: 
    1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa.
    2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales.
    3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, RePag, AvPag, y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones.
    4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitacion de cifras. Además contiene los signos de las cuatro operaciones básicas: suma +, resta -, multiplicación * y division /; también contiene una tecla de Intro o Enter.
MOUSE: El ratón o mouse es un dispositivo apuntador usado para facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.
ENTRADA USB (UNIVERSAL SERIAL BUS) : A través del cable USB no sólo se transfieren datos; además es posible alimentar dispositivos externos. El consumo máximo de este controlador es de 2.5 Watts. Los dispositivos se pueden dividir en dispositivos de bajo consumo (hasta 100 mA) y dispositivos de alto consumo (hasta 500 mA). Para dispositivos que necesiten más de 500 mA será necesaria alimentación externa. Hay que tener en cuenta, además, que si se utiliza un concentrador y éste está alimentado, no será necesario realizar consumo del bus. Una de las limitaciones de este tipo de conexiones es que la longitud del cable no debe superar los 5 m y que éste debe cumplir las especificaciones del Standard USB iguales para la 1.1 y la 2.0
IMPRESORA LÁSER: Una impresora láser es un tipo de impresora que permite imprimir texto o gráficos, tanto en negro como en color, con gran calidad.
El dispositivo de impresión consta de un tambor fotoconductor unido a un depósito de tóner y un haz láser que es modulado y proyectado a través de un disco especular hacia el tambor fotoconductor. El giro del disco provoca un barrido del haz sobre la generatriz del tambor. Las zonas del tambor sobre las que incide el haz quedan ionizadas y, cuando esas zonas (mediante el giro del tambor) pasan por el depósito del tóner atraen el polvo ionizado de éste. Posteriormente el tambor entra en contacto con el papel, impregnando de polvo las zonas correspondientes. Para finalizar se fija la tinta al papel mediante una doble acción de presión y calor.
CD-ROM Y LECTOR DE CD-ROM: El uso de este tipo de disco en el campo de la informática, es en gran parte debido a la alta difusión de música en       este tipo de dispositivos. Ya que en ellos se puede almacenar una gran cantidad de información en forma de: sonidos, imágenes, video, datos, etc. Su capacidad de almacenamiento se puede medir en varios cientos de Mb (hasta 250).
En estos discos compactos la información se registra en una superficie donde se generan minúsculas perforaciones denominadas `pits´ capaces de ser detectadas mediante la incisión sobre ellas de un rayo láser, que será reflejado de distinta forma si existe o no dicha perforación.
Los discos compactos pueden hallarse hoy día, en las siguientes modalidades:
Lectura (CD-ROM, Compact Disk-Read Only Memory): en este tipo de discos, la información es solo para lectura.
Lectura y Escritura (CD-W, Compact Disk-Writable): en este tipo de discos, se puede grabar información una sola vez.
Lectura y Re-Escritura (CD-RW, Compact Disk-Rewritable): en este tipo de discos, se puede grabar información más de una vez.
Todos los discos usados para almacenar información deben ser manejados con gran cuidado pues pueden dañarse muy fácilmente, por lo cual se recomiendan los siguientes cuidados:
Etiqueta los discos para conocer su contenido sin abrirlos. Usa un bolígrafo o marcador con punta suave para no dañar el disco. No le pongas demasiadas etiquetas pues pueden atorarse en la unidad A: No formatees un disco formateado de fábrica. Evita formatear un disco demasiadas veces. Mejor elimina archivos que formatear tu disco. Mantén tus discos alejados de los campos magnéticos emitidos por: monitores, copiadoras, grabadoras, cafeteras y cualquier dispositivo que consuma mucha electricidad. Evita exponerlos a temperaturas extremas, demasiado calor o demasiado frío. Trátalos con cuidado, no los dejes caer, ensucies o dobles, mantenlos en su caja cuando no los uses. No expongas la superficie del disco al polvo o a la humedad, ni la toques con los dedos ya que puedes contaminarlos. Nunca los saques de la unidad de disco A: hasta que se apague la luz indicadora. Recuerda siempre hacer copias (respaldo) de tus archivos importantes.
MEMORIA: En informática, la memoria (también llamada almacenamiento) se refiere a parte de los componentes que integran una computadora. Son dispositivos que retienen datos informáticos durante algún intervalo de tiempo. Las memorias de computadora proporcionan una de las principales funciones de la computación moderna, la retención o almacenamiento de información. Es uno de los componentes fundamentales de todas las computadoras modernas que, acoplados a una unidad central de procesamiento (CPU por su sigla en inglés, central processing unit), implementa lo fundamental del modelo de computadora deArquitectura de Von Neumann, usado desde los años 1940.
En la actualidad, memoria suele referirse a una forma de almacenamiento de estado sólido conocido como memoria RAM (memoria de acceso aleatorio, RAM por sus siglas en inglés random access memory) y otras veces se refiere a otras formas de almacenamiento rápido pero temporal. De forma similar, se refiere a formas de almacenamiento masivo como discos ópticos y tipos de almacenamiento magnético como discos duros y otros tipos de almacenamiento más lentos que las memorias RAM, pero de naturaleza más permanente. Estas distinciones contemporáneas son de ayuda porque son fundamentales para la arquitectura de computadores en general.
Además, se refleja una diferencia técnica importante y significativa entre memoria y dispositivos de almacenamiento masivo, que se ha ido diluyendo por el uso histórico de los términos "almacenamiento primario" (a veces "almacenamiento principal"), para memorias de acceso aleatorio, y "almacenamiento secundario" para dispositivos de almacenamiento masivo. Esto se explica en las siguientes secciones, en las que el término tradicional "almacenamiento" se usa como subtítulo por conveniencia.
ALTAVOZ  (BOCINAS): Los altavoces de la computadora son una forma en que las computadoras hacen sonidos por medios de audio digital o analógico. El altavoz ha dado al equipo una nueva forma de interactuar con sus usuarios: a través del sonido. Hay muchos tipos diferentes de altavoces para diferentes usos.
MÓDEM: Módem (acrónimo de Modulación Demodulación -del acrónimo en inglés Modulator Demodulator-; pl. módems) es el dispositivo que convierte las señales digitales en analógicas (modulación) y viceversa (demodulación), permitiendo la comunicación entre computadoras a través de la línea telefónica o del  cable módem. Este aparato sirve para enviar la señal moduladora mediante otra señal llamada portadora.
Se han usado módems desde los años 60, principalmente debido a que la transmisión directa de las señales electrónicas inteligibles, a largas distancias, no es eficiente, por ejemplo, para transmitir señales de audio por el aire, se requerirían antenas de gran tamaño (del orden de cientos de metros) para su correcta recepción. Es habitual encontrar en muchos módems de red conmutada la facilidad de respuesta y marcación automática, que les permiten conectarse cuando reciben una llamada de la RTPC (Red Telefónica Pública Conmutada) y proceder a la marcación de cualquier número previamente grabado por el usuario. Gracias a estas funciones se pueden realizar automáticamente todas las operaciones de establecimiento de la comunicación.




viernes, 8 de noviembre de 2013

CAMBIOS EN LOS PROCESADORES DE TEXTO DESDE SUS INICIOS HASTA LA ÉPOCA ACTUAL.


La comunicación por escrito fue uno de los grandes avances de la humanidad, pues permitió que grandes ideas pudieran ser transmitidas íntegras hasta generaciones posteriores, lo que no siempre era seguro con la transmisión de las mismas de manera oral. Con el tiempo, y como siempre, buscamos maneras de hacer más fáciles las cosas y en un lapso temporal menor, lo que nos permite eficiencia y efectividad. Con la llegada de los procesadores de texto, se logró un gran paso en este sentido, aún desde los más primitivos sistemas, con las antiguas máquinas de escribir, que han superado la prueba del tiempo, y aún hoy en día, en una u otra forma, siguen vigentes en su uso.
¿ QUÉ ES UN PROCESADOR DE TEXTO?

Por definición, un procesador  de texto es un software  informático destinado a la creación y edición de documentos de texto. Los procesadores de texto brindan unas u otras posibilidades según la aplicación de que se disponga. Como regla general básica, todos los procesadores de texto pueden trabajar con distintos formatos de párrafo, tamaño y orientación de las fuentes, efectos de formato, además de contar con las propiedades de poder  cortar y copiar texto, fijar espacio entre líneas y entre párrafos, alinear párrafos, establecer sangrías y tabulados, crear y modificar estilos, activar presentaciones preliminares antes de la impresión o visualizar las páginas editadas.  Los procesadores de texto incorporan desde hace algunos años también correctores automáticos de ortografía y gramática así como diccionarios multilingües y de sinónimos que facilitan sobremanera la labor de redacción.

Origen y Evolución

  • El procesamiento de textos no nació de la tecnología informática. Se desarrolló de las necesidades de escritores más bien que de las de matemáticos, aunque más adelante se combinara con el campo de las computadoras. La historia del procesamiento de textos es la historia de la automatización gradual de los aspectos físicos de la escritura y la edición, y el refinamiento de la tecnología para ponerla a disposición los usuarios individuales y corporativos.
  • La invención de la imprenta y de los tipos móviles en el final de la edad media fue el paso inicial en esta automatización. Pero el mayor avance desde la escritura manual lo fue la máquina de escribir. Henry Mill, ingeniero inglés de principios del siglo XVII, es considerado su inventor. El hecho de que hoy casi no se sabe nada sobre su invento es evidencia de su carencia del éxito.


  • Christopher Latham Sholes, con la ayuda de dos colegas, inventó la primera máquina de escribir aceptada, en 1867. Comenzó a comercializarse en 1874, por una compañía de fabricación de armas, llamada Remington & Sons, aunque esta información es todavía improbable La desventaja principal de este modelo era que imprimía en la superficie inferior del rodillo, de modo que el mecanógrafo no podía ver su trabajo hasta que había acabado. La aceptación de la máquina de escribir fue lenta al principio, pero se facilitó durante los años próximos gracias a varias mejoras. Éstas incluían: la tecla de mayúsculas, que permitió mecanografiar letras capitales y minúsculas con las mismas teclas (1878); impresión en el lado superior del rodillo (1880); y el tabulador, permitiendo el ajuste de los márgenes (1897).



  • Thomas Edison patentó una máquina de escribir eléctrica en 1872, pero el primer modelo realizable no fue introducido hasta los años 20. En los años 30, IBM introdujo una versión más refinada, la IBM Electromatic. "Aumentó grandemente las velocidades de escritura y ganó rápidamente la aceptación en la comunidad de negocios."



  • En 1964 IBM desarrolló la MT/ST (máquina de escribir magnética de Tape/Selectric), que combinó las características del Selectric (una bola con los tipos imresos) con una de cinta magnética. La cinta magnética era el primer medio de almacenaje reutilizable para la información mecanografiada. Con esto, por primera vez, el material mecanografiado podía ser corregido sin tener que escribir de nuevo el texto entero a máquina. En la cinta, la información se podía almacenar, y usar de nuevo, corregir, reimprimir tantas veces como fueran necesarias, y después borrar y reutilizar para otros proyectos. Este desarrollo marcó el principio del procesamiento de textos como se conoce hoy. También introdujo el procesamiento de textos como una idea y concepto definidos. El término primero fue utilizado en la comercialización de la IBM del MT/ST como "máquina de procesamiento" de textos. Era una traducción del término alemán textverabeitung, acuñado a finales de los años 50 por Ulrich Steinhilper, ingeniero de la IBM. Que lo utilizó como término más exacto para referirse al acto de mecanografiar. La IBM lo redefinió "para describir maneras electrónicas de manejar un sistema estándar de actividades de la oficina -- componiendo, revisando, imprimiendo, y archivando un documento escrito."



  • En 1969 IBM introdujo la MagCards, tarjetas magnéticas que se insertaban en una caja unida a la máquina de escribir y grababan el texto mientras que era mecanografiado. Las tarjetas se podían entonces utilizar para buscar y reimprimir el texto. Éstos eran útiles sobre todo a las compañías que tenían que enviar gran cantidad de cartas. Sin embargo, solamente se podía almacenar un valor aproximado de una página en cada tarjeta.



  • En 1972 Lexitron y Linolex desarrollaron un sistema similar de procesamiento de textos, pero incluyeron las pantallas de visualización y los cassettes de cinta para el almacenaje. Con la pantalla, el texto podría ser incorporado y ser corregido sin tener que producir una copia dura. La impresión podría ser retrasada hasta que el escritor estuviese satisfecho con el material.

  • El disquete marcó una nueva etapa en la evolución de los medios de almacenaje. Desarrollado por IBM a principios de los años 70 para el uso en la informática, pronto fue adoptada por la industria del procesamiento de textos. Vydec, en 1973, parece haber sido el primer fabricante que produjera un sistema de procesamiento de textos usando los disquetes para el almacenamiento. Los medios de almacenamiento anteriores podían guardar solamente una o dos páginas de texto, pero los primeros discos eran capaces de almacenar 80 a 100 páginas. Este aumento de la capacidad de memoria permitió la fácil creación y edición de documentos de páginas múltiples sin la necesidad de cambiar el medio en que se almacenaban los datos.






Durante los diez años próximos muchas nuevas características fueron introducidas en el campo. 

  • Una innovación importante era el desarrollo de los programas del chequeo de la ortografía y de las listas de correo. Otro avance, introducido por Xerox en su Sistema de Información Estrella (Star Information System), permitieron el trabajar en más de un documento a la vez en la misma pantalla. Algunos programas ahora incluso incorporan las funciones de contabilidad y de inventario, combinando el procesamiento de textos con la informática y terminar así la unión del procesador de textos a la computadora. El campo combinado se conoce como tratamiento de la información.


  • El WORDSTAR, desarrollado por Micropro International, emergió como el estándar de la industria en paquetes de software, aunque otros, actualmente, lo sobrepasan en muchísimas características.


Hay más de sesenta sistemas completos del procesamiento de textos en el mercado, y más de treinta paquetes de software para el uso en computadoras, todos con diversas capacidades y demandas sobre su eficacia.
La lista dada aquí subestima probablemente el número realmente disponible hoy en día.

Sistemas Completos de Procesamiento de Texto
MODELO: VENDEDOR:
Datapoint Datapoint
Infowriter Honeywell
Multivision Applied Digital Data Systems
Displaywriter IBM Corporation
W100 Toshiba
Micom 2001E Philips Information Systems
HP Word on HP3000 Hewlett-Packard
5520 Information System IBM Corporation
8000 Series "Star" (network) Xerox
Stand-alone (elect typwrtr extnsn) Olympia
Type-990 (software for minis) Texas Instruments
Programas de Computadoras para Procesamiento de Texto
Apple Pie Editor and Formatter Hayden Book Company
Apple Writer III Apple Computer, Inc.
Comprehensive Electronic Office Data General Corporation
DisplayWrite 2 IBM Corporation
Easywriter Professional & II Information Unlimited Software
Executive Secretary Sofsys
FinalWord Mark of the Unicorn
Lazywriter ABC Sales
Leading Edge Leading Edge Products, Inc.
Microsoft Word Microsoft Corporation
MultiMate MultMate International
NBI NBI
Omniword Northern Telecom
Palantir Tier I & Tier 2 Designer Software
Para Text Para Research
Peachtext (formerly Magic Wand) Peachtree Software
Perfect Writer Perfect Software
Samna Word II & III Samna Corporation
SCRIPSIT 2.0 Radio Shack
Select Word-Processing Select Information Systems
Spellbinder Lexisoft
Text Wizard Datasoft
VisiWord Plus VisiCorp
Volkswriter Lifetime Software, Inc.
Word-11 Data Processing Design, Inc.
WordPerfect Satellite Software Intl.
WordStar MicroPro International
WordVision Bruce & James Program Pubs.
XyWrite XyQuest

CAMBIOS EN LOS DISPOSITIVOS PERIFÉRICOS A TRAVÉS DEL TIEMPO Y LAS NECESIDADES QUE SATISFACEN


CAMBIOS DE LOS DISPOSITIVOS PERIFÉRICOS





Se denominan periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de la memoria principal.
Según la definición de periférico dada anteriormente, éstos están constituidos por unidades de entrada, unidades de salida y unidades de memoria masiva auxiliar.
Una Computadora es una máquina que no tendría sentido si no se comunicase o interactuara con el exterior, es decir, si no tuviese periféricos.
 Los dispositivos de E/S transforman la información externa en señales codificadas, permitiendo su transmisión, detección, interpretación, procesamiento y almacenamiento.
DISPOSITIVOS DE ENTRADA Y SALIDA
Los dispositivos de entrada son aquellos elementos de hardware que nos permiten el ingreso de datos a la computadora, los mismos que luego de ser procesados serán presentados al usuarios a través de los dispositivos de salida, de los primeros podemos mencionar, el teclado, el mouse, etc. y de los segundos entre los más conocidos podemos anotar la impresora, el monitor, etc.
EL TECLADO DE ORDENADOR - HISTORIA Y EVOLUCIÓN
El teclado, es quizás el componente menos valorado y tenido en cuenta en el ordenador que utilizamos a diario. Damos por hecho que es una pieza integrada en nuestro PC, y no le damos importancia hasta que se estropea. Es bastante curioso teniendo en cuenta que es la parte del ordenador que mas utilizamos y tocamos.
Originalmente, el teclado estándar no se desarrolló a partir de una sola fuente. Se creo por medio de tres proyectos diferentes generados por IMB, y hubo más de un problema a lo largo de su camino.
Muchas configuraciones tienen su origen directo en el teclado IBM “IBM Enhanced 101 Key Keyboard”, el cual IBM asentó como estándar en el año 1987. Este teclado mejorado no fue el primero que creo IBM sino el tercero. ¿Cómo fueron los anteriores modelos de teclados? Para empezar, el primer teclado original de IBM tenía 83 teclas (IBM PC and XT keyboards). Había 10 teclas de función en la parte izquierda del teclado, y unas teclas numéricas y un cursor en la parte derecha. Lo que ahora llamamos Control (ctrl.), y las teclas Shift y Alt, estaban localizados un una línea cerca de las teclas de función.
La tecla escape (Esc) estaba a la izquierda de los números en la parte superior. A la derecha de la tecla Shift, una tecla permitía al usuario teclear el signo tan común  *.* de forma directa. El diseño de este primer teclado de IBM era un poco absurdo respecto a la colocación de las teclas, aunque las abreviaturas y atajos a ciertas funciones eran bastante prácticas. Por desgracias, muchas de estos atajos desaparecieron en los teclados modernos.
El siguiente diseño de IBM fue el teclado original AT. Era de algún modo incompatible con el mas temprano diseño PC/XT, se podía reprogramar para que el teclado funcionara. El teclado AT  aceptaba 10 teclas de función a la derecha, y colocó la tecla de escape en la parte de los números.
En algún punto, en donde el mercado forzó a IBM la actualización delordenador AT, introdujo el modelo mejorado de teclado, el cual hemos comentado al principio, y que era compatible con el modelo AT original, pero con un diseño muy distinto. La tecla Esc y las 12 teclas de función estaban ahora en la parte superior, los números se movieron a la parte derecha. Los cursores cambiaron, convirtiéndose en lo que conocemos hoy en día. Cuatro teclas con flechas en la parte inferior al lado de los números, y encima, un grupo de 6 teclas, para paginar arriba y abajo, suprimir, inicio, insertar y finalizar.
Como curiosidad, comentaremos que la tecla suprimir dio algunos problemas a los usuarios de la época ya que muchos la presionaban para finalizar un trabajo, cuando en realidad lo estaban borrando. Hay que tener en cuenta que en los antiguos ordenadores no había demasiada memoria, por lo que algunos trabajos eran irrecuperables. Afortunadamente, hoy en la mayoría de casos, se pueden salvar esos datos perdidos.
Algunos cambio más se han ido produciendo dejando el teclado tal como lo conocemos hoy en día. Hay incluso teclas que realmente no sabemos para que son. Somos seres de costumbres y normalmente nos habituamos a tocar ciertas teclas que nos sirven para nuestras tareas y con eso es suficiente.

EVOLUCIÓN DEL MOUSE.
Uno de los periféricos más olvidados cuando hablamos de nuestro hardware es el ratón. En parte por olvido, en parte porque pasa un poco desapercibido ante los billones de microtransistores que componen los actuales procesadores y núcleos de video, pero lo general es que muchos usuarios en general invierten sumas millonarias en su nuevo computadorcomprando con las monedas que reciben de cambio ratón y teclado. Los más sensatos buscan un poco más de equilibrio, conscientes de que finalmente el mouse será el periférico que nos hará la experiencia de uso de la máquina grata o ingrata en la mayoría de los casos; el caso extremo de esto son los gamers empedernidos, que invierten grandes sumas de dinero en ratones que les permitan tener la mayor precisión posible al jugar (100 dpi pueden ser claves a la hora de un frag en una partida muy competitiva).
Hoy, el mouse está cada día más cercano a dejar de ser un roedor propiamente tal, de la mano de las tecnologías inalámbricas que están dejándolo sin cola, pero no por eso vamos a dejar de celebrar su cumpleaños número 40 (les apuesto que todos pensaban que tenía mucho menos tiempo) mostrándoles parte de un reportaje que preparó el blog de la Wired (sólo una parte, para que vayan a leerlo completo allá) con un breve recorrido por su evolución y futuro.
 El primer dispositivo señalador que el mundo conoció fue el que presentó Douglas Engelbart el 9 de Diciembre de 1968, en una demostración pública de lo que podía ser un “computador personal” (a diferencia de esos salones llenos de tubos que componían una computadora profesional de la época) y que es el hecho que históricamente dio el puntapié inicial a la revolución de la computación  
Este protomouse era un bloque de madera tallado, con solamente un botón y debajo tenía dos ruedas sobre ejes que tenían la función de mover un par de potenciómetros que eran los que en rigor daban la posición del puntero.
Como en ese tiempo todo se trataba de experimentar, no sólo se probaron prototipos de dispositivo señalador operados con la mano. También se trabajó en un aparato que nos permitía controlar el puntero con la rodilla.          
El aparato naturalmente se ubicaba debajo de la mesa y estaba inspirado en el hecho de que las piernas podían ser utilizadas con bastante precisión para manejar los pedales de un automóvilSegún Engelbert, el dispositivo podía ser aún más preciso que un mouse operado con la mano. Por suerte no logró imponerse por sobre éste, El paso que permitió que el mouse se posicionara definitivamente como el dispositivo señalador preferido fue su incorporación en el primer Mac, el Macintosh 128K allá por 1984, que tenía la gracia de tener un sistema operativo con una interface gráfica (mucho antes de Windows) donde el puntero se controlaba con el mouse.
El mouse Apple era bastante cuadrado y además incluía sólo un botóncosa que fue característica del fabricante de la manzana por mucho tiempo (aún cuando los sistemas operativos fueron evolucionando e incorporaron menús contextuales si los querías invocar con el mouse tenías que ocupar una tecla del teclado o usar un mouse de otra marca).
El primer trackball es incluso anterior al primer mouse de Engelbert, pero su uso no estaba orientado a computadoras personales sino que al control del DATAR, una máquina de la armada canadiense que permitía simular un campo de batalla con radar y todo.
 Los trackball fueron evolucionando, eliminando la bola de boliche y cambiándola por una de un tamaño algo más discreto; Logitech vendió varios productos basados en trackball y orientados a gamers pero donde hemos visto una especie de renacimiento del concepto (amado por algunos y odiada por otros) es en los teléfonos inteligentes, como las Blackberry y el T-Mobile G1. En ellos la bolita se hace aún más pequeña para quedar a merced de los pulgares.
Otra cosa amada y odiada por muchos son los touchpad. Hoy en día presentes en la totalidad de los computadores portátiles (que día a día van apoderándose más y más del mercado), consisten básicamente en una superficie plana donde al deslizar el dedo podemos mover el puntero de la interface. Una característica que tienen es que no son absolutos, es decir da lo mismo donde apoyemos el dedo ya que ahí será donde coja al puntero (a diferencia de las tabletas digitalizadoras, que si pueden trabajar de modo absoluto).                                       
Hoy en día los touchpad (o trackpad como también se les conoce) se han desarrollado permitiéndo el uso de más de un dedo (el ejemplo perfecto son los nuevos Macbook, donde incluso se reconocen gestos de varios dedos asignables a funciones del sistema operativo). Synaptics, uno de los fabricantes más grandes de touchpads últimamente ha liberado drivers que permiten el uso de varios dedos en Windows.                       


EVOLUCION DEL SCANNER.
Un escáner de computadora es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes impresas o documentos a formato digital.
Los escáneres pueden tener accesorios como un alimentador de hojas automático o un adaptador para diapositivas y transparencias.
Al obtenerse una imagen digital se puede corregir defectos, recortar un área específica de la imagen o también digitalizar texto mediante técnicas deOCR. Estas funciones las puede llevar a cabo el mismo dispositivo o aplicaciones especiales.
Hoy en día es común incluir en el mismo aparato la impresora y el escáner. Son las llamadas impresoras multifunción
Tipos de escaner
Hay varios tipos. Hoy en día los más extendidos son los planos.
  • De rodillo. Como el escáner de un fax
  • "de barras".- Se usan para registrar codigo de barras
  • De mano. En su momento muy económicos, pero de muy baja calidad. Prácticamente extintos.
  • Planos. Como el de las fotocopiadoras.
  • Cenitales. Para escanear elementos frágiles.
  • De tambor. Consiguen muy buena calidad de escaneo, pero son lentos y caros.
  • Otros tipos. Existen tipos de escáneres especializados en un trabajo determinado (por ejemplo para escanear microfilms, o para obtener el texto de un libro completo, para negativos...).
Escáner plano
También llamados escáneres de sobremesa, están formados por una superficie plana de vidrio sobre la que se sitúa el documento a escanear, generalmente opaco, bajo la cual un brazo se desplaza a lo largo del área de captura. Montados en este brazo móvil se encuentran la fuente de luz y el fotosensor de luz (por lo general un CCD).
Conforme va desplazándose el brazo, la fuente de luz baña la cara interna del documento, recogiendo el sensor los rayos reflejados, que son enviados al software de conversión analógico/digital para su transformación en una imagen de mapa de bits, creada mediante la información de color recogida para cadapíxel.
La mayoría de estos escáneres pueden trabajar en escala de grises (256 tonos de gris) y en color (24 y 32 bits) y por lo general tienen un área de lectura de dimensiones 22 x 28 cm. y una resolución real de escaneado de entre 300 y 2400 ppp, aunque mediante interpolación pueden conseguir resoluciones de hasta 19200 ppp.
Están indicados para digitalizar objetos opacos planos (como fotografías, documentos o ilustraciones) cuando no se precisa ni una alta resolución ni una gran calidad.
Algunos modelos admiten también adaptadores especiales para escanear transparencias, y otros poseen manipuladores de documento automáticos (Automatic Document Handler) que pueden aumentar el rendimiento y disminuir la fatiga del operador en el caso de grupos de documentos uniformes que se encuentran en condiciones razonablemente buenas.
Los escáneres planos son los más accesibles y usados, pues son veloces, fáciles de manejar, producen imágenes digitalizadas de calidad aceptable (sobre todo si están destinadas a la web) y son bastante baratos, pudiéndose adquirir uno de calidad media por menos de 120 €.
La mayor desventaja de estos escáneres es la limitación respecto al tamaño del documento a escanear, que queda limitado a los formatos DIN-A5 o DIN-A4.
Escáner cenital
Un escáner cenital (en inglés planetary scanner u orbital scanner) es un tipo de escáner que se utiliza para hacer copias digitales de libros o documentos que, por ser viejos o extremadamente valiosos, para que no se deterioren escaneándolos con otro tipo de escáner.
Estos escáneres consisten en una cámara montada en un brazo que toma fotos del elemento deseado. Su ventaja principal es que los libros no tienen que ser abiertos completamente (como pasa en la mayoría de los escáneres planos). El escaneo de volúmenes encuadernados se realiza gracias a que la fuente de luz y el sensor CCD se encuentran ensamblados a un brazo de trayectoria aérea.
En sus inicios el precio de estos escáneres era elevado y sólo se utilizaban en museos y archivos, pero en la actualidad la disponibilidad de cámaras digitales buenas y baratas han hecho que estos escáneres no resulten tan privativos.
Escáner de tambor
Los escáneres de tambor son los que más fielmente reproducen el documento original, ya que producen digitalizaciones de gran calidad y resolución (hasta 16.000 ppp de resolución óptica). Sus problemas son la velocidad de escaneo (son lentos), no son indicados para documentos de papel quebradizo porque es necesario curvarlo sobre el tambor y requieren un alto nivel de habilidad por parte del operador. Además, son bastante caros.
Utilizan una tecnología diferente a la del CCD. Los originales, normalmente transparencias (aunque se pueden escanear opacos también), se colocan en un cilindro transparente de cristal de gran pureza, que a su vez se monta en el escáner. El tambor gira entonces a gran velocidad mientras se hace la lectura de cada punto de la imagen. La fuente de luz suele ser un láser que se encuentra dentro del tambor (para transparencias) o fuera (para opacos), y el sensor es un tubo fotomultiplicador (PMT) que recibe la luz de un único punto de la imagen en cada instante.
Producen digitalizaciones de alta resolución y buena gama dinámica entre bajas y altas luces, con imágenes en colores primarios, que pueden ser convertidas en CMYK mientras el lector recorre la imagen.
Son muy caros, oscilando su precio, según modelos, entre 15.000 € y 200.000 €, por lo que suelen ser usados exclusivamente por empresas especializadas del sector de las artes gráficas (laboratorios, imprentas, editoriales, etc.).

Escáner para microfilm

Los escáneres para microfilm son dispositivos especializados en digitalizar películas en rollo, microfichas y tarjetas de apertura.
Puede ser difícil obtener una calidad buena y consistente en un escáner de este tipo, debido principalmente a que los suelen tener un funcionamiento complejo, la calidad y condición de la película puede variar y ofrecen una capacidad de mejora mínima. Son escáneres muy caros, existiendo pocas empresas que los fabriquen.

Escáner para transparencias

Los escáneres para transparencias se utilizan para digitalizar diapositivas, negativos fotográficos y documentos que no son adecuados para el escaneado directo. Pueden trabajar con varios formatos de película transparente, ya sea negativa, positiva, color o blanco y negro, de tamaño desde 35 mm hasta placas de 9 x 12 cm.
Existen dos modalidades de este tipo de escáneres:
  • Escáneres de 35 mm. Solo escanean negativos y transparencias, pero lo hacen a resoluciones muy altas.
  • Escáneres multiformato. Suelen capturar transparencias y negativos hasta formato medio o hasta formato de placas 4”x 5” o incluso 5”x 7”, tienen una resolución muy alta y un rango dinámico en ocasiones sorprendente, pero frecuentemente no permiten escanear opacos. El uso de medios transparentes por lo general produce imágenes con un buen rango dinámico, pero, dependiendo del tamaño del original, la resolución puede ser insuficiente para algunas necesidades.
La calidad obtenida es mayor que la que ofrecen los escáneres planos, aunque hay que tener cuidado con la presencia de motas de polvo o rascaduras en las transparencias, que pueden ocasionar la aparición de impurezas en la imagen digitalizada resultante.

Escáner de mano

                                                
 Estos escáners son dispositivos manuales que son arrastrados sobre la superficie de la imagen a escanear. Escanear documentos de esta manera requiere una mano firme, entonces una desigual velocidad de exploración produce imágenes distorsionadas, normalmente un indicador luminoso sobre el escáner indica si la exploración fue demasiado rápida. Generalmente tienen un botón "Inicio", el cual es sostenido por el usuario durante la exploración; algunos interruptores para configurar la resolución óptica y un rodillo, lo que genera un reloj de pulso para sincronización con lacomputadora. La mayoría de escáneres de mano fueron en blanco y negro, y la luz generada por una serie de LEDs verdes para iluminar la imagen. Un típico escáner de mano también tenía un programa que abría una pequeña ventana a través de la cual se podía ver el documento que se escaneaba. Fueron populares durante la década de 1990 y, por lo general tenían un módulo de interfaz propietario específico para un determinado tipo de computadora, generalmente un Atari ST o Commodore Amiga.

 Aplicación del Scanner:



HISTORIA DEL LÁPIZ ÓPTICO
Es una unidad de ingreso de información que funciona acoplada a una pantalla fotosensible.
Es un dispositivo exteriormente semejante a un lápiz, con un mecanismo de resorte en la punta o en un botón lateral, mediante el cual se puede seleccionar información visualizada en la pantalla. Cuando se dispone de información desplegada, con el lápiz óptico se puede escoger una opción entre las diferentes alternativas, presionándolo sobre la ventana respectiva o presionando el botón lateral, permitiendo de ese modo que se proyecte un rayo láser desde el lápiz hacia la pantalla fotosensible.
Es un dispositivo señalador que permite sostener sobre la pantalla un lápiz que está conectado al ordenador o computadora y con el que es posible seleccionar elementos u opciones (el equivalente a un clic de mouse o ratón), bien presionando un botón en un lateral del lápiz óptico o presionando éste contra la superficie de la pantalla. El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla. La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla. El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario.
Aplicación del lápiz óptico:


EVOLUCION HISTORICA DEL MICROFONO.

En 1827, Wheastone utiliza por primera vez la palabra “micrófono” para describir un dispositivo acústico diseñado para amplificar sonidos débiles. Procede de los vocablos griegos “micro”(pequeño) y “phon”(sonido).

En 1876, Alexander Graham Bell registra una patente del “telégrafo hablado”(el primer teléfono). Por primera vez incluye el micro funcional que usa un electroimán.

En 1877, aparece el micrófono de “contacto suelto” o “carbón”, un diseño no magnético basado en partículas conductoras de carbón como las que tienen los teléfonos.

En 1878, es diseñado el primer micro de bobina móvil.
En 1917, presentan el primer micro de condensador práctico y moderno.
En 1931, Western Electric presenta el primer micro dinámico: el modelo 600, serie 618.

En 1931, la marca RCA presenta el primer micrófono de cinta bidireccional: 44ª de imán permanente.
En 1947, se funda AKG en Viena.
En 1948, Neumann lanza el micro a válvulas U47, el primer micro de condensador con patrón conmutable entre cardioide y omnidireccional. Acabó convirtiéndose en todo un clásico para grabar voces desde que se supo que Frank Sinatra se negaba a cantar sin su U47.
En 1962, Hideo Matsushita establece la empresa Audio-Technica Corporation en Tokio. La compañía lanza los modelos AT-1 y AT-3MM de cápsulas estereofónicas y empieza a suministrar cápsulas a fabricantes de audio. Posteriormente, en 1978, Audio-Technica lanza los auriculares de condensador ATH-8 y ATH-7. Estos auriculares ganaron diversos premios.
Este año también se produjo el desarrollo y lanzamiento de la Serie 800 de micrófonos, y la creación de Audio-Technica Ltd. en Leeds, Inglaterra.
En 1991, sale al mercado el micrófono de condensador AT4033, elegido mejor micrófono en el AES(Audio Engineering Society) y en 1994, presenta el micrófono de condensador de multipatrón AT4050/CM5.
En 1995, la planta de fabricación de micrófonos, auriculares, sistemas inalámbricos y mezcladores de micrófono consigue la certificación ISO9002.

En 1996, los micrófonos y auriculares Audio-Technica son utilizados en todos los recintos de los Juegos Olímpicos de Atlanta.
En 1998, Audio-Technica presenta el AT4060 un micro de condensador a válvulas de estudio; y el excelente resultado de los productos Audio-Technica en Atlanta ’96, hacen que en el año 2000 sea designada también como proveedor de en los juegos de Sydney’00.
En 2002, Audio-Technica celebra su 40 aniversario. Y es designada, para proporcionar aproximadamente 2.800 micrófonos para los Juegos de SALT Lake City, marcando así su primera participación en unos Juegos Olímpicos de Invierno. A pesar de las severas condiciones climáticas, los micros A-T respondieron perfectamente.

Desde sus inicios como fabricante de cápsulas estereofónicas hace 40 años,
Audio-Technica ha permanecido en la vanguardia y ha desarrollado numerosas tecnologías que se han convertido en estándares de la industria.



DISPOSITIVOS DE SALIDA

HISTORIA DE LOS MONITORES

El monitor es el principal periférico de salida de una computadora. Estos se conectan a través de una tarjeta gráfica conocida con el nombre de adaptador o tarjeta de vídeo.
La imagen que podemos observar en los monitores está formada por una matriz de puntos de luz. Cada punto de luz reflejado en la pantalla es denominado como un píxel.
Clasificación según estándares de monitores
Según los estándares de monitores se pueden clasificar en varias categorías. Todos han ido evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y mejorar la calidad de las imágenes.

Monitores MDA:

Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDAconocidos popularmente por los monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos.
Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El mismo creaba irritación en los ojos de sus usuarios.
Características:
  • Sin modo gráfico.
  • Resolución 720_350 píxeles.
  • Soporte de texto monocromático.
  • No soporta gráfico ni colores.
  • La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
  • Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.

Monitor CGA:                            

Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de IBM.
A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia entre ellos. CGA fue el primero en contener sistema gráfico a color.
Características:
  • Resoluciones 160_200, 320×200, 640×200 píxeles.
  • Soporte de gráfico a color.
  • Diseñado principalmente para juegos de computadoras.
  • La tarjeta gráfica contenía 16 KB de memoria de vídeo.

Monitor EGA:                                    

Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor amplitud de colores y resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido por un monitor de mayores características.
Características:
  • Resolución de 640_350 píxeles.
  • Soporte para 16 colores.
  • La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.

Monitor VGA:                                       

Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas.

Características:
  • Soporte de 720×400 píxeles en modo texto.
  • Soporte de 640×480 píxeles en modo gráfico con 16 colores.
  • Soporte de 320×200 píxeles en modo gráfico con 256 colores.
  • Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.

Monitor SVGA:                                    

SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones.

Características:
  • Resolución de 800×600, 1024_768 píxeles y superiores.
  • Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros.
Clasificación según tecnología de monitores
En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado.

Monitores CRT:                                          

Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan.
Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo.
Ventajas:
  • Excelente calidad de imagen (definición, contraste, luminosidad).
  • Económico.
  • Tecnología robusta.
  • Resolución de alta calidad.
Desventajas:
  • Presenta parpadeo por el refrescado de imagen.
  • Consumo de energía.
  • Generación de calor.
  • Generación de radiaciones eléctricas y magnéticas.
  • Alto peso y tamaño.

Pantallas LCD:                                     

A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning.
Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las propiedades de sólidos y líquidos a la vez.
Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente que seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un cristal sólido pero a cada una de estas partículas se le puede aplicar una corriente eléctrica que cambie su polarización dejando pasar la luz o no.
Una pantalla LCD está formada por 2 filtros polarizados colocados perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno de los colores básicos rojo, verde y azul.
Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles de brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje que se aplica a los filtros.
Ventajas:
  • Poco peso y tamaño.
  • Buena calidad de colores.
  • No contiene parpadeo.
  • Poco consume de energía.
  • Poca generación de calor.
  • No genera radiaciones eléctricas y magnéticas.
Desventajas:
  • Alto costo.
  • Angulo limitado de visibilidad.
  • Brillo limitado.
  • Bajo tiempo de respuesta de píxeles.
  • Contiene mercurio.

Pantallas Plasma:                                   

La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad.

Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado.
Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de plasma.
El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente que recubre el interior de la celda. Cuando el material fosforescente regresa a su estado energético natural, emite luz visible.
Ventajas:
  • Excelente brillo.
  • Alta resolución.
  • Amplio ángulo de visión.
  • No contiene mercurio.
  • Tamaño de pantalla elevado.
Desventajas:
  • Vida útil corta.
  • Coste de fabricación elevado, superior a los LCD.
  • Consumo de electricidad elevado.
  • Poca pureza del color.
  • Consumo energético y emisión de calor elevada.


Una impresora sirve para transcribir un documento desde la PC a un medio físico como el papel, por medio del uso de cintas, cartuchos de tinta o con tecnología láser. La historia de la impresora se puede remontar junto con la creación de la primera computadora, la máquina analítica de Charles Babbage, a pesar de que el inventor nunca logró construir su PC, sí terminó los planos en los que se incluía el mecanismo de impresión. En 1950 llega la primera impresora eléctrica para computadoras, sin embargo solo era capaz de imprimir textos. Siete años más tarde se desarrolla la impresión por matriz de puntos, pero contaba con las mismas limitaciones que su antecesor. En 1959 Xerox fabrica la fotocopiadora y para 1973 aparece la primera fotocopiadora a color, fabricada por Canon. En 1978 se crea la impresora de margarita, que únicamente podía escribir letras y números, pero tenía la calidad de una máquina de escribir. Finalmente en 1980 aparece la impresora láser en blanco y negro, 8 años más tarde le implementan la modalidad de color.





HISTORIA DE LAS BOCINAS
La bocina es un instrumento musical de aire. Se inventó en Francia en 1680y servía tan solo para la caza. Después se introdujo en Alemania y allí se perfeccionó y se aplicó a la música. Para esta se adoptó en Francia en1730 pero no la introdujeron en la orquesta de la ópera hasta en 1757.
En esta época daba muy pocos sonidos, pero en 1759 un alemán llamado Hampl discurrió que era fácil hacerle producir otros, tapando con la mano una parte del pabellón o campana del instrumento. Este descubrimiento abrió la carrera a artistas hábiles que se entregaban al estudio de la trompa. Otro alemán llamado Haltenhoft mejoró este instrumento añadiendo una bomba por medio de la cual se afina exactamente, cuando por el calor del aliento se suben las entonaciones.