lunes, 14 de marzo de 2011

HISTORIA DEL DVD

Los discos de almacenamiento de datos son cada vez más sofisticados y se caracterizan porque su capacidad va aumentando para suplir las necesidades de los usuarios a la hora de guardar datos.
Existen diferentes tipos de formatos de DVD que todavía tienen que salir al mercado. Algunos como el DVD-R de doble capa empezará a comercializarse en breve para cubrir las necesidades de los usuarios que disponen de grabadoras –R.
Otro de los formatos es el Blue Ray. Desarrollado por un grupo de empresas dedicadas al consumo de electrónica y ordenadores conocidos como la BDA (Blue Ray Disc Association). Este disco utiliza rayos azules con longitud de onda más corta. Estos discos serán capaces de almacenar hasta 25 GB. Y su versión de doble capa hasta 50 GB. En un futuro estas capacidades se ampliarán hasta 100 y 200 GB de almacenamiento.
Otro de los formatos de disco DVD que aparecerán será el HD-DVD (High-Density Digital Versátil Disc) es un formato óptico digital de DVD de alta definición promovido por Toshiba, NEC Y Sanyo.
El Fluorescent Multilayer Disc (FMD) es otro de los formatos, de las mismas dimensiones que los CDs y los DVDs., cuyo lector aprovecha la luz fluorescente de los discos, para así aumentar su capacidad de almacenamiento. Además, son más rápidos debido a la distinta sincronía entre la luz reflejada y la fluorescente y los datos son leídos simultáneamente desde diferentes zonas del disco. Es un disco en apariencia transparente con múltiples capas, cada una se puede leer con una intensidad diferente de láser. Cada disco podrá almacenar 120 GB de información.

HISTORIA DEL CD

Los discos compactos (Audio Compact Discs (CD-DA)) fueron introducidos en el mercado de audio por primera vez en 1980 de la mano de Philips y Sony como alternativa a los discos de vinilo y de lo cassettes.

En 1984 ambas compañías extendieron la tecnología para que se pudiera almacenar y recuperar datos y con ello nació el disco CD-ROM. Desde entonces el compact disc ha cambiado de un modo significativo el modo en el que escuchamos música y almacenamos datos.

Estos discos tienen una capacidad de 650 Megabytes de datos o 74 minutos de música de muy alta calidad. De un modo genérico podemos decir que el Compact Disc ha revolucionado el modo en que hoy dia se distribuye todo tipo de información electrónica.

En 1990 fueron de nuevo Philips y Sony los que ampliaron la tecnología y crearon el Compact Disc grabable (CD-R). Hasta entonces todos los CDs que se producían se hacían mediante el proceso industrial de estampación de una maqueta pregrabada.
El disco así grabado se protege con una capa muy tenue de aluminio, lo cual le da el color típico plateado. Hoy día estas técnicas se utilizan para cantidades superiores a 1000 unidades, mientras que para cantidades inferiores es más barato, rápido y conveniente utilizar la grabación de discos grabables.
Estos también llevan una capa de recubrimiento característica. Al principio esta era de oro y derivados, lo cual hacia que el disco tuviera ese color. Hoy día se utilizan otros compuestos más versátiles, duraderos y baratos.

En la actualidad, cuando han pasado 14 años desde que Sony y Philips desarrollaron el formato digital del Compact Disc (CD) y ofrecieron al mundo la primera expresión del "entretenimiento digital", nos llega un nuevo y revolucionario producto : el Digital Video Disc (DVD). Tras el CD, vinieron el CD-ROM, Photo CD, CD-i, DCC, MiniDisc, ... pero ninguno creó las espectativas que ha creado el DVD. En esta evolución se han producido avances significativos en tecnologías que soportan estos formatos : láser ópticos, películas reflectivas, replicación de discos, ... y sobre todo, los algoritmos de compresión y codificación de video, audio y datos.

Indiscutiblemente los avances en los circuitos integrados (VLSI) y los mecanismos de control han hecho posible que las nuevas tecnologías se hicieran realidad. Fue en septiembre de 1995 cuando Sony, junto con otras nueve compañías (Philips, Mashusita, Toshiba, ...) unieron sus esfuerzos y crearon un estandar unificado para el formato DVD. Respaldado por las grandes compañías electrónicas y del mundo de la multimedia (estudios cinematográficos entre otros), comenzó su andadura ...

UNIDADES DE DISKETTE

142fc496eac1104b24ae30fdcb1cffa1.13439964031
Diskette:

Un disco flexible o disquete es un dispositivo de almacenamiento de datos formado por una pieza circular de material magnético, fina y flexible (de ahí su denominación) encerrada en una carcasa de plástico cuadrada o rectangular. Los disquetes se leen y se escriben mediante una disquetera (o FDD, del inglés Floppy Disk Drive).

Antecedentes

Los disquetes (cuyo nombre fue escogido para ser similar a la palabra "casete"
, gozaron de una gran popularidad en las décadas de los ochenta y los noventa, usándose en ordenadores domésticos y personales ("PC"
tales como Apple II, Macintosh, Commodore 64, Amiga e IBM PC para distribuir software, transferir datos entre ordenadores y crear pequeñas copias de seguridad. Antes de la popularización de los discos duros en los PC, los disquetes se usaban para almacenar sistemas operativos, aplicaciones informáticas y otros datos. Muchas PC almacenaban de forma permanente el núcleo de sus sistemas operativos en memorias ROM, pero guardaban sus sistemas operativos en un disquete, como ocurría con CP/M o, posteriormente, con DOS.

También fue usado en la industria de los videojuegos, cuando Nintendo hizo un formato propio de disquete, parecido al actual de 3 1/2, para usar con un périferico diseñado para la consola Famicom llamado Famicom Disk Drive. No obstante, sólo se lanzo en Japón. También se vendían disquetes en blanco, para grabar juegos en la calle, mediante máquinas automáticas instaladas en algunos lugares de Japón.

Con la llegada de la década de los noventa, el aumento del tamaño del software hizo que muchos programas se distribuyeran en conjuntos de disquetes. Hacia el final de los noventa, la distribución del software fue migrando gradualmente hacia el CD-ROM, y se introdujeron formatos de copias de seguridad de mayor densidad, como los discos Zip de Iomega. Con la llegada del acceso total a la Internet, de las redes Ethernet baratas y de las memorias USB, los disquetes dejaron de ser necesarios para la transferencia de datos. A partir de entonces, las copias de seguridad empezaron a realizarse en cintas magnéticas de alta capacidad como cintas de audio digitales (DAT) o streamers, o a escribirse en discos compactos (CD) o DVD. Un intento a finales de los noventa (sin éxito en el mercado), de continuar con los disquetes fue el SuperDisk (LS-120), con una capacidad de 120 MB (en realidad 120.375 MiB [1] ), siendo el lector compatible con los disquetes estándar de 3½ pulgadas.


Sin embargo, los fabricantes se negaban a suprimir la disquetera de sus equipos personales por la compatibilidad y porque los departamentos de la tecnología de la información de muchas empresas apreciaban un mecanismo de transferencia de archivos integrado que siempre funcionara correctamente sin requerir ningún controlador. Apple Computer fue el primer fabricante que eliminó la disquetera en uno de sus ordenadores con la llegada del modelo iMac en 1998, y Dell hizo que la disquetera fuera opcional en algunos de sus modelos en 2003. Sin embargo, hasta la fecha, estos movimientos todavía no han marcado el fin de los disquetes como medios populares de almacenamiento e intercambio de datos.

Tamaños

Los tamaños de los disquetes suelen denominarse empleando el Sistema Anglosajón de Unidades, incluso en los países en los que el Sistema Internacional de Unidades es el estándar, sin tener en cuenta que, en algunos casos, éstos están definidos en el sistema métrico (por ejemplo, el disquete de 3½ pulgadas mide en realidad 9 cm). De forma general, las capacidades de los discos formateados se establecen en términos de kilobytes binarios (1 sector suele tener 512 bytes). Sin embargo, los tamaños recientes de los discos se suelen denominar en extrañas unidades híbridas; es decir, un disco de "1,44 megabytes" tiene en realidad 1.44×1000×1024 bytes, y no 1.44×1024×1024 bytes, ni 1.44×1000×1000.
Secuencia histórica de los formatos de disquetes, inluendo el último formato popular adoptado — el disquete HD de "1.44 MB" 3½-pulgadas, introducido en 1987. Formato del disquete Año de introducción Capacidad de almacenamiento
(en kilobytes si no está indicado) Capacidad
comercializada¹

8-pulgadas (solo lectura) 1969 80 ←
8-pulgadas 1972 183.1 1.5 Megabits
8-pulgadas 1973 256 256 kB
8-pulgadas DD 1976 500 0.5 MB
5¼-pulgadas (35 pistas) 1976 89.6 110 kB
8-pulgadas de dos caras 1977 1200 1.2 MB
5¼-pulgadas DD 1978 360 360 kB
3½-pulgadas
HP de una cara 1982 280 264 kB
3-pulgadas 1982 360 ←
3½-pulgadas (puesta a la venta DD) 1984 720 720 kB
5¼-pulgadas QD 1984 1200 1.2 MB
3-pulgadas DD 1984 720 ←
3-pulgadas
Mitsumi Quick Disk 1985 128 to 256 ←
2-pulgadas 1985 720 ←
5¼-pulgadas Perpendicular 1986 100 MiB ←
3½-pulgadas HD 1987 1440 1.44 MB
3½-pulgadas ED 1990 2880 2.88 MB
3½-pulgadas LS-120 1996 120.375 MiB 120 MB
3½-pulgadas LS-240 1997 240.75 MiB 240 MB
3½-pulgadas HiFD 1998/99 150/200 MiB 150/200 MB
Acrónimos: DD = Doble Densidad; QD = Cuadruple Densidad; HD = Alta densidad ED = Densidad Extendida; LS = Servo Laser; HiFD = Disquete de alta capacidad

¹Las capacidades comercializadas de los disquetes correspondían frecuentemente solo vagamente a su verdadera capacidad de almacenamiento; el valor 1.44 MB de los disquetes de 3½-pulgadas HD es muy conocido.
Fechas y capacidades marcadas con ? son de origen desconocido y necesitan fuentes; otras capacidades listadas referidas a:

* Para 8-pulgadas: Formato estandard de IBM usado en el ordenador central System/370 y sistemas más nuevos
* Para 5¼- y 3½-pulgadas: Formato estandard de PCs, capacidades cuadriplicadas, son el tamaño total de todos los sectores del disquete e incluyen espacio para el sector boot del sistema de archivos

Otros formatos podrían conseguir más o menos capacidad de los mismos lectores y discos.

Historia

Orígenes, el disco de 8 pulgadas

En 1967, IBM encomendó a su centro de desarrollo de almacenamiento de San José (California) una nueva tarea: desarrollar un sistema sencillo y barato para cargar microcódigo en los System/370 de sus ordenadores centrales.

HISTORIA DE LA TARJETA MADRE BOARD

TARJETAS MADRES

HISTORIA
1947 cuando William Shockley, Walter Brattain y John Bardeen muestran su invento, el transistor amplificador de punto-contacto, este es el invento que eventualmente dividiría la historia de las computadoras de la primera y segunda generación.
G. W. Dummer, 1952 presentó una proposición sobre la utilización de un bloque de material sólido que puede ser utilizado para conectar componentes electrónicos sin cables de conexión.
1961 Fairchild Semiconductor anuncia el primer circuito integrado comercialmente disponible.
Con estos inventos se comienza a trabajar en la computadora en una tarjeta.
PLACA BASE O TARJETA MADRE
EVOLUCIÓN
·
MYCRO 1
1975 se fabrica la primera microcomputadora "de tarjeta única" Contaba con un microprocesador Intel 8080 y utilizaba el sistema operativo MYCROP, creado por la misma empresa.
LA MYCRON 3, que ya utilizaba CP/M;
LA MYCRON 1000 que contaba con un microprocesador Zilog Z80 y utilizaba MP/M;
LA MYCRON 2000, (1980) que fue la primera en albergar un microprocesador Intel 8086, y utilizaba inicialmente el sistema operativo CP/M-86 y eventualmente el MP/M-86.
· KIM-1
En 1976 MOS Technology presenta la computadora en una sola tarjeta KIM-1. Cuenta con un microprocesador 6501/02 a 1 MHz; 1 kilobyte en RAM, ROM, teclado hexagecimal, pantalla numérica con LEDs, 15 puertos bidireccionales de entrada / salida y una interfaz para casete compacto (casete de audio). Esta computadora fue vendida armada, aunque carecía de fuente de poder.
La KIM-1 fue producida hasta 1981, convirtiéndose en el primer producto de cómputo de Cómmodore.

· XT
En 1981 IBM lanzó al mercado la primera computadora personal comercialmente exitosa, la IBM 5150.
Primera placa base estándar, la XT, que fuera substituida en poco tiempo, en 1984, apareciendo la AT, que son las siglas en inglés para Tecnología Avanzada, Advanced Technology. Las diferencias principales entre XT y AT es la arquitectura, ya que el XT posee una arquitectura a 8 bits, mientras que el AT llega a los 16.
Estas tarjetas usualmente están equipadas con 8 ranuras ISA de 8 bits, 4 hileras de 9 zócalos para expandir la memoria pastilla por pastilla y una hilera por vez, para un total máximo de 1 megabyte en RAM y carecía de funcionalidad útil por sí misma, sin tarjetas de expansión.


AT

El AT, basado en el estándar IBM PC-AT, fue estándar absoluto durante años, desde los primeros microprocesadores Intel 80286 hasta los primeros Pentium II y equivalentes incluidos.
Estas tarjetas madre, en sus primeras versiones son de diseño y características elementales; carecen de accesorios integrados limitándose únicamente a los circuitos, componentes y pastillas básicos para su funcionamiento, al igual que las XT.
Durante este período casi todos los accesorios para computadora venían acompañados de una tarjeta controladora que había que instalar y configurar manualmente, ya que la tecnología de estas tarjetas madre no aportaba funciones para conectar y funcionar (Plug & Play), lo que hacía que la instalación, o al menos la configuración de estos dispositivos tuviera que ser realizada por personal calificado que supiera lidiar con los limitados recursos que ofrecía la placa base.

·ATX Y VARIANTES

ATX, promovido por INTEL (1996) requerimiento de nuevos diseños de fuente de poder y gabinete.
Colocación de UCP, posen más conectores, conectores de teclado y ratón son tipo PS/2.
AGP y el USB (1997), estas tecnologías se incorporaron rápidamente en este estándar.
Micro ATX, que es una versión reducida en tamaño, y el mini ITX, una versión todavía más compacta y de características de expansión limitadas.
Otros formatos relativamente comunes basados en el estándar ATX son el LPX y el NLX.
El primer conjunto de pastillas que se introdujo con el procesador Pentium y se denominaba tipo VX, al que le fueron sucediendo distintos modelos según iban apareciendo nuevos procesadores Pentium. Los de 440 de Intel, en su placa 440 LX, fue la primera con una velocidad frontal de 66MHz, y el 440 BX con una velocidad de 100 Mhz. También existen 440 GX y 450 NX para procesador XEON.

HISTORIA DEL PROCESADOR

El primer procesador comercial, el Intel 4004, fue presentado el 15 de noviembre de 1971. Los diseñadores fueron Ted Hoff y Federico Faggin de Intel, y Masatoshi Shima de Busicom (más tarde ZiLOG).

Los microprocesadores modernos están integrados por millones de transistores y otros componentes empaquetados en una cápsula cuyo tamaño varía según las necesidades de las aplicaciones a las que van dirigidas, y que van desde el tamaño de un grano de lenteja hasta el de casi una galleta. Las partes lógicas que componen un microprocesador son, entre otras: unidad aritmético-lógica, registros de almacenamiento, unidad de control, Unidad de ejecución, memoria caché y buses de datos control y dirección.

Existen una serie de fabricantes de microprocesadores, como IBM, Intel, Zilog, Motorola, Cyrix y AMD. A lo largo de la historia y desde su desarrollo inicial, los microprocesadores han mejorado enormemente su capacidad, desde los viejos Intel 8080, Zilog Z80 o Motorola 6809, hasta los recientes Intel Core 2 Duo, Intel Core 2 Quad, Intel Xeon, Intel Itanium II, Transmeta Efficeon o Cell.

Ahora los nuevos microprocesadores pueden tratar instrucciones de hasta 256 bits, habiendo pasado por los de 128, 64, 32, 16, 8 y 4 bits. Desde la aparición de los primeros computadores en los años cuarenta del siglo XX, muchas fueron las evoluciones que tuvieron los procesadores antes de que el microprocesador surgiera por simple disminución del procesador.

Antecedentes

Entre estas evoluciones podemos destacar estos hitos:

* ** ENIAC (Electronic Numeric Integrator And Calculator) Fue un computador con procesador multiciclo de programación cableada, esto es, la memoria contenía sólo los datos y no los programas. ENIAC fue el primer computador, que funcionaba según una técnica a la que posteriormente se dio el nombre de monociclo.
* ** EDVAC (Electronic Discrete Variable Automatic Computer) fue la primera máquina de Von Neumann, esto es, la primera máquina que contiene datos y programas en la misma memoria. Fue el primer procesador multiciclo.
* ** El IBM 7030 (apodado Stretch) fue el primer computador con procesador segmentado. La segmentación siempre ha sido fundamental en Arquitectura de Computadores desde entonces.
* ** El IBM 360/91 supuso grandes avances en la arquitectura segmentada, introduciendo la detección dinámica de riesgos de memoria, la anticipación generalizada y las estaciones de reserva.
* ** El CDC 6600 fue otro importante computador de microprocesador segmentado, al que se considera el primer supercomputador.
* ** El último gran hito de la Arquitectura de Computadores fue la segmentación superescalar, propuesta por John Cocke, que consiste en ejecutar muchas instrucciones a la vez en el mismo microprocesador. Los primeros procesadores superescalares fueron los IBM Power-1.

Avances

Hay que destacar que los grandes avances en la construcción de microprocesadores se deben más a la Arquitectura de Computadores que a la miniaturización electrónica. El microprocesador se compone de muchos componentes. En los primeros procesadores gran parte de estos estaban ociosos el 90% del tiempo. Sin embargo hoy en día los componentes están repetidos una o más veces en el mismo microprocesador, y los cauces están hechos de forma que siempre están todos los componentes trabajando. Por eso los microprocesadores son tan rápidos y tan productivos. Esta productividad tan desmesurada, junto con el gran número de transistores por microprocesador (debido en parte al uso de memorias caché) es lo que hace que se necesiten los inmensos sistemas de refrigeración que se usan hoy en día. Inmensos en comparación con el microprocesador, que habitualmente consiste en una cajita de 2 centímetros de largo y de ancho por 1 milímetro de altura, cuando los refrigeradores suelen tener volúmenes de al menos 5 centímetros cúbicos.
Intel 4004
Intel 4004
Zilog Z80
Zilog Z80
Motorola 68000
Motorola 68000
Microprocesador Intel 80486DX2.
Microprocesador Intel 80486DX2.

Evolución del microprocesador

* ** 1971: Intel 4004. Nota: Fue el primer microprocesador comercial. Salió al mercado el 15 de noviembre de 1971.
* ** 1974: Intel 8008
* ** 1975: Signetics 2650, MOS 6502, Motorola 6800
* ** 1976: Zilog Z80
* ** 1978: Intel 8086, Motorola 68000
* ** 1979: Intel 8088
* ** 1982: Intel 80286, Motorola 68020
* ** 1985: Intel 80386, Motorola 68020, AMD80386
* ** 1987: Motorola 68030
* ** 1989: Intel 80486, Motorola 68040, AMD80486
* ** 1993: Intel Pentium, Motorola 68060, AMD K5, MIPS R10000
* ** 1995: Intel Pentium Pro
* ** 1997: Intel Pentium II, AMD K6, PowerPC G3, MIPS R120007
* ** 1999: Intel Pentium III, AMD K6-2, PowerPC G4
* ** 2000: Intel Pentium 4, Intel Itanium 2, AMD Athlon XP, AMD Duron, MIPS R14000
* ** 2003: PowerPC G5
* ** 2004: Intel Pentium M
* ** 2005: Intel Pentium D, Intel Extreme Edition con hyper threading, Intel Core Duo, AMD Athlon 64, AMD Athlon 64 X2, AMD Sempron 128.
* ** 2006: Intel Core 2 Duo, Intel Core 2 Extreme, AMD Athlon FX
* ** 2007: Intel Core 2 Quad, AMD Quad Core, AMD Quad FX
* ** 2008: Procesadores Intel y AMD con más de 8 núcleos.


Extraido de la Wiki Pledia.

HISTORIA DEL TECLADO

Christopher Latham Sholes, con su máquina de escribir (alrededor de 1.880)Las computadoras son muy usadas en este tiempo, y, para algunos, forma parte de su vida, y al utilizarla usamos el teclado... Y surgen varias preguntas en cuanto al teclado, por ejemplo: ¿Quién fue el que ordenó así las letras del alfabeto? ¿Por qué no las ordenaron de manerA alfabética?
Normalmente usamos el teclado QWERTY, llamado así, debido al orden del las letras.

Pero primero recordemos que antes de que surgieran o fueran siquiera inventadas las computadoras y las máquinas de escribir elÉctricas, se utilizaban las mecánicas, que se comenzaron a conocer durante la primera mitad del siglo XIX. Fue en 1872 cuando se lanza la primera máquina de escribir ampliamente conocida, diseñada por Cristopher Latham Sholes en Milwakee, Estados Unidos, con la ayuda de dos amigos inventores.

El artefacto contaba con las teclas ordenadas en ordenalfabético, pero surgió un gran problema. Estas máquinas funcionaban mediante martillos con el inverso de las letras grabadas en su cabeza. Al golpear un tipo de papel a través de una cinta con tinta se marcaba la letra. El problema era que el movimiento de las teclas empujado por la presión de los dedos causaba frecuentes choques de las palancas, con lo que las primeras máquinas se trababan con mucha frecuencia.

Latham trató de mejorar el diseño de la máquina para eliminar este problema. Para ello, alteró el orden de las teclas con el fin de separar los tipos que se usaban juntos con más frecuencia. Para eso realizó un estudio de frecuencia de pares de letras, es decir, los pares que más se utilizaban (en inglés) y que, por consecuencia, causaban la mayoría de los choques. El resultado fue el orden QWERTY. Este orden del teclado, el cual todos conocemos actualmente, aunque no terminó totalmente con el problema, si logró reducirlo.

El teclado que diseñó Cristopher Latham se mantuvo con los modelos que surgieron después, y se difundió por todo el mundo de tal manera, que cuando surgieron las máquinas de escribir eléctricas y luego los teclados para computadoras, el teclado QWERTY continuó reinando.

Aunque este orden no es el mejor, es tan popular que se ha convertido en el estándar de facto.Teclado 2007
De todos modos, en 1932 un capitán de submarinos e inventor llamado Dvorak diseñó una disposición del teclado que permite escribir más rápidamente. En ese teclado las vocales están en el centro a la izquierda y las consonantes más usadas a la derecha. Esto hace que la escritura en ese teclado sea más simple y descansada.

Aunque fue bien recibido por los expertos y se reconocieron las ventajas del teclado Dvorak, la difusión del teclado QWERTY ha hecho casi imposible el cambio.

Teclado QWERTY

Teclado DVORAK

HISTORIA DEL MOUSE


A inicios de los años 60, la Oficina de Investigación Científica de la Fuerza Aérea(AFOSR por sus siglas en inglés) adjudica la contratación del Dr.Doug Engelbart del Instituto de Investigación de Stanford(SRI Stanford Research Institute) por sus investigaciones sobre cómo aumentar el intelecto humano y el potencial de las computadoras para asistir a las personas en la toma de decisiones complejas.



Con la combinación de soporte económico de AFOSR y SRI , el Dr. Engelbart tuvo la posibilidad de desarrollar su investigación a tiempo completo y produjo un reporte titulado: "Augmenting Human Intellect: A Conceptual Framework.". El reporte, publicado en 1962, sirvió como guía en el desarrollo de tecnologías de computación.

El Dr. Engelbart consideraba que la complejidad de los problemas enfrentados por el ser humano habían crecido más rápido que la habilidad para resolverlos. Él visualizó la resolución de los problemas utilizando estaciones de trabajo asistidas por computadores para aumentar la toma de desiciones(el trabajo en red de hoy). Los seres humanos incluso deberían adquirir la habilidad de interactuar con la información proyectada usando algún dispositivo para mover un cursor o apuntador en la pantalla.

En su reporte, Engelbart proporcionó al lector de una comprensión futurística de la era de la computación. Él tuvo la visión de desarrollar un dispositivo auxiliar que cumpla con estos objetivos, el trabajar con información en una pantalla a través de él. Es así que desarrolló el prototipo del mouse de computadora. Inicialmente una caja de madera con cilindros rotatorios en la base para moverse en la pantalla y con un botón para ejecutar acciones.

El mouse, inventado por Douglas Engelbart en el Stanford Research center en 1963, e impulsado por Xerox en 1970, es uno de los más grandes inventos en la ergonomía de computadoras porque eso libra a los usuarios de la gran proporción de uso de teclado.

Particularmente, el mouse es importante para la interfaz gráfica de usuario porque uno puede simplemente apuntar hacia opciones y objetos y hacer click en el botón del mouse. Tales aplicaciones se las llama programas point-and-click (apuntar y hacer click). El mouse es también útil para programas gráficos que permiten hacer dibujos usándolo como una pluma, lápiz o pincel.

Es un dispositivo que controla el movimiento del cursor o apunta en una pantalla. Un mouse es un objeto pequeño que se puede rodar a lo largo de una superficie sólida y plana. Su nombre se deriva de su forma que se parece un poco a un ratón siendo la cola el cable que se conecta con la computadora. Como uno mueve el mouse el apuntador en la pantalla se mueve a la misma dirección. El mouse contiene por lo menos un botón y muchas veces hasta tres, que tienen diferentes funcionalidades dependiendo de que programa esté utilizando. Algunos nuevos ratones también incluyen una rueda de desplazamiento para desplazarse en documentos largos.

El mouse que ha quedado como estandar en la industria ha sido el de dos botones principalmente, el izquierdo para ejecutar o seleccionar opciones y el derecho que sirve como acceso directo a un menú dependiendo de la aplicación en que se encuentre. El botón derecho se creó para mejorar la velocidad de los accesos a opciones de la computadora.

Por ejemplo en el copiar y pegar:
1. Selecciona el texto a copiar
2. Da clickderecho y selecciona copiar
3. Para pegar da clickderecho en el lugar donde quiera que se agregue ese texto copiado y selecciona la opción pegar

Es decir el usuario se evita el desplazamiento hacia el menú para realizar estas acciones, ahorrando un 25% del tiempo en la ejecución de esta acción.