Você está na página 1de 3

Siglo XX

1936: Alan Turing presenta la noción de una máquina universal, llamada más tarde máquina de Turing,
capaz de computar cualquier cosa que sea computable. El concepto central de la computadora
moderna se basaba en sus ideas.
1937: J.V. Atanasoff, un profesor de física y matemáticas en la Universidad Estatal de Iowa, intenta
construir la primera computadora sin engranajes, levas, cinturones o ejes.
1939: Hewlett-Packard es fundada por David Packard y Bill Hewlett en un garaje de Palo Alto,
California, según el Computer History Museum.
1941: Atanasoff y su estudiante graduado, Clifford Berry, diseñan una computadora que puede resolver
29 ecuaciones simultáneamente. Aquí se marca por primera vez que una computadora sea capaz de
almacenar información en su memoria principal.
1943-1944: Dos profesores de la Universidad de Pennsylvania, John Mauchly y J. Presper Eckert,
construyen el Integrador Numérico Electrónico y la Calculadora (ENIAC). Considerado el abuelo de las
computadoras digitales, llena una sala de 20 pies por 40 pies y tiene 18.000 tubos de vacío.
1946: Mauchly y Presper abandonan la Universidad de Pensilvania y reciben fondos de la Oficina del
Censo para construir la UNIVAC, la primera computadora comercial para aplicaciones empresariales y
gubernamentales.
1947: William Shockley, John Bardeen y Walter Brattain de Bell Laboratories inventan el transistor.
Descubren cómo hacer un interruptor eléctrico con materiales sólidos y sin necesidad de un vacío.
1953: Grace Hopper desarrolla el primer lenguaje computacional, que eventualmente se conoce como
COBOL. Thomas Johnson Watson Jr., hijo del CEO de IBM, Thomas Johnson Watson Sr., concibe el IBM
701 EDPM para ayudar a las Naciones Unidas a controlar a Corea durante la guerra.
1954: El lenguaje de programación FORTRAN, siglas de FORmula TRANslation, es desarrollado por un
equipo de programadores de IBM dirigido por John Backus, según la Universidad de Michigan.
1958: Jack Kilby y Robert Noyce develan el circuito integrado, conocido como el chip de computadora.
Kilby fue galardonado con el Premio Nobel de Física en el año 2000 por su trabajo.
1964: Douglas Engelbart muestra un prototipo de la computadora moderna, con un ratón y una
interfaz gráfica de usuario (GUI). Esto marca la evolución de la computadora de una máquina
especializada para científicos y matemáticos a la tecnología que es más accesible al público en general.
1969: Un grupo de desarrolladores de Bell Labs produce el UNIX, un sistema operativo que aborda
problemas de compatibilidad. Escrito en el lenguaje de programación C, UNIX era portátil en múltiples
plataformas y se convirtió en el sistema operativo de elección entre mainframes de grandes empresas
y entidades gubernamentales. Debido a la naturaleza lenta del sistema, nunca ganó suficiente atención
entre los usuarios domésticos de la PC.
1970: El recién formado Intel lanza el Intel 1103, el primer chip de memoria de acceso dinámico
(DRAM).
1971: Alan Shugart lidera un equipo de ingenieros de IBM que inventan el "disquete", permitiendo
compartir datos entre computadoras.
1973: Robert Metcalfe, miembro del equipo de investigación de Xerox, desarrolla Ethernet para
conectar varios ordenadores y otro hardware.
1974-1977: Varias computadoras personales llegaron al mercado, incluyendo Scelbi y Mark-8 Altair,
IBM 5100, la TRS-80 de Radio Shack, cariñosamente conocida como "Trash 80" - y el Commodore PET.
1975: La edición de enero de la revista Popular Electronics presenta el Altair 8080, descrito como el
"primer kit de minicomputadores del mundo que rivaliza con los modelos comerciales". Dos "geeks
informáticos", Paul Allen y Bill Gates, se ofrecen a escribir software para el Altair, utilizando el nuevo
lenguaje BASIC. El 4 de abril, después del éxito de este primer esfuerzo, los dos amigos de la infancia
forman su propia compañía de software, Microsoft.
1976: Steve Jobs y Steve Wozniak comienzan con Apple Computers el día de los inocentes y lanzan el
Apple I, la primera computadora con una placa de un solo circuito, según la Universidad de Stanford.
1977: La producción inicial de Radio Shack del TRS-80 fue de sólo 3.000. Sus ventas fueron una locura.
Por primera vez, los no geeks podrían escribir programas y hacer que una computadora hiciera lo que
quisieran.
1977: Jobs y Wozniak incorporan a Apple y muestran el Apple II en la primera feria informática de la
Costa Oeste. Ofrece gráficos en color e incorpora una unidad de cassette de audio para el
almacenamiento.
1978: Los contadores se alegran de la introducción de VisiCalc, el primer programa computarizado de
hoja de cálculo.
1979: El procesamiento de textos se convierte en una realidad cuando MicroPro International lanza
WordStar. "El cambio definitivo fue añadir márgenes y ajuste de palabras", dijo el creador Rob Barnaby
en un correo electrónico a Mike Petrie en 2000. "Otros cambios incluyeron deshacerse del modo de
comando, agregando una función para hacerlo, dejarlo hecho, y documentarlo".
1981: Se introduce la primera computadora personal de IBM, llamada "Acorn". Utiliza el sistema
operativo MS-DOS de Microsoft. Tiene un chip Intel, dos disquetes y un monitor de color opcional.
Sears & Roebuck y Computerland venden las máquinas, marcando la primera vez que una
computadora está disponible a través de distribuidores externos. También se populariza el término PC.
1983: Lisa de Apple es la primera computadora personal con una GUI. También incluye un menú
desplegable e iconos. Fracasa a nivel comercial pero eventualmente evoluciona en el Macintosh. El
Gavilan SC es la primera computadora portátil con el conocido factor de forma y el primero en ser
comercializado como un “laptop".
1985: Microsoft anuncia Windows, según la Enciclopedia Británica. Esta fue la respuesta de la empresa
a la interfaz gráfica de usuario de Apple. Commodore devela el Amiga 1000, que cuenta con avanzadas
capacidades de audio y video.
1985: El primer nombre de dominio dot-com se registra el 15 de marzo, años antes de que la World
Wide Web marcara el comienzo formal de la historia de Internet. La Symbolics Computer Company, un
pequeño fabricante de computadoras de Massachusetts, registra Symbolics.com. Más de dos años
después, sólo se habían registrado 100 dot-coms.
1986: Compaq lleva el Deskpro 386 al mercado. Su arquitectura de 32 bits proporciona una velocidad
comparable a la de los mainframes.
1990: Tim Berners-Lee, investigador del CERN, el laboratorio de física de alta energía de Ginebra,
desarrolla HyperText Markup Language (HTML), dando lugar a la World Wide Web.
1993: El microprocesador Pentium avanza en el uso de gráficos y música en PCs.
1994: Las PCs se convierten en máquinas de juego como "Command & Conquer", "Alone in the Dark 2",
"Theme Park", "Magic Carpet", "Descent" y "Little Big Adventure”, junto a otros hit del mercado.
1996: Sergey Brin y Larry Page desarrollan el motor de búsqueda de Google en la Universidad de
Stanford.
1997: Microsoft invierte $ 150 millones en Apple, que estaba luchando en ese momento, poniendo fin
al juicio de Apple contra Microsoft en el que alegaba que Microsoft había copiado la "apariencia" de su
sistema operativo.
1998: El sistema operativo Windows 98 de Microsoft domina gran parte del sector de administración y
uso personal. También Apple presenta su exitoso iMac G3 fue el primer Macintosh en prescindir de la
unidad de disco flexible (disquetera) y del Apple Desktop Bus e incluir puertos USB, y el único hasta la
fecha en estar disponible en una amplia gama de colores. Ejecutaba el sistemas operativo Mac OS 9 y
posteriormente utilizó Mac OS X v10.1 luego de su lanzamiento.
1999: El término Wi-Fi se convierte en parte del lenguaje informático y los usuarios comienzan a
conectarse a Internet sin cables.
Siglo XXI
2001: Apple presenta el sistema operativo Mac OS X, que ofrece una arquitectura de memoria
protegida y multitarea preferencial, entre otros beneficios. Para no quedarse atrás, Microsoft lanza
Windows XP, que tiene una GUI significativamente rediseñada.
2003: El primer procesador de 64 bits, Athlon 64 de AMD, se pone a disposición del mercado
consumidor.
2004: Mozilla Firefox 1.0 desafía el popular Microsoft Internet Explorer, el navegador web dominante.
Facebook, un sitio de redes sociales, se lanza.
2005: YouTube, un servicio de video compartido, es fundado. Google adquiere Android, un sistema
operativo para teléfonos móviles basado en Linux.
2006: Apple presenta el MacBook Pro, su primera computadora móvil con núcleo dual basada en Intel,
así como un iMac basado en Intel. La consola Wii de Nintendo llega al mercado.
2007: El iPhone trae muchas funciones de computadora al smartphone.
2009: Microsoft lanza Windows 7, que ofrece la posibilidad de asignar aplicaciones a la barra de tareas
y avances en el reconocimiento táctil y de escritura, entre otras características.
2010: Apple revela el iPad, cambiando la forma en que los consumidores ven los medios de
comunicación y lanzan el segmento de computadoras tipo tablet.
2011: Google lanza la Chromebook, una computadora portátil que ejecuta el sistema operativo Google
Chrome.
2012: Facebook gana 1 mil millones de usuarios el 4 de octubre.
2015: Apple lanza el Apple Watch. Microsoft lanza Windows 10.
2016: Se creó el primer ordenador cuántico reprogrammable. "Hasta ahora no ha habido ninguna
plataforma de computación cuántica que tuviera la capacidad de programar nuevos algoritmos en su
sistema, sino que cada uno de ellos está adaptado para atacar un algoritmo particular", dijo el autor
principal del estudio, Shantanu Debnath, físico cuántico y ingeniero óptico en la Universidad de
Maryland, College Park.
2017: La Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) está desarrollando un
nuevo programa de "Informática Molecular" que utiliza moléculas como computadoras. “Chemistry
ofrece un rico conjunto de propiedades que podremos aprovechar para el almacenamiento y el
procesamiento de información rápida y escalable", dijo Anne Fischer, directora de programa de la
Oficina de Ciencias de Defensa de DARPA, en un comunicado. "Millones de moléculas existen, y cada
molécula tiene una estructura atómica tridimensional única, así como variables como la forma, tamaño
o incluso el color. Esta riqueza ofrece un amplio espacio de diseño para explorar nuevas formas y
múltiples valores para codificar y procesar datos más allá de los 0s y 1s de las actuales arquitecturas
digitales basadas en lógica".

Você também pode gostar