La computadora
En la actualidad es casi imposible concebir nuestra vida sin el uso del ordenador en nuestro trabajo o en el hogar. Es más que una herramienta para cálculos complejos, escritura y utilidades gráficas, fue nuestra puerta de entrada al internet. Esta maravilla de la tecnología ha sido la consecuencia de la necesidad que tiene el ser humano de calcular y eso viene desde un pasado remoto.
Antecedentes a la invención de la computadoras
Desde hace 4.000 años antes de cristo datan los primeros indicios de la utilización de piedras, huesos y reglas rudimentarias para facilitar el acto de contar y sumar. El ábaco fue el instrumento más antiguo conocido para realizar operaciones aritméticas. Egipcios, griegos y romanos tuvieron versiones primitivas, pero fue el de los chinos y japoneses el de mayor complejidad, no solo se podían ejecutar las 4 operaciones básicas de la aritmética, sino que se podía calcular raíces cuadradas y cúbicas.
Un matemático inglés, William Oughtred, diseña la primera regla de cálculo basada en varillas móviles en 1621, pocos después, Wílhelm Schickard, otro matemático, fabrica la primera calculadora mecánica. Pero la fama la tendría el insigne matemático y pensador francés, Blaise Pascal, quien desarrolló una máquina que permitió efectuar sumas y restas, en 1645. Se le conoció con el nombre de Pascalina. En 1670 el matemático y filósofo alemán Wilhelm Leibnitz, desarrolla el sistema binario que será clave en el futuro para la tecnología del ordenador, igualmente desarrolla una calculadora que ejecuta las cuatro operaciones básicas de la aritmética.
Inicios de lo que va a ser el ordenador
La creación del ordenador se le atribuye al británico Charles Babbage. Entre los años 1833 y 1842 desarrolló el proyecto de una máquina analítica, donde empleaba las tarjetas perforadas. Esta idea fue inspirada en las tarjetas que desarrolló el matemático francés Joseph Jacquard para controlar el diseño del tejido en los telares industriales. Con ello se tenía lo que sería la base de la programación. El proyecto no se pudo materializar, tampoco en siglo XIX existía la tecnología que pudiese agilizar los cálculos, pues todo era mecánico.
La guerra será el motor que impulse la primera generación de ordenadores
El primer aparato precursor de un ordenador moderno fue desarrollado por el ingeniero alemán Konrad Zuse, trabajaba con sistema binario y podía hacer operaciones complejas en segundos. Aunque en 1940 le presentó una máquina más compleja al gobierno nazi, este proyecto costoso sería rechazado por considerar que en guerra había otras prioridades. No obstante, en 1941 Zuse presentó su Z3, que fue el primer ordenador digital plenamente construido en su taller doméstico, sin componentes electrónicos.
Por otra parte, en Inglaterra, Alan Mathison Turing creó una máquina en 1936 una máquina de cálculo basada en algoritmos, igualmente, empleando el sistema binario. Sin embargo, su trabajo que le daría fama y reconocimiento fue el descifrado de los códigos encriptados de los nazis bajo el nombre de Enigma. Para ello desarrolló una máquina llamada Bombe que permitió desencriptar las claves que revelaban los movimientos de tropas y los ataques planificados.
La primera computadora verdaderamente digital fue inventada por John Vincent Atanassoff en 1942 junto con Clifford E. Berry. La denominaron ABC tomando las siglas Atanasoff-Berry Computer, pero no era programable. Este ingeniero electrónico estadounidense. Mientras en Inglaterra, dos integrantes del equipo de Turing construyeron el primer ordenador digital programable, al que denominaron “Colossus”. En ambos casos se emplearon los primeros diodos que eran tubos al vacío, similares a bombillas y funcionaban como válvulas.
La computadora ENIAC (Electronic Numerical Integrator and Computer) desarrollada en 1945 por John Mauchly y J. Presper Eckert en la universidad de Pensilvania, se considera verdaderamente la primera computadora funcional, era gigantesca y funcionaba con 20,000 válvulas, pesaba alrededor de 30 toneladas y ocupó un espacio de 167 metros cuadrados y demandó un consumo eléctrico elevado. Fue un proyecto secreto del ejército norteamericano.
Los años 50 fueron claves en el avance de la computación
Los avances continuaron en la década de los años 50: El uso del transistor contribuyó enormemente tanto en la eficiencia del funcionamiento como en la disminución significativa del tamaño.
Comienza la primera generación de computadoras diseñadas por compañías privadas, es el caso de la UNIVAC I desarrollada por Eckert y Mauchly para procesar los datos del censo de 1951. IBM, que ya era una compañía dedicada al procesamiento de datos y que elaboraba tarjetas perforadas, desarrolló en 1953 su primer ordenador, el IBM 701.
En 1952 una mujer llamada Grace Murray Hoper desarrolló el primer software que emplea términos de lenguaje inglés equivalente a un código binario comprensible para la máquina y lo denominó COBOL (COmmon Business Oriented Languaje), lo que facilitó la interacción hombre-máquina.
La segunda y tercera generación de ordenadores
En la década de los 60 gracias a los avances fueron importantes las computadoras eran más rápidas y de menor tamaño, por el uso de los circuitos integrados. Había varios tipos de software, el COBOL estaba disponible comercialmente, también apareció el FORTRAM. Se ampliaron las funciones para el mundo de los negocios tales como manejo de nómina, inventarios, administrar ventas y clientes. Se consolidan varias compañías que compiten con IBM por el mercado empresarial, estas son llamadas BUNCH (Burroughs, Univac, NCR, CDC, HoneyWel).
La tercera generación vendría con los circuitos integrados impresos en pastillas de silicio, los ordenadores podían a la vez ejecutar varios programas al mismo tiempo. Desde el procesamiento de datos numéricos hasta procesar archivos administrativos.
La cuarta generación fue determinante para la rápida y continua evolución de los ordenadores
En 1971 una compañía desarrolla el primer microprocesador para una calculadora denominado Intel 4004 y fue muy revolucionario, ya que contenía 2.300 transistores y podía realizar 60.000 operaciones por segundo. El siguiente para uso general fue el Intel 8080 de 8 bits de 1974, que duplica la cantidad de transistores y el número de instrucciones a ejecutar se elevó a 200.000 por segundo.
En 1976, dos jóvenes, Steve Jobs y Steve Wozniak desarrollan el primer computador personal que sería el germen de la compañía Apple. En los años 80 Apple e IBM dominaban el mercado de las computadoras personales. Los microprocesadores van aumentando en potencia, aparecen los chips de memoria, se crea una interfaz gráfica con el usuario, se multiplica el número de software, progresan los dispositivos para preservar grandes volúmenes de información.
Generaciones sucesivas hemos visto aparecer supercomputadoras, minicomputadoras, microcomputadoras, estaciones de trabajo, servidores. Y con la llegada del Internet, laptops, tabletas y teléfonos móviles inteligentes.