El gran invento de la tecnología en el siglo XX: LOS COMPUTADORES.

 EVOLUCION DE LOS COMPUTADORES 


Las cinco generaciones de ordenadores, desde 1940 hasta el presente y más allá.

Las cinco generaciones de ordenadores comienza en 1940 con circuitos de tubos de vacío, y llega hasta nuestros días y más allá, con sistemas y dispositivos de inteligencia artificial (AI). 


Primera generación: tubos de vacío (1940-1956)



Las generaciones de ordenadores


Los primeros sistemas informáticos usaban tubos de vacío para los circuitos y tambores magnéticos para la memoria, estos equipos a menudo eran enormes, ocupando salas enteras.

Además eran muy costosos de operar además de utilizar una gran cantidad de electricidad, los primeros ordenadores generaban mucho calor, que a menudo era la causa de un mal funcionamiento.

Los ordenadores de primera generación se basaban en el lenguaje de máquina, el lenguaje de programación de nivel más bajo, para realizar operaciones, y solo podían resolver un problema a la vez.
 



A los operadores les tomaría días o incluso semanas establecer un nuevo problema. La entrada de los datos se basó en tarjetas perforadas y cinta de papel, y la salida se mostró en las impresiones.

UNIVAC y ENIAC son ejemplos de dispositivos informáticos de primera generación.




 El UNIVAC fue el primer ordenador comercial entregada a un cliente comercial, la Oficina del Censo de los Estados Unidos en 1951.



Segunda generación: transistores (1956-1963)

El mundo vería que los transistores reemplazan los tubos de vacío en la segunda generación de ordenadores. 

El transistor fue inventado en Bell Labs en 1947, pero no se vio un uso generalizado hasta finales de la década de 1950. El transistor era muy superior al tubo de vacío, lo que permitía que los ordenadores se volvieran más pequeños, más rápidos, más baratos, más eficientes energéticamente y más confiables que sus antecesores de primera generación. Aunque el transistor aún generaba una gran cantidad de calor, fue una gran mejora con respecto al tubo de vacío. Los ordenadores de segunda generación aún dependían de tarjetas perforadas para la entrada y copias impresas para la salida.  


Estos equipos pasaron del lenguaje de máquinas binarias crípticas a lenguajes simbólicos o de ensamblaje, lo que permitió a los programadores especificar instrucciones en palabras. Los lenguajes de programación de alto nivel también se estaban desarrollando en este momento, como las primeras versiones de COBOL y FORTRAN. Estos fueron también los primeros ordenadores que almacenaron sus instrucciones en su memoria, que pasaron de un tambor magnético a una tecnología de núcleo magnético. Los primeros ordenadores de esta generación fueron desarrollados para la industria de la energía atómica.


Tercera Generación: Circuitos Integrados (1964-1971)

El desarrollo del circuito integrado fue el sello distintivo de la tercera generación de ordenadores. Los transistores fueron miniaturizados y colocados en chips de silicio, llamados semiconductores, que aumentaron drásticamente la velocidad y la eficiencia.


En lugar de tarjetas perforadas e impresiones, los usuarios interactuaron a través de teclados y monitores, e interactuaron con un sistema operativo, lo que permitió que el dispositivo ejecutara muchas aplicaciones diferentes a la vez con un programa central que monitoreaba la memoria. Por primera vez se hicieron accesibles para una audiencia masiva, porque eran más pequeños y más baratos que sus predecesoras.



Cuarta generación: microprocesadores (1971-presente)

Las generaciones de ordenadores
El microprocesador trajo la cuarta generación de ordenadores, ya que miles de circuitos integrados se construyeron en un solo chip de silicio. Lo que en la primera generación llenaba una habitación entera, ahora cabía en la palma de la mano. El chip Intel 4004, desarrollado en 1971, ubicó todos los componentes, desde la unidad de procesamiento central y la memoria hasta los controles de entrada / salida, en un solo chip.     

poco a poco alcanzaremos algo así. 


En 1981, IBM presentó su primer ordenador para el usuario doméstico, y en 1984, Apple presentó el Macintosh. A medida que se volvieron más poderosos, pudieron vincularse entre sí para formar redes, lo que finalmente condujo al desarrollo de Internet. Los ordenadores de cuarta generación también vieron el desarrollo de GUI, el ratón y dispositivos de mano.




Los dispositivos informáticos de quinta generación, basados ​​en inteligencia artificial, aún están en desarrollo, aunque hay algunas aplicaciones, como el reconocimiento de voz, que se están utilizando en la actualidad. El uso de procesamiento paralelo y superconductores está ayudando a hacer realidad la inteligencia artificial. La computación cuántica y la nanotecnología molecular cambiarán radicalmente la cara de las computadoras en los años venideros. El objetivo de la computación de quinta generación es desarrollar dispositivos que respondan al aporte del lenguaje natural y que sean capaces de aprender y auto organizarse.





Quinta generación: inteligencia artificial (presente y más allá)
Fue un ambicioso proyecto elaborado por Japón a finales de la década de 1970. 
Su objetivo era la creación de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial usando el lenguaje prolog (PROgrammation en LOGique); por ejemplo. La traducción de un lenguaje natural a otro.
A mediados de los 70 Japón decidió abrirse a un futuro en la industria de la informática, el centro de desarrollo y proceso de la información de Japón fue en encargado de elaborar un plan para desarrollar el proyecto.

En 1979 se ofreció un contrato de tres años para realizar estudios más profundos en conjunto con empresas dedicadas a la tecnología, fue durante ese periodo cuando se comenzó a utilizar el término “computadora de Quinta generación”

Monitores, teclados y otros dispositivos de entrada y salida pueden estar integrados o separados. La memoria de computadora en forma de RAM, y al menos otro dispositivo de almacenamiento de memoria menos volátil se suele combinar con la CPU en un bus de sistema en una unidad.

Una supercomputadora o un superordenador es aquella con capacidades de cálculo muy superiores a las computadoras comunes y de escritorio y que son usadas con fines específicos.

Japón al implementar la quinta generación, decide utilizarlas nuevas máquinas para inteligencia artificial y así poder resolver problemas complejos.

Al haber mejorado las computadoras las medidas de velocidad habían cambiado utilizando ahora LIPS (Logical inferences per second).



Gracias a los aportes que se hicieron, se logró generar la inteligencia artificial con una lógica de programación declarativa, que posteriormente sería la base de las redes neuronales.

Máquinas transportables, software inteligente, mayores capacidades en todos los aspectos, gráficos, sistemas expertos, redes de comunicación, etc.



 



  • El tiempo de formación de los programadores es relativamente corto comparado con otros lenguajes.
  • La escritura de los programas se basa en reglas sintácticas similares a los lenguajes humanos.
  • Se utilizan nombres en las instrucciones, tales como READ, WRITE, PRINT, OPEN, etc.
  • Las modificaciones y puestas a punto de los programas son más fáciles.
  • Reducción del coste de los programas.
  • Son transportables
  • Incremento del tiempo de puesta a punto, al necesitarse diferentes traducciones del programa fuente para conseguir el programa definitivo.
  • No se aprovechan los recursos internos de la máquina, que se explotan mucho mejor en lenguajes de máquina y ensambladores.
  • Necesidad de una mayor capacidad de memoria.
  • El tiempo de ejecución de los programas es mucho mayor.






Con toda esta evolución  hemos pasado de esto...  


a esto.




Comentarios

Entradas populares de este blog

Tecnología medieval : La Tecnología en la Edad Antigua