Introducción a la computación/El computador y su historia

De Wikiversidad
Ir a la navegación Ir a la búsqueda
Lección 1
El computador y su historia

Las computadoras son dispositivos electrónicos para procesar información. Toman datos de entrada, los transforman y producen datos de salida que son de utilidad para sus usuarios. Están compuestas de dos elementos principales: el soporte físico o hardware y el soporte lógico o software. El soporte físico consiste en dispositivos de entrada, unidades de procesamiento de datos, memoria, dispositivos de almacenamiento y dispositivos de salida. Todos estos elementos son componentes electrónicos y tienen formas muy diversas dependiendo del tipo de computador. Las características del soporte físico del computador determinan en gran medida las funciones que puede realizar porque no es posible cambiarlo sin sustituir físicamente algunos de sus componentes.[1]

El soporte lógico consiste en las instrucciones o programas que los computadores tienen almacenados en su memora y les indica qué deben hacer con la información que reciben mediante los dispositivos de entrada o con la información que tienen almacenada. Da a los computadores la capacidad de realizar trabajo útil y se puede modificar en cualquier momento. La gran flexibilidad de los computadores proviene de la capacidad que tienen de realizar tareas diferentes con la información dependiendo del programa que estén ejecutando.[1]

Antecedentes[editar]

El ábaco fue el primer dispositivo de cálculo desarrollado por el ser humano y todavía se utiliza hoy en día.

Las primeras computadoras se construyeron a mediados del siglo XX pero anteriormente ya existían diversos dispositivos de cálculo. El más antiguo de ellos es el ábaco. El ábaco existe desde la antigüedad y todavía se utiliza en para enseñarle aritmética a los niños. Consiste en una serie de cuentas organizadas en barras paralelas. Las posiciones de las cuentas en las barras representan diversos valores que ayudan a contar, sumar y restar.

A mediados del siglo XVII se inventaron dispositivos mecánicos más sofisticados para realizar cálculos o automatizar tareas mediante el procesamiento de información. Los más destacados fueron la pascalina, los telares de Jacquard, la máquina analítica y la máquina de diferencias. La pascalina fue una sumadora mecánica inventada por Blaise Pascal que representaba la información utilizando posiciones en engranes mecánicos. Los telares de Jacquard fueron inventados por Joseph Jacquard y permitían crear tejidos con diferentes diseños que se especificaban utilizando piezas perforadas intercambiables. El concepto de tarjetas perforadas de Jacquard para programar máquinas fue muy poderoso y fue adoptado tanto por Charles Babbage para su máquina analítica como por Herman Hollerith para sus máquinas tabuladoras. También fue adoptado por los creadores de los primeros computadores modernos.[2]

Charles Babbage fue un profesor de matemáticas de la universidad de Cambridge que diseñó dos máquinas llamadas máquina de diferencias y máquina analítica. La máquina de diferencias realizaba cálculos aritméticos mediante diferencias sucesivas.[1] Babbage pretendía utilizarla para eliminar el trabajo manual requerido para crear tablas de logaritmos que en ese tiempo debían calcularse a mano y estaban llenas de errores tipográficos. Sin embargo, solo logró construir una parte.[3] La máquina analítica era un dispositivo de cálculo completamente programable que tenía todos los componentes de una computadora moderna (entrada, salida, procesamiento y almacenamiento de información). Desafortunadamente no llegó a construirla porque el gobierno británico le retiró el financiamiento al proyecto.[1]

Primeros computadores[editar]

La primera computadora digital electrónica se llamó Colossus y fue construida en secreto por el gobierno británico como herramienta para decodificar los mensajes en código del ejercito alemán durante la Segunda Guerra Mundial. En ese mismo periodo de tiempo, en Estados Unidos, se construyeron o diseñaron máquinas similares para realizar gran cantidad de cálculos repetitivos como la ABC diseñada por John Atanasoff y la Mark I por Howard Aiken. A partir de esos primeros diseños John Mauchly y J. Presper Eckert crearon una computadora llamada ENIAC para calcular tablas de trayectorias balísticas para el ejército. La ENIAC pesaba más de 30 toneladas y no estuvo terminada hasta dos meses después del final de la guerra pero demostró el potencial de ofrecían los computadores. Después de completar su trabajo en el proyecto, Mauchly y Eckert fundaron una compañía privada y desarrollaron una de las primeras computadoras comerciales de uso general llamada UNIVAC I.[1]

Generaciones de computadores[editar]

Los transistores permitieron desarrollar computadores más rápidos y confiables que los fabricados usando tubos de vacío.

A partir del surgimiento de la computación comercial, el desarrollo de las computadoras se asoció directamente al de los dispositivos utilizados para fabricarlas y se organiza frecuentemente en generaciones. Las válvulas o tubos de vacío tenían un tamaño similar al de una bombilla y se consideran la primera generación. Se utilizaron aproximadamente hasta mediados de los años 50.[1] Los transistores se inventaron a finales de los años 40[3] y sustituyeron a los tubos al vacío en la segunda generación de computadoras aproximadamente 10 años después.[1] Los transistores fueron sustituidos con circuitos integrados para dar origen a la tercera generación de computadores a mediados de los años 60. Esta tecnología empaqueta cientos de transistores en una delgada lámina de silicio y fue desarrollada para satisfacer las necesidades del programa espacial estadounidense.[1] El microprocesador fue inventado en 1971 por los ingenieros de Intel.[4] Incorporó todos los componentes de una unidad central de procesamiento en un solo chip de silicio.[4] Sus costos de investigación y desarrollo fueron muy elevados pero permitió reducir sustancialmente los costos de producción de los ordenadores, dando origen a la cuarta generación de computadores.[1]

Los computadores se volvieron más pequeños, rápidos, eficientes, baratos y confiables con cada generación.[1] Los sistemas actuales todavía se basan en versiones cada vez más poderosas y sofisticadas de la tecnología de circuitos integrados. En esta fase el desarrollo pasó de la invención a la ingeniería con el objetivo de crear versiones cada vez más baratas y rápidas de los circuitos integrados, lo que permitió usar los computadores para resolver gran cantidad de problemas y desarrollar nuevas aplicaciones.[3]

La computación personal[editar]

El surgimiento del computador personal fue uno de los mayores avances de la computación en la década de los años 80.

El siguiente avance de importancia después del microprocesador fue el surgimiento de la computadora personal. Este inició con empresas que vendían combinaciones de circuitos para que aficionados a la electrónica construyeran sus propios computadores.[2] El primero adoptado de forma generalizada fue el modelo Altair de la compañía Micro Instrumentation Telemetry Systems (MITS). La empresa esperaba vender cientos de unidades pero el interés generado por su publicación en el artículo de portada del número de enero de 1971 de la revista Popular Mechanics provocó que vendieran miles de unidades y llamó la atención de Bill Gates y Paul Allen. Ambos escribieron el intérprete de código BASIC para la Altair, lo que sería el origen de la empresa Microsoft.[5]

Después del Altair surgieron otros computadores personales. El más notable de ellos fue el Apple II por ser uno de los primeros dirigidos a personas que no estaban interesadas en construir sus propios dispositivos. También fue uno de los primeros en permitir trabajo productivo al incorporar una hoja de cálculo llamada VisiCalc. Sin embargo fue el IBM PC, disponible a partir de 1981, el que logró popularizar el concepto y revolucionar el mundo de la computación. Su arquitectura abierta, el uso de microprocesadores Intel y del sistema operativo DOS de Microsoft permitieron el desarrollo de un sistema accesible y poderoso que estableció las características definitorias de los computadores personales hasta el día de hoy.[5]

El Internet y los dispositivos móviles[editar]

Después de la popularización de los computadores personales en la década de los años 80 y su incursión en los entornos domésticos, el mayor avance en el área de la computación fue el desarrollo del Internet y de la World Wide Web (abreviada web).[2] Internet es una red mundial de computadores que revolucionó el mundo de las comunicaciones permitiendo que sistemas distribuidos alrededor del mundo se conecten entre sí para compartir información y recursos.[2] La web es un sistema para buscar y acceder a información a través del Internet que fue desarrollado por el Laboratorio Europeo para la Física de Partículas (CERN por sus siglas en inglés).[1]

Originalmente la web se pensó como un mecanismo para acceder documentos enlazados entre si. Pero debido a su flexibilidad, hoy en día se utiliza para acceder también a imágenes, audio, vídeo y aplicaciones. Las empresas también la utilizan como un medio para anunciarse y vender sus productos a clientes en todo el mundo.[1]

El desarrollo de la web, junto con la continua miniaturización de los componentes electrónicos de los computadores, revolucionó la sociedad durante los primeros años del siglo XXI. La computación pasó de ser un área de conocimiento especializada a ser parte del vivir diario de millones de personas. Los teléfonos celulares inteligentes caben en el bolsillo de una persona y tienen más poder de computo que los grandes computadores de las primeras generaciones.[3] Las personas han pasado de usar computadores personales en escritorios exclusivamente para trabajar a estar siempre conectados consumiendo y creando información a través de sus móviles y de las redes sociales.[2]

Perspectivas[editar]

Los computadores se han convertido en un aspecto fundamental de la educación, los negocios, la administración pública, la investigación y el entretenimiento. Desde su invención han evolucionado a un ritmo acelerado y hoy en día su desarrollo continúa rápidamente, provocando todo tipo de cambios en la sociedad. Es imposible predecir que ocurrirá en el futuro y cómo esos cambios pueden transformar el futuro. Sin embargo, varias tendencias presentes hoy en día en la tecnología de la computación tienen el potencial de provocar grandes cambios sociales y tecnológicos en el futuro cercano. Algunas de las más destacadas son:[6]

Computación en paralelo a gran escala La reducción en el tamaño de los transistores está llegando a sus límites. Las tecnologías de manufactura permitirán colocar más transistores en un chip pero no mejorarán la rapidez ni la eficiencia. Los chips con múltiples núcleos se presentan como una alternativa, convirtiendo la programación en paralelo en la norma en vez de la excepción.[6]
Computación en la nube La computación en la nube es un conjunto de servicios disponibles a través de Internet y soportados por enormes centros de datos como búsquedas web, aplicaciones (correo, edición de documentos, almacenamiento de archivos, etc.) y redes sociales. Esto permite que los negocios proporcionen gran cantidad de servicios sofisticados y los usuarios dispongan de ellos sin importar donde se encuentren o que dispositivo estén utilizando.[6]
Internet de las cosas La reducción en el costo y tamaño de los microprocesadores ha hecho posible conectar incluso los dispositivos más baratos a internet.[6] Esto permite que los dispositivos generen, consuman e intercambien datos directamente, integrando el mundo físico con el digital.[7]
Interfaces naturales de usuario Las interfaces naturales de usuario representan un nuevo modelo de interacción humano-computador basado en reconocimiento de voz, gestos y movimientos. También incluyen las tecnologías para comprender preguntas implícitas y anticipar solicitudes y acciones aprovechando la información almacenada en la nube. Esto le permitirá a gran cantidad de dispositivos estar conscientes de la situación de sus usuarios y satisfacer sus necesidades mejor de lo que un asistente humano podría hacerlo.[6]

Resumen de la lección[editar]

  • Las computadoras son dispositivos electrónicos para procesar información.
  • El soporte físico o hardware del computador lo conforman componentes electrónicos.
  • El soporte lógico o software consiste en instrucciones almacenadas en la memora del computador.
  • El mismo computador puede realizar tareas diferentes dependiendo del programa que ejecuta.
  • Antes del surgimiento de los primeros computadores, ya existían diversos dispositivos para facilitar los cálculos aritméticos.
  • Los primeros computadores fueron desarrollados durante la segunda guerra mundial.
  • La primera generación de computadores comerciales estaba basada en tubos de vacío.
  • La segunda generación de computadores estaba basada en transistores.
  • La tercera generación de computadores estaba basada en circuitos integrados.
  • El microprocesador dio origen a la cuarta generación de computadores al integrar todos los componentes principales de un procesador en un único chip.
  • El IBM PC popularizó el concepto del computador personal.
  • Internet es una red mundial de computadores que permite conectar sistemas alrededor del mundo.
  • La web fue desarrollada en el CERN como un medio para acceder a información a través de internet.
  • Los teléfonos móviles permiten consumir y crear información continuamente.
  • La computación en paralelo, la computación en la nube, el internet de las cosas y las interfaces naturales de usuario son nuevos desarrollos en la tecnología de los computadores que tendrán un gran impacto en la sociedad en el futuro cercano.

Términos clave[editar]

Lecturas adicionales[editar]

Bibliografía[editar]

  1. 1,00 1,01 1,02 1,03 1,04 1,05 1,06 1,07 1,08 1,09 1,10 1,11 Beekman, George (2011). Introducción a la computación (1.ª edición). Ciudad de México, México: Pearson Educación. p. 496. ISBN 978-607-32-0708-9. 
  2. 2,0 2,1 2,2 2,3 2,4 Brookshear, J. Glenn (2012). Introducción a la computación (11.ª edición). Madrid, España: Pearson Educación, S. A. p. 720. ISBN 978-847829139-7. 
  3. 3,0 3,1 3,2 3,3 Severance, C. (2013-9). «John C. Hollar: History of Computing». Computer 46 (9): 13-14. ISSN 0018-9162. doi:10.1109/MC.2013.318. Consultado el 2019-04-08. 
  4. 4,0 4,1 Borkar, Shekhar; Chien, Andrew A. (2011-05-01). «The future of microprocessors». Communications of the ACM (en inglés) 54 (5): 67. doi:10.1145/1941487.1941507. Consultado el 2019-04-14. 
  5. 5,0 5,1 Bradley, D. (2011-8). «A Personal History of the IBM PC». Computer 44 (8): 19-25. ISSN 0018-9162. doi:10.1109/MC.2011.232. Consultado el 2019-04-08. 
  6. 6,0 6,1 6,2 6,3 6,4 Reed, D.; Larus, J. R.; Gannon, D. (2012-1). «Imagining the Future: Thoughts on Computing». Computer 45 (1): 25-30. ISSN 0018-9162. doi:10.1109/MC.2011.327. Consultado el 2019-04-08. 
  7. Voas, Jeffrey (2016-6). «Demystifying the Internet of Things». Computer 49 (6): 80-83. ISSN 0018-9162. doi:10.1109/MC.2016.162. Consultado el 2019-04-15. 


Proyecto: Introducción a la computación
Anterior: Introducción a la computación — El computador y su historia — Siguiente: Evaluación de la lección 1