Mientras que ahora los ordenadores son una parte importante en la vida de los seres humanos, hubo un tiempo donde los ordenadores no existían. Conociendo la historia de los ordenadores y los progresos que se han hecho, nos puede hacer comprender lo complicado e innovador que supuso la entrada de esta tecnología en nuestra existencia.
Al contrario que la mayoría de los dispositivos, las computadoras son uno de esos inventos que no tienen un creador específico. Muchas personas han ido añadiendo sus creaciones a la lista de requerimientos para hacer funcionar un ordenador.
El comienzo
Quizás el año más significativo en la historia de los ordenadores fue el año 1936. Fue el año donde el primer “computador” fue desarrollado. Honrad Zuse fue el creador con su Z1. El Z1 se considera el primer ordenador ya que era el primer sistema totalmente programable. Había otros dispositivos antes que este pero ninguno con la capacidad de computación de este equipo.
No fue hasta 1942 que alguna empresa viera posibles beneficios y oportunidades los ordenadores. La primera compañía se llamó “ABC Computers” perteneciente a John Atanasoff y Clifford Berry. Dos años después, el ordenador “Harvard Mark I” fue desarrollado llevando más allá la tecnología de los ordenadores.
Durante el curso de los siguientes años, inventores por todo el mundo empezaron a investigar el mundo de las computadoras y como mejorarlas. Los 10 años siguientes vieron nacer el transistor, que se convertiría en parte vital de la electrónica que compone un ordenador. Por aquel entonces existía la ENIAC 1, la cual requería de 20,000 válvulas para operar. Era una máquina de gran tamaño y empezó la revolución para construir ordenadores mas pequeños y rápidos.
La era de los ordenadores quedo alterada por la introducción en escena de IBM (International Business Machines) en el año 1953. Esta compañía, en el curso de la historia del ordenador, ha sido un punto clave en el desarrollo de nuevos sistemas y de servidores de uso público y privado. Esta introducción trajo los primeros signos reales de competencia en el mundo informático, lo cual ayudó a un mejor esparcimiento de los ordenadores en el mercado. Su primera contribución fue el ordenador IBM 701 EDPM.
Harvard Mark I
Evolución de un lenguaje de programación
Un año mas tarde, el primer lenguaje de programación de alto nivel, fue desarrollado… FORTRAN. Dicho lenguaje de programación no estaba escrito en ensamblador o binario, los cuales están considerados de bajo nivel. FORTRAN se escribió para que más personas pudieran empezar a programar de forma mas fácil.
En el año 1955, el banco de América, juntó con el instituto de investigación Stanford y “General Electric”, vieron al creación de los primeros ordenadores para su uso en bancos. El MICR (Magnetic Ink Character Recognition) junto con el sistema ERMA comenzaron a funcionar en industrias relacionadas con la banca. No fue hasta 1959 que ambos sistemas se pusieron en uso para los bancos tradicionales.
Durante 1958, otro importante evento ocurre con la creación del circuito integrado. El dispositivo, también conocido como chip, es uno de los requerimientos básicos para los sistemas de ordenadores modernos. En cualquier placa base o tarjeta, encontraremos chips que contiene información de lo que estos dispositivos deben hacer. Sin estos chips, los sistemas tal como los conocemos no podrían funcionar.
Juegos, ratón e Internet
Para muchos usuarios de ordenador, los juegos han sido una parte vital dentro del mundo de los ordenadores. El año 1962 vio la creación del primer juego de ordenador, el cual fue hecho por Steve Russel y MIT, el cual se llamó “Spacewar”.
El ratón, uno de los componentes básicos de los ordenadores modernos, se creo en 1964 por Douglass Engelbart. Obtuvo su nombre por el cable que salía del dispositivo asemejándose a un ratón.
Uno de los aspectos mas importantes dentro del mundo informático en la actualidad, fue inventado en 1969. Hablamos de la red ARPA, la cual se puede considerar el Internet original y que proveyó de los fundamentos para el Internet que conocemos hoy en día.
No fue hasta 1970 cuando Intel entro en escena con el primer chip RAM dinámico que dio como resultado una autentica explosión de innovación en el mundo informático.
Casi al mismo tiempo salió el primer microprocesador que también fue creado por Intel. Estos dos componentes, junto con el chip creado en 1958, se pueden considerar el núcleo de los ordenadores modernos.
Un año mas tarde, se creó el “floppy disk” recibiendo su nombre por la flexibilidad de la unidad de almacenamiento. Este fue el primer paso para permitir a mucha gente transferir datos entre ordenadores NO conectados.
La primera tarjeta de red fue creada en 1973, permitiendo transferir datos entre ordenadores conectados entre si.
Aparecen los ordenadores caseros o PC’s
Los siguientes tres años fueron muy importantes para los ordenadores. Es cuando las compañías comenzaron a desarrollar sistemas para el consumidor medio. El Scelbi, Mark-8 Altair, IBM 5100, Apple I y II, TRS-80, y el Commodore Pet fueron los ordenadores pioneros en ordenadores domésticos, aunque resultaban algo caros.
IBM 5100
Otro momento importante en el área de software informático, ocurrió en 1978 con la salida del programa de calculo VisiCalc. Todos los gastos y costes en el desarrollo de este programa informático fueron amortizados en un periodo de 2 semanas haciéndolo uno de los programas de mas éxito en la historia.
En 1979 sale a la venta WordStar, el primer procesador de texto. Esto cambió drásticamente el uso cotidiano que se le daba a los ordenadores hasta el momento.
El ordenador personal IBM ayudó a revolucionar el mercado de consumo en 1981, ya que con sus precios competitivos, permitió al usuario medio tener un ordenador en casa. 1981 también vio al gigante Microsoft entrar en escena con su sistema operativo MS-DOS. Este sistema operativo cambió el mundo de los ordenadores para siempre, y era suficientemente fácil para que todo el mundo lo utilizara.
La historia de la tecnología de los ordenadores vería otro cambio importante en 1983. El ordenador de Apple Lisa fue el primero con un interfaz gráfico o GUI. La mayoría de los programas modernos usan un interfaz gráfico, que permite su uso de forma sencilla y agradable para la vista. Esta tecnología empezada por Apple, marcó el principio de la desaparición de muchos programas basados solo en texto.
A partir de este punto, muchos cambios han ocurrido, sobre todo como consecuencia de la gran competitividad entre Apple y Microsoft. El desarrollo de todas las tecnologías existentes relacionada con el mundo del ordenador no tiene límites. Pero debemos recordar que sin esos pequeños pasos que se dieron al principio, nada de esto hubiera sido posible.
Dell - Ordenadores de sobremesa y PC's
Navega por la Web de Dell y compara modelos, precios y ofertas.
Artículos relacionados
¿Cómo evolucionarán los ordenadores en los próximos años?
Sabemos que la tecnología informática y los dispositivos relacionados evoluciona muy rápido, pero ¿Nos hemos preguntado donde estará esta tecnología dentro de 100 años? Veremos en el siguiente artículo algunas posibilidades...
¿Qué es la computación ubicua?
Aparte de los posibles adelantos que hemos visto en el artículo anterior sobre la futura evolución de los ordenadores, veremos los que es la computación ubicua. Esta puede ser una de las posibilidades que más se barajan...
¿Quién fue el inventor del ordenador?
¿Sabes quién fue el inventor del ordenador? En el siguiente artículo veremos quién inició esta revolución informática y algunos detalles de como surgió. Puede que saber donde se originó el ordenador personal te sorprenda...
¿Qué son los ordenadores Commodore?
Muchas sabrán y se acordarán de lo que es un Commodore 64. Para los no lo tengan tan claro, pueden leer este artículo que explica como fue este ordenador dede sus principios y algunas características interesantes...
Los modelos de Commodore
Existen varios tipos de modelos Commodore que salieron a principios de los años ochenta y noventa. Veremos a continuación varios de ellos...
Mientras que ahora los ordenadores son una parte importante en la vida de los seres humanos, hubo un tiempo donde los ordenadores no existían. Conociendo la historia de los ordenadores y los progresos que se han hecho, nos puede hacer comprender lo complicado e innovador que supuso la entrada de esta tecnología en nuestra existencia.
Al contrario que la mayoría de los dispositivos, las computadoras son uno de esos inventos que no tienen un creador específico. Muchas personas han ido añadiendo sus creaciones a la lista de requerimientos para hacer funcionar un ordenador.
El comienzo
Quizás el año más significativo en la historia de los ordenadores fue el año 1936. Fue el año donde el primer “computador” fue desarrollado. Honrad Zuse fue el creador con su Z1. El Z1 se considera el primer ordenador ya que era el primer sistema totalmente programable. Había otros dispositivos antes que este pero ninguno con la capacidad de computación de este equipo.
No fue hasta 1942 que alguna empresa viera posibles beneficios y oportunidades los ordenadores. La primera compañía se llamó “ABC Computers” perteneciente a John Atanasoff y Clifford Berry. Dos años después, el ordenador “Harvard Mark I” fue desarrollado llevando más allá la tecnología de los ordenadores.
Durante el curso de los siguientes años, inventores por todo el mundo empezaron a investigar el mundo de las computadoras y como mejorarlas. Los 10 años siguientes vieron nacer el transistor, que se convertiría en parte vital de la electrónica que compone un ordenador. Por aquel entonces existía la ENIAC 1, la cual requería de 20,000 válvulas para operar. Era una máquina de gran tamaño y empezó la revolución para construir ordenadores mas pequeños y rápidos.
La era de los ordenadores quedo alterada por la introducción en escena de IBM (International Business Machines) en el año 1953. Esta compañía, en el curso de la historia del ordenador, ha sido un punto clave en el desarrollo de nuevos sistemas y de servidores de uso público y privado. Esta introducción trajo los primeros signos reales de competencia en el mundo informático, lo cual ayudó a un mejor esparcimiento de los ordenadores en el mercado. Su primera contribución fue el ordenador IBM 701 EDPM.
Harvard Mark I
Evolución de un lenguaje de programación
Un año mas tarde, el primer lenguaje de programación de alto nivel, fue desarrollado… FORTRAN. Dicho lenguaje de programación no estaba escrito en ensamblador o binario, los cuales están considerados de bajo nivel. FORTRAN se escribió para que más personas pudieran empezar a programar de forma mas fácil.
En el año 1955, el banco de América, juntó con el instituto de investigación Stanford y “General Electric”, vieron al creación de los primeros ordenadores para su uso en bancos. El MICR (Magnetic Ink Character Recognition) junto con el sistema ERMA comenzaron a funcionar en industrias relacionadas con la banca. No fue hasta 1959 que ambos sistemas se pusieron en uso para los bancos tradicionales.
Durante 1958, otro importante evento ocurre con la creación del circuito integrado. El dispositivo, también conocido como chip, es uno de los requerimientos básicos para los sistemas de ordenadores modernos. En cualquier placa base o tarjeta, encontraremos chips que contiene información de lo que estos dispositivos deben hacer. Sin estos chips, los sistemas tal como los conocemos no podrían funcionar.
Juegos, ratón e Internet
Para muchos usuarios de ordenador, los juegos han sido una parte vital dentro del mundo de los ordenadores. El año 1962 vio la creación del primer juego de ordenador, el cual fue hecho por Steve Russel y MIT, el cual se llamó “Spacewar”.
El ratón, uno de los componentes básicos de los ordenadores modernos, se creo en 1964 por Douglass Engelbart. Obtuvo su nombre por el cable que salía del dispositivo asemejándose a un ratón.
Uno de los aspectos mas importantes dentro del mundo informático en la actualidad, fue inventado en 1969. Hablamos de la red ARPA, la cual se puede considerar el Internet original y que proveyó de los fundamentos para el Internet que conocemos hoy en día.
No fue hasta 1970 cuando Intel entro en escena con el primer chip RAM dinámico que dio como resultado una autentica explosión de innovación en el mundo informático.
Casi al mismo tiempo salió el primer microprocesador que también fue creado por Intel. Estos dos componentes, junto con el chip creado en 1958, se pueden considerar el núcleo de los ordenadores modernos.
Un año mas tarde, se creó el “floppy disk” recibiendo su nombre por la flexibilidad de la unidad de almacenamiento. Este fue el primer paso para permitir a mucha gente transferir datos entre ordenadores NO conectados.
La primera tarjeta de red fue creada en 1973, permitiendo transferir datos entre ordenadores conectados entre si.
Aparecen los ordenadores caseros o PC’s
Los siguientes tres años fueron muy importantes para los ordenadores. Es cuando las compañías comenzaron a desarrollar sistemas para el consumidor medio. El Scelbi, Mark-8 Altair, IBM 5100, Apple I y II, TRS-80, y el Commodore Pet fueron los ordenadores pioneros en ordenadores domésticos, aunque resultaban algo caros.
IBM 5100
Otro momento importante en el área de software informático, ocurrió en 1978 con la salida del programa de calculo VisiCalc. Todos los gastos y costes en el desarrollo de este programa informático fueron amortizados en un periodo de 2 semanas haciéndolo uno de los programas de mas éxito en la historia.
En 1979 sale a la venta WordStar, el primer procesador de texto. Esto cambió drásticamente el uso cotidiano que se le daba a los ordenadores hasta el momento.
El ordenador personal IBM ayudó a revolucionar el mercado de consumo en 1981, ya que con sus precios competitivos, permitió al usuario medio tener un ordenador en casa. 1981 también vio al gigante Microsoft entrar en escena con su sistema operativo MS-DOS. Este sistema operativo cambió el mundo de los ordenadores para siempre, y era suficientemente fácil para que todo el mundo lo utilizara.
La historia de la tecnología de los ordenadores vería otro cambio importante en 1983. El ordenador de Apple Lisa fue el primero con un interfaz gráfico o GUI. La mayoría de los programas modernos usan un interfaz gráfico, que permite su uso de forma sencilla y agradable para la vista. Esta tecnología empezada por Apple, marcó el principio de la desaparición de muchos programas basados solo en texto.
A partir de este punto, muchos cambios han ocurrido, sobre todo como consecuencia de la gran competitividad entre Apple y Microsoft. El desarrollo de todas las tecnologías existentes relacionada con el mundo del ordenador no tiene límites. Pero debemos recordar que sin esos pequeños pasos que se dieron al principio, nada de esto hubiera sido posible.
Leer mas artículos relacionados
Dell - Ordenadores de sobremesa y PC's
Navega por la Web de Dell y compara modelos, precios y ofertas.
Artículos relacionados
¿Cómo evolucionarán los ordenadores en los próximos años?
Sabemos que la tecnología informática y los dispositivos relacionados evoluciona muy rápido, pero ¿Nos hemos preguntado donde estará esta tecnología dentro de 100 años? Veremos en el siguiente artículo algunas posibilidades...
¿Qué es la computación ubicua?
Aparte de los posibles adelantos que hemos visto en el artículo anterior sobre la futura evolución de los ordenadores, veremos los que es la computación ubicua. Esta puede ser una de las posibilidades que más se barajan...
¿Quién fue el inventor del ordenador?
¿Sabes quién fue el inventor del ordenador? En el siguiente artículo veremos quién inició esta revolución informática y algunos detalles de como surgió. Puede que saber donde se originó el ordenador personal te sorprenda...
¿Qué son los ordenadores Commodore?
Muchas sabrán y se acordarán de lo que es un Commodore 64. Para los no lo tengan tan claro, pueden leer este artículo que explica como fue este ordenador dede sus principios y algunas características interesantes...
Los modelos de Commodore
Existen varios tipos de modelos Commodore que salieron a principios de los años ochenta y noventa. Veremos a continuación varios de ellos...
Se considera que el primer ordenador de toda la historia fue el 'Z3' creado en 1941 por el ingeniero alemán Konrad Suze. Con anterioridad el también alemán Wilhem Schickhard había diseñado en 1623 la primera calculadora automática, pero este invento no era programable como el 'Z3'. Estaba diseñado con tecnología electromecánica y se construyó con 2.300 relés telefónicos. Contaba con una frecuencia de reloj de ~5 Hz, y una longitud de palabra de 22 bits, realizando sus cálculos en base al código binario.
Además, se programaba mediante cables e interruptores. En 1943 el Z3 original fue destruido durante un bombardeo sobre Berlín, pero en los años 60 se hizo una réplica que actualmente se expone en el Deutsches Museum. Como curiosidad, este ordenador pesaba una tonelada y era capaz de hacer una suma en 0,7 segundos y una división en 3 segundos.
John Atanasoff
John Atanasoff
ATANASOFF Pic^8 - Flickr - Eye Steel Film.jpg
Información personal
Nacimiento 4 de octubre de 1903 Ver y modificar los datos en Wikidata
Mulberry, Estados Unidos Ver y modificar los datos en Wikidata
Fallecimiento 15 de junio de 1995 Ver y modificar los datos en Wikidata (91 años)
Venezuela, Venezuela Ver y modificar los datos en Wikidata
Nacionalidad Estadounidense Ver y modificar los datos en Wikidata
Educación
Alma máter
Universidad de Wisconsin-Madison
Universidad de la Florida Ver y modificar los datos en Wikidata
Supervisor doctoral John Hasbrouck van Vleck Ver y modificar los datos en Wikidata
Información profesional
Ocupación Físico, ingeniero, catedrático de universidad, matemático e informático teórico Ver y modificar los datos en Wikidata
Empleador
Universidad Estatal de Iowa Ver y modificar los datos en Wikidata
Miembro de
Academia de Ciencias de Bulgaria Ver y modificar los datos en Wikidata
Distinciones
Medalla Nacional de Tecnología e Innovación Ver y modificar los datos en Wikidata
[editar datos en Wikidata]
John Vincent Atanasoff.
Monumento dedicado a John Atanasoff en Sofia, Bulgaria.
John Atanasoff (Hamilton, Nueva York, 4 de octubre de 1903 — Frederick, Maryland, 16 de junio de 1995) fue un destacado ingeniero electrónico estadounidense de origen búlgaro. Su trabajo fue fundamental para el desarrollo del ordenador digital moderno.
El enredo de la propiedad intelectual[editar]
Atanasoff conoce a Mauchly[editar]
John Atanasoff conoció a John Mauchly de la 'American Association for the Advancement of Science' celebrado en Filadelfia en diciembre de 1940, donde Mauchly realizaba una demostración de su 'harmonic analyzer'. Esta era una calculadora analógica para el análisis de datos meteorológicos. Atanosoff habló a Mauchly sobre su nuevo ingenio digital y le invitó a verlo. Durante ese mismo viaje a Filadelfia, Atanasoff y Berry visitaron la oficina de patentes en Washington, donde su investigación les aseguró que los conceptos en los que se basaba su máquina eran nuevos. El 15 de enero de 1941, un artículo aparecido en el 'Des Moines Register' hablaba del ABC como "una máquina de computación electrónica" con más de 300 tubos de vacío que podía "calcular complicadas ecuaciones algebraicas". En junio de 1941 Mauchly visitó a Atanasoff en Ames, Iowa para ver el ABC. Durante esos cuatro días como invitado de Atanasoff, Mauchly discutió minuciosamente el prototipo del ABC, lo examinó, y revisó el diseño manuscrito de Atanasoff en detalle. Antes de esta visita, Mauchly no había propuesto el diseño de un computador digital. En septiembre de 1942 Atanasoff abandonó el 'Iowa State' por un puesto en el 'Naval Ordenance Laboratory' en Washington D.C.. Confió la solicitud de la patente del ABC a los administradores del 'Iowa State College'. La solicitud nunca fue rellenada. Mauchly visitó a Atanasoff en múltiples ocasiones en Washington durante 1943 y discutieron teorías de computación, pero no mencionó que estaba trabajando en un proyecto para la construcción de un computador. El trabajo personal de Mauchly, como el mismo dijo, era demasiado secreto para ser revelado. La construcción del ENIAC de John Mauchly con la ayuda de J. Presper Eckert entre 1943 y 1946, el primer computador de Turing (es decir, que puede realizar las mismas funciones que la máquina teórica de Nactt), suscitó la controversia sobre quién era el verdadero inventor del computador moderno.
Por la patente[editar]
La disputa sobre los derechos de la patente desembocaron en un pleito el 26 de mayo de 1967 de Honeywell Inc. contra la patente del ENIAC, defendida por Sperry Rand en nombre de Mauchly y Eckert en el juzgado del distrito de Minneapolis, Minnesota. El proceso, uno de los más largos y costosos en los juzgados federales en su tiempo, comenzó el 1 de junio de 1971 y duró hasta el 13 de marzo de 1972, contó con 77 testigos. Fue legalmente resuelto el viernes 19 de octubre de 1973, cuando el juez de distrito Earl R. Larson declaró inválida la patente, dictaminando que el ENIAC había heredado muchas ideas clave del Atanasoff Berry Computer. El juez Larson dijo textualmente, "Eckert y Mauchly no inventaron ellos solos el primer computador electrónico, si no que partieron desde uno del Dr. John Vincent Atanasoff". La decisión en Honeywell Inc. contra Sperry Rand Corp. et al. fue también corroborada que no hubo apelación. Pero el veredicto fue poco publicitado en su tiempo, quizás porque quedó ensombrecido por el caso Watergate. A pesar de la reivindicación de Atanasoff, su victoria no fue completa ya que el ENIAC, y no el ABC, continua siendo considerado el primer computador moderno.
Réplica de 1997 del computador Atanasoff-Berry, Durham Center, Iowa State University
Después de la guerra[editar]
Tras terminar la Segunda Guerra Mundial Atanasoff continuó trabajando para el gobierno y desarrolló sismógrafos y microbarómetros especializados en la detección de explosiones a larga distancia. En 1952 fundó y dirigió la 'Ordnance Engineering Corporation'. En 1956 vendió su compañía a la 'Aerojet General Corporation' y se convirtió en el presidente de su división atlántica. El ABC se convirtió en un simple recuerdo. No fue hasta 1954 cuando se escucharon rumores de que algunas de sus ideas habían sido 'tomadas prestadas'. La patente del ENIAC fue solicitada en 1947 pero no fue concedida hasta 1964. En 1961 Atanasoff fundó otra empresa, 'Cybernetics Incorporated'. Solo se involucró gradualmente en la disputa legal viendo el rápido crecimiento de las compañías de ordenadores. Siguiendo a la resolución de la patente, Atanasoff fue afectuosamente reconocido por el 'Iowa State College', que se había convertido en la 'Iowa State University', después llegaron más premios. Se retiró en Maryland y murió en 1995. John Mauchly, Presper Eckert, y sus familias nunca admitieron ninguLa computadora es uno de los inventos más destacados del siglo XX, e incluso, puede considerarse como el más importante, ya que inició toda una revolución en el almacenaje, administración y uso de datos, así como, en la ejecución de grandes cálculos a velocidades superiores a la del cerebro humano.
Son muchas personas las que han trabajado en la creación y en la evolución de las computadoras. En este artículo, te vamos a responder una pregunta que te habrás hecho alguna vez: ¿Quién inventó la computadora?, así como, detalles sobre su inventor.na conducta incorrecta.
La computadora
La computadora es un invento realmente sorprendente. Se trata de una máquina capaz de realizar operaciones lógicas y matemáticas, utilizando para ello, programas informáticos o rutinas de ejecución. Si bien es cierto, desde la antigüedad se utilizaban máquinas mecánicas para hacer este tipo de tareas, fue en el siglo XX cuando se crea una completamente electrInventor de la computadora
Muchos investigadores se centraron en la creación de una máquina de cálculo digital, pero se le atribuye el primer prototipo de computadora al físico Estadounidense de origen Búlgaro Jhon Vincent Atanassoff, quién nació en New York el 4 de Octubre de 1903. Su curiosidad lo llevó a centrarse en la ejecución de cálculos matemáticos por medio de máquinas analógicas, qSegún la conclusión del mismo Atanassoff, estas máquinas eran lentas y muy imprecisas, por lo tanto, se precisaba la creación de una máquina de cálculo mucho más veloz y eficiente que las existentes. En ese momento, se inicia su largo recorrido de investigación y desarrollo para crear la primera computadora digital.
Pero el desarrollo no era sencillo, ya que necesitaba un ayudante con habilidad enorme para la electrónica (habilidad que Antanassoff no tenía). Para ello, elige al estudiante de Ingeniería Electrónica, Clifford Berry, para asistirlo, mientras que Antanassoff se centró en la creación de cuatro conceptos básicos para su desarrollo: Electrónica (componentes de funcionamiento), sistema binario (para la ejecución de los cálculos), condensadores para almacenar los datos y un sistema lógico para la ejecución de los cálculos.
En 1933 comenzó su proyecto y en el año de 1942, presentó el primer prototipo de computadora, al cual, llamó ABC (siglas de Antanassoff-Berry Computers). Este prototipo, fue la primera computadora digital del mundo que era lo que existía en aquel entonces tónica y automatizada.
Historia de las computadoras
Actualmente las computadoras, se utilizan ampliamente en muchas área de negocios, la industria, la ciencia y la educación.
Las computadoras se han desarrollado y mejorado según las necesidades del hombre para realizar trabajos y cálculos más rápidos y precisos.
Una de las primeras herramientas mecánicas del cálculo fue el ábaco en el medio oriente, el cual se compone de un marco atravesado por alambres y en cada uno se deslizan una serie de argollas.
Tiempo después aparecen las estructuras de Napier, que se utilizaron para multiplicar.
En 1642, Blaise Pascal, desarrolló una calculadora de ruedas engranadas giratorias, (antecedente de la calculadora de escritorio), sólo podía sumar y restar, se le llamó la "Calculadora Pascal".
En 1671 Gottfried Leibnitz, construyó la calculadora sucesora a la de Pascal la cual, podía efectuar las cuatro operaciones aritméticas
Charles Babbage, matemático e ingeniero inglés, es considerado el Padre de la computadora actual, ya que en 1822, construyó la máquina de diferencias , la cual se basaba en el principio de una rueda giratoria que era operada por medio de una simple manivela. Después ésta máquina fue sustituida por otra que podía ser programada para evaluar un amplio intervalo de funciones diferentes la cual, se conoció como "Máquina Analítica de Charles Babbage",
Años después, aparece Herman Hollerith, quien, en 1880, inventó las máquinas perforadoras de tarjetas, inspiradas en el telar de Jacquard, y la finalidad de la máquina de Hollerith era acumular y clasificar la información. Con ésta máquina se realizo el primer censo guardando la información en una máquina ya que ante, se procesaban en forma manual.
Hollerith fue el iniciador de la gran compañía IBM.
En 1884, Dor Eugene Felt, construye la primera máquina práctica que incluía teclas e impresora, llamado "Comptómetro o calculadora con impresora"
Konrad Zuse, construye su calculadora electromecánica Z1, que ya emplea un sistema binario y un programa indicado en cinta perforadora, fue la primera máquina de tipo mecánico y es considerada como la primera computadora construida, debido a que manejaba el concepto de programa e incluía unidad aritmética y memoria.
Howard Aiken junto con la IBM, construyó en 1937, la computadora MARK 1, en donde la información se procesaba por medio de tarjetas perforadoras, con esta máquina se podían resolver problemas de ingeniería y física, así como problemas aritméticos y lógicos. Después aparecen la MARK II, MARK III Y MARK IV. Con esta calculadoras se alcanza la automatización de los procesos.
Von Neumann, construye la EDVAC en 1952, la cual utilizaba el sistema binario e introducía el concepto de programa almacenado. La primera aplicación que se le dio a la máquina fue para el diseño y construcción de la bomba H.
la ABC, computadora construida por John Vincent Atanastoff, la cual contenía bulbos, es considerada como la primer computadora electrónica.
Generaciones de computadoras
Primera Generación:
La UNIVAC y MARK I, inauguran la primera generación
El concepto de primera generación se asocia a las computadoras de bulbos y al concepto de programa almacenado. En esta generación también aparecen los dispositivos de almacenamiento secundario.
La UNIVAC fue la primera máquina digital producida comercialmente.
Segunda Generación:
Es esta generación se construye el transistor, con ello se reduce el tamaño a milímetros en comparación a la de los bulbos que ocupaban centímetros. En esta generación aparecen como dispositivos de memoria, los discos magnéticos fijos así como unidades de discos y así como la aparición del monitor.
En esta generación se encuentran la GE 210, IBM 7090, IBM 1401, NCR 304 entre otras.
Tercera Generación:
Se caracteriza por la aparición de circuitos integrados llamados chips, con el cual se reducía notablemente el tamaño de todas las máquinas.
En esta generación también aparece el software portátil
La computadora de esta generación fue la 360 de la IBM.
Cuarta Generación:
Mejora a la anterior, teniendo como características trascendentales:
Aparece el microprocesador, el cual permite la introducción de más transistores en un solo chip.
El reconocimiento de voz
Reconocimiento de formas gráficas
Utilización de software para aplicaciones específicas.
Dentro de esta generación se encuentran la 8080, 8086,8088, 80286, 80386, 486 y Pentium.
Quinta generación:
En esta generación se emplearán microcircuitos con inteligencia, en donde las computadoras tendrán la capacidad de aprender, asociar, deducir y tomar decisiones para la resolución de un problema. Es llamada "Generación de Inteligencia Artificial"
INVENTOS
martes, 1 de noviembre de 2016
LA MEMORIA RAM
En los años 30 se utilizan las tarjetas perforadas.
En 1946; el computador ENIAC, tiene como punto de memoria la utilización de válvulas electrónicas de vacío para la construcción de bi-estables.
En los inicios de los años 50 apareció el tubo de rayos catódicos con memoria de capacidad de 1200 bits se conocía como el tubo de Williams.
En 1953 aparece la memoria operativa de ferrita se utilizo hasta los años 70.
En 1968 IBM diseña la primera memoria comercial de semiconductores con capacidad de 64 bits
Los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Esa memoria requería que cada bit estuviera almacenado en un toroide de material ferromagnético de algunos milímetros de diámetro, lo que resultaba en dispositivos con una capacidad de memoria muy pequeña. Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos construidas para implementar las funciones de memoria principal con o sin acceso aleatorio.
En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1 Kilobyte, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos.
En 1973 se presentó una innovación que permitió otra miniaturización y se convirtió en estándar para las memorias DRAM: la multiplexación en tiempo de la direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4 Kb en un empaque de 16 pines, mientras sus competidores las fabricaban en el empaque DIP de 22 pines. El esquema de direccionamiento se convirtió en un estándar de facto debido a la gran popularidad que logró esta referencia de DRAM. Para finales de los 70 los integrados eran usados en la mayoría de computadores nuevos, se soldaban directamente a las placas base o se instalaban en zócalos, de manera que ocupaban un área extensa de circuito impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el impreso principal, impedía la miniaturización, entonces se idearon los primeros módulos de memoria como el SIPP, aprovechando las ventajas de la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los pines metálicos y dejando unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines.
Resumen
Para comenzar el trabajo decidimos hacer referencia acerca de la historia del computador. Es un breve resumen de cómo surgió todo esto, y de quienes fueron sus inventores.
Luego les hacemos saber algunas definiciones básicas acerca del tema en general, como por ejemplo: definición de ordenador, memoria, etc., para familiarizarnos con la terminología usada en este artículo.
Se dará también una descripción acerca de los tipos de memoria más comúnmente usados en las computadoras. Explicando brevemente su funcionamiento, velocidades de acceso y equipos en los cuales son utilizadas.
Profundizaremos en el tipo de memoria RAMBUS, por ser uno de las más actuales. La cual puede adquirir gran importancia en el mercado, debido a que cuenta con el apoyo de INTEL.
Finalmente, presentaremos las conclusiones a las cuales se ha llegado.
La Historia de las computadoras
Del ábaco a la tarjeta perforada
El Abaco
Quizá fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.
La Pascalina
El inventor y pintor Leonardo Da Vencí (1452 - 1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Balicé Pascal (1623 -1662) por fin inventó y construyó la primera sumadora mecánica. Se le llamó Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos aritméticos.
La locura de Babbage
Charles Babbage (1793 - 1871), visionario inglés y catedrático de Cambridge, hubiera podido acelerar el desarrollo de las computadoras si él y su mente inventiva hubieran nacido 100 años después. Adelantó la situación del hardware computacional al inventar la "máquina de diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en los avances de la máquina de diferencias, Babbage concibió la idea de una "máquina analítica". En esencia ésta era una computadora de propósitos generales. Conforme con su diseño, la máquina de Babbage podía sumar, substraer, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto. El diseño requería miles de engranes y mecánicos que cubrirían el área de un campo de fútbol y necesitaría accionarse por una locomotora. Los escépticos le pusieron el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en su máquina analítica hasta su muerte.
Los trazos detallados de Babbage describían las características incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica, hubiera adelantado el nacimiento de la computadora electrónica por varias décadas. Irónicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de programa de secuencia.
La primera tarjeta perforada
El telar de tejido, inventado en 1801 por el Francés Joseph Marie Jackard (1753 - 1834), usado todavía en la actualidad, se controla por medio de tarjetas perforadas. El telar de Jackard opera de la manera siguiente: las tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para indicar un diseño de tejido particular. Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que proporcionaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera programadora.
Herman Hollerit (1860 - 1929). La oficina de censos estadounidense no terminó el censo de 1880 sino hasta 1888. La dirección de oficina ya había llegado a la conclusión de que el censo de cada diez años tardaría más que los mismos 10 años para terminarlo. La oficina de censos comisionó la estadística Herman Hollerit para que aplicara su experiencia en tarjetas perforadas y llevara a cabo el censo de 1890. Con el procesamiento de las tarjetas perforadas de Hollerit, el censo se terminó en sólo 3 años y la oficina se ahorró alrededor de U$$ 5.000.000 de dólares. Así empezó el procesamiento automatizado de datos. Hollerit no tomó la idea de las tarjetas perforadas del invento de Jackard, sino de la "fotografía de perforación". Durante décadas, desde mediados de los cincuenta la tecnología de las tarjetas perforadas se perfeccionó con la implantación de más dispositivos con capacidades más complejas. Dado que cada tarjeta contenía en general un registro (Un nombre, dirección, etc.), el procesamiento de la tarjeta perforada se conoció también como procesamiento de registro unitario.
En 1946, se terminó de construir una computadora electrónica
Completamente operacional a gran escala, y se llamó ENIAC (Electronic Numerical Integrator And Computer – integrador numérico y calculador electrónico). La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses por un equipo de científicos que trabajan bajo reloj. La ENIAC, mil veces más veloz que sus predecesoras electromecánicas, irrumpió como un importante descubrimiento en la tecnología de la computación. Pesaba 30 toneladas y ocupaba un espacio de 450 metros cuadrados, llenaba un cuarto de 6m x 12m y contenía 18,000 bulbos, tenía que programarse manualmente conectándola a 3 tableros que tenían más de 6,000 interruptores. Ingresar un nuevo programa era un proceso muy tedioso que requería días o incluso semanas. A diferencia de las computadoras actuales que operan con el sistema binario (0,1) la ENIAC operaba con uno decimal (0,1,2..9). La ENIAC requería una gran cantidad de electricidad. La leyenda cuenta que la ENIAC, construida en la Universidad de Pensilvania, bajaba las luces de Filadelfia siempre que se activaba.
Generaciones de computadoras
La evolución de las computadoras, se subdividió en 4 generaciones:
Primera Generación (1951-1958)
Las computadoras de la primera generación emplearon bulbos para procesar información. Se ingresaban datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran más grandes y generaban más calor que los modelos contemporáneos. La IBM tenía el monopolio de los equipos de procesamiento de datos basándose en tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, relojes, etc.
Segunda Generación (1959-1964)
Con el invento del transistor se hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Pero su costo seguía siendo una porción significativa. Las computadoras de la Segunda Generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario.
Tercera Generación (1964-1971)
Las computadoras de la Tercera Generación emergieron con el desarrollo de los circuitos integrados, que posibilitó la fabricación de varios transistores en un único sustrato de silicio. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.
Cuarta Generación (1971 a la fecha)
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleo magnético, por la de Chips de silicio y la colocación de muchos más componentes en un Chip (producto de la micro miniaturización* de los circuitos electrónicos). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (Integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Además los investigadores intentan utilizar la superconductividad (fenómeno de disminución de la resistencia eléctrica)
Memoria Rom
Memoria De Solo Lectura
La memoria de solo lectura, conocida también como ROM (acrónimo en inglés de read-only memory), es un medio de almacenamiento utilizado en ordenadores y dispositivos electrónicos, que permite solo la lectura de la información y no su escritura, independientemente de la presencia o no de una fuente de energía.
Los datos almacenados en la ROM no se pueden modificar, o al menos no de manera rápida o fácil. Se utiliza principalmente para contener el firmware (programa que está estrechamente ligado a hardware específico, y es poco probable que requiera actualizaciones frecuentes) u otro contenido vital para el funcionamiento del dispositivo, como los programas que ponen en marcha el ordenador y realizan los diagnósticos.
En su sentido más estricto, se refiere solo a máscara ROM -en inglés, MROM- (el más antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados de forma permanente, y por lo tanto, su contenido no puede ser modificado de ninguna forma. Sin embargo, las ROM más modernas, como EPROM y Flash EEPROM, efectivamente se pueden borrar y volver a programar varias veces, aún siendo descritos como "memoria de solo lectura" (ROM). La razón de que se las continúe llamando así es que el proceso de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se permite la escritura en lugares aleatorios de la memoria. A pesar de la simplicidad de la ROM, los dispositivos reprogramables son más flexibles y económicos, por lo cual las antiguas máscaras ROM no se suelen encontrar en hardware producido a partir de 2007.
Historia
El tipo más simple de ROM en estado sólido es de la misma antigüedad que la propia tecnología semiconductora. Las puertas lógicas combinacionales pueden usarse en conjunto para indexar una dirección de memoria de n bits en valores de m bits de tamaño (una tabla de consultas). Con la invención de los circuitos integrados se desarrolló la máscara ROM. La máscara ROM consistía en una cuadrícula de líneas formadas por una palabra y líneas formadas por un bit seleccionadas respectivamente a partir de cambios en el transistor. De esta manera podían representar una tabla de consultas arbitraria y un lapso de propagación deductible.
En las máscaras ROM los datos están físicamente codificados en el mismo circuito, así que solo se pueden programar durante la fabricación. Esto acarrea serias desventajas:
1. Solo es económico comprarlas en grandes cantidades, ya que el usuario contrata fundiciones para producirlas según sus necesidades.
2. El tiempo transcurrido entre completar el diseño de la máscara y recibir el resultado final es muy largo.
3. No son prácticas para I+D (Investigación y Desarrollo) por el hecho de que los desarrolladores necesitan cambiar el contenido de la memoria mientras refinan un diseño.
4. Si un producto tiene un error en la máscara, la única manera de arreglarlo es reemplazando físicamente la ROM por otra.
Los desarrollos posteriores tomaron en cuenta estas deficiencias, así pues se creó la memoria de solo lectura programable (PROM). Inventada en 1956, permitía a los usuarios modificarla solo una vez, alterando físicamente su estructura con la aplicación de pulsos de alto voltaje. Esto eliminó los problemas 1 y 2 antes mencionados, ya que una compañía podía pedir un gran lote de PROMs vacías y programarlas con el contenido necesario elegido por los diseñadores. En 1971 se desarrolló la memoria de solo lectura programable y borrable (EPROM) que permitía reiniciar su contenido exponiendo el dispositivo a fuertes rayos ultravioleta. De esta manera erradicaba el punto 3 de la anterior lista. Más tarde, en 1983, se inventó la EEPROM, resolviendo el conflicto número 4 de la lista ya que se podía reprogramar el contenido mientras proveyese un mecanismo para recibir contenido externo (por ejemplo, a través de un cable serial). En medio de la década de 1980 Toshiba inventó la memoria flash, una forma de EEPROM que permitía eliminar y reprogramar contenido en una misma operación mediante pulsos eléctricos miles de veces sin sufrir ningún daño.
Todas estas tecnologías mejoraron la versatilidad y flexibilidad de la ROM, pero lo hicieron a expensas de un alto incremento del costo por chip. Por eso las máscaras ROM se mantuvieron como la solución económica durante bastante tiempo. Esto fue así aproximadamente hasta el año 2000, cuando el precio de las memorias reprogramables hubo descendido lo suficiente como para comenzar a desplazar a las ROM no reprogramables del mercado.
El producto más reciente es la memoria NAND, otra vez desarrollada por Toshiba. Los diseñadores rompieron explícitamente con las prácticas del pasado, afirmando que enfocaba "ser un reemplazo de los discos duros", más que tener el tradicional uso de la ROM como una forma de almacenamiento primario no volátil. En 2007, NAND ha avanzado bastante en su meta, ofreciendo un rendimiento comparable al de los discos duros, una mejor tolerancia a los shocks físicos, una miniaturización extrema (como por ejemplo memorias USB y tarjetas de memoria MicroSD), y un consumo de potencia mucho más bajo.
Uso Para Almacenamiento De Software
Los ordenadores domésticos a comienzos de los años 1980 venían con todo su sistema operativo en ROM. No había otra alternativa razonable ya que las unidades de disco eran generalmente opcionales. La actualización a una nueva versión significa usar un soldador o un grupo de interruptores DIP y reemplazar el viejo chip de ROM por uno nuevo. Actualmente los sistemas operativos en general ya no van en ROM. Todavía los ordenadores pueden dejar algunos de sus programas en memoria ROM, pero incluso en este caso, es más frecuente que vaya en memoria flash. Los teléfonos móviles y los asistentes personales digitales (PDA) suelen tener programas en memoria ROM (o por lo menos en memoria flash).
Algunas de las videoconsolas que usan programas basados en la memoria ROM son la Nintendo, Súper Nintendo, Nintendo 64, Game Boy, Game Boy Advance, , Nintendo DS, Nintendo 3DS, etc. Estas memorias ROM, pegadas a cajas de plástico aptas para ser utilizadas e introducidas repetidas veces, son conocidas como cartuchos. Por extensión la palabra ROM puede referirse también a un archivo de datos que contenga una imagen del programa que se distribuye normalmente en memoria ROM, como una copia de un cartucho de videojuego.
En la actualidad se usa mucho el termino ROM principalmente en lo que se trata del sistema operativo ANDROID presente en gran variedad de teléfonos inteligentes (smart pone). En Android una ROM es un archivo que contiene todo el sistema operativo listo para instalar, o más bien ser transferido a la memoria flash del teléfono.
La cuestión es porqué se le llaman ROM a estos archivos, pues bien hace mucho tiempo, los primeros ordenadores domésticos, llevaban grabado el sistema operativo en memoria ROM, lo que quiere decir que si querías actualizar el SO tenias que desoldar la versión anterior para posteriormente soldar la nueva versión. Más tarde se crearon las memorias ROM actualizables, las cuales eran flasheables mediante maquinas especiales, en este caso quitabas el chip, lo enchufabas en la máquina y cargabas el contenido nuevo, para después volver a conectar el chip. Por último con el avance del tiempo, el coste de la fabricación de memorias flash se abarato y ya no merece la pena tener memorias de solo lectura, pero los dispositivos de almacenamiento en los que nos se suele escribir y solo son de lectura se siguen definiendo como memorias ROM, como es el caso de las BIOS de los PC o de la memoria ROM de los teléfonos, que aunque se llamen así se pueden escribir en ellas.
Entonces una ROM de ANDROID es una copia de todos los ficheros que son necesarios para ejecutar el sistema operativo y las aplicaciones que vengan integradas en este. Es donde reside tanto el kernel de linux que se ejecuta, como todos los iconos e imágenes de las aplicaciones.
Uso Para Almacenamiento De Datos
Como la ROM no puede ser modificada (al menos en la antigua versión de máscara), solo resulta apropiada para almacenar datos que no necesiten ser modificados durante la vida de este dispositivo. Con este fin, la ROM se ha utilizado en muchos ordenadores para guardar tablas de consulta, utilizadas para la evaluación de funciones matemáticas y lógicas. Esto era especialmente eficiente cuando la unidad central de procesamiento era lenta y la ROM era barata en comparación con la RAM. De hecho, una razón de que todavía se utilice la memoria ROM para almacenar datos es la velocidad, ya que los discos siguen siendo más lentos. Y lo que es aún más importante, no se puede leer un programa que es necesario para ejecutar un disco desde el propio disco. Por lo tanto, la BIOS, o el sistema de arranque oportuno del PC normalmente se encuentran en una memoria ROM.
No obstante, el uso de la ROM para almacenar grandes cantidades de datos ha ido desapareciendo casi completamente en los ordenadores de propósito general, mientras que la memoria Flash ha ido ocupando este puesto.
Velocidad
Velocidad De Lectura
Aunque la relación relativa entre las velocidades de las memorias RAM y ROM ha ido variando con el tiempo, desde el año 2007 la RAM es más rápida para la lectura que la mayoría de las ROM, razón por la cual el contenido ROM se suele traspasar normalmente a la memoria RAM, desde donde es leída cuando se utiliza.
Velocidad De Escritura
Para los tipos de ROM que puedan ser modificados eléctricamente, la velocidad de escritura siempre es mucho más lenta que la velocidad de lectura, pudiendo requerir voltaje excepcionalmente alto, movimiento de jumpers para habilitar el modo de escritura, y comandos especiales de desbloqueo. Las memorias Flash NAND logran la más alta velocidad de escritura entre todos los tipos de memoria ROM reprogramable, escribiendo grandes bloques de celdas de memoria simultáneamente, y llegando a 15 MB/s.
Glosario De Términos
Memoria De Acceso Aleatorio (Ram)
Memoria Prom
Memoria Eprom
Memoria Eeprom
Memoria Flash
Emulador
Extensible Firmware Interface (Efi)
¿Qué Es La Bios?
En computación, el sistema básico de entrada/salida (Basic Input-Output System o BIOS) es un código de interfaz que tiene las instrucciones necesarias para que la máquina comience a funcionar cuando es encendida, reconociendo y chequeando todos sus componentes; hasta que finalmente activa el sistema operativo contenido en el disco duro para después cargarlo en la RAM, mantenerlo activo en ésta y ejecutarlo. La BIOS proporciona la comunicación de bajo-nivel, operación y configuración con el hardware del sistema, que como mínimo maneja el teclado y proporciona salida básica durante el arranque del computador.
La BIOS se encuentra siempre en la memoria principal, pero no en la RAM (Random Access Memory), que no tiene la capacidad de existir sin energía, y al apagar el computador se borraría, sino que en la ROM (Read Only Memory - Memoria de Sólo Lectura), cuyo almacenamiento es permanente.
La más usada hoy en día es EPROM, a la cual podemos renovar la información, lo que nos permite actualizar su contenido, habiendo entonces distintas BIOS que aumentan la compatibilidad con el hardware que va apareciendo posteriormente a la salidad de la placa madre.
¿Cómo se ve una BIOS? ¿En qué parte física del computador va ubicada?
Una BIOS se encuentra contenida en un chip, que dependiendo de la antigüedad de la placa madre puede ser de distintos tipos:
Tenemos los chips PLCC
En 1946; el computador ENIAC, tiene como punto de memoria la utilización de válvulas electrónicas de vacío para la construcción de bi-estables.
En los inicios de los años 50 apareció el tubo de rayos catódicos con memoria de capacidad de 1200 bits se conocía como el tubo de Williams.
En 1953 aparece la memoria operativa de ferrita se utilizo hasta los años 70.
En 1968 IBM diseña la primera memoria comercial de semiconductores con capacidad de 64 bits
Los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Esa memoria requería que cada bit estuviera almacenado en un toroide de material ferromagnético de algunos milímetros de diámetro, lo que resultaba en dispositivos con una capacidad de memoria muy pequeña. Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos construidas para implementar las funciones de memoria principal con o sin acceso aleatorio.
En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1 Kilobyte, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos.
En 1973 se presentó una innovación que permitió otra miniaturización y se convirtió en estándar para las memorias DRAM: la multiplexación en tiempo de la direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4 Kb en un empaque de 16 pines, mientras sus competidores las fabricaban en el empaque DIP de 22 pines. El esquema de direccionamiento se convirtió en un estándar de facto debido a la gran popularidad que logró esta referencia de DRAM. Para finales de los 70 los integrados eran usados en la mayoría de computadores nuevos, se soldaban directamente a las placas base o se instalaban en zócalos, de manera que ocupaban un área extensa de circuito impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el impreso principal, impedía la miniaturización, entonces se idearon los primeros módulos de memoria como el SIPP, aprovechando las ventajas de la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los pines metálicos y dejando unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines.
Resumen
Para comenzar el trabajo decidimos hacer referencia acerca de la historia del computador. Es un breve resumen de cómo surgió todo esto, y de quienes fueron sus inventores.
Luego les hacemos saber algunas definiciones básicas acerca del tema en general, como por ejemplo: definición de ordenador, memoria, etc., para familiarizarnos con la terminología usada en este artículo.
Se dará también una descripción acerca de los tipos de memoria más comúnmente usados en las computadoras. Explicando brevemente su funcionamiento, velocidades de acceso y equipos en los cuales son utilizadas.
Profundizaremos en el tipo de memoria RAMBUS, por ser uno de las más actuales. La cual puede adquirir gran importancia en el mercado, debido a que cuenta con el apoyo de INTEL.
Finalmente, presentaremos las conclusiones a las cuales se ha llegado.
La Historia de las computadoras
Del ábaco a la tarjeta perforada
El Abaco
Quizá fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.
La Pascalina
El inventor y pintor Leonardo Da Vencí (1452 - 1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Balicé Pascal (1623 -1662) por fin inventó y construyó la primera sumadora mecánica. Se le llamó Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos aritméticos.
La locura de Babbage
Charles Babbage (1793 - 1871), visionario inglés y catedrático de Cambridge, hubiera podido acelerar el desarrollo de las computadoras si él y su mente inventiva hubieran nacido 100 años después. Adelantó la situación del hardware computacional al inventar la "máquina de diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en los avances de la máquina de diferencias, Babbage concibió la idea de una "máquina analítica". En esencia ésta era una computadora de propósitos generales. Conforme con su diseño, la máquina de Babbage podía sumar, substraer, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto. El diseño requería miles de engranes y mecánicos que cubrirían el área de un campo de fútbol y necesitaría accionarse por una locomotora. Los escépticos le pusieron el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en su máquina analítica hasta su muerte.
Los trazos detallados de Babbage describían las características incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica, hubiera adelantado el nacimiento de la computadora electrónica por varias décadas. Irónicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de programa de secuencia.
La primera tarjeta perforada
El telar de tejido, inventado en 1801 por el Francés Joseph Marie Jackard (1753 - 1834), usado todavía en la actualidad, se controla por medio de tarjetas perforadas. El telar de Jackard opera de la manera siguiente: las tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para indicar un diseño de tejido particular. Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que proporcionaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera programadora.
Herman Hollerit (1860 - 1929). La oficina de censos estadounidense no terminó el censo de 1880 sino hasta 1888. La dirección de oficina ya había llegado a la conclusión de que el censo de cada diez años tardaría más que los mismos 10 años para terminarlo. La oficina de censos comisionó la estadística Herman Hollerit para que aplicara su experiencia en tarjetas perforadas y llevara a cabo el censo de 1890. Con el procesamiento de las tarjetas perforadas de Hollerit, el censo se terminó en sólo 3 años y la oficina se ahorró alrededor de U$$ 5.000.000 de dólares. Así empezó el procesamiento automatizado de datos. Hollerit no tomó la idea de las tarjetas perforadas del invento de Jackard, sino de la "fotografía de perforación". Durante décadas, desde mediados de los cincuenta la tecnología de las tarjetas perforadas se perfeccionó con la implantación de más dispositivos con capacidades más complejas. Dado que cada tarjeta contenía en general un registro (Un nombre, dirección, etc.), el procesamiento de la tarjeta perforada se conoció también como procesamiento de registro unitario.
En 1946, se terminó de construir una computadora electrónica
Completamente operacional a gran escala, y se llamó ENIAC (Electronic Numerical Integrator And Computer – integrador numérico y calculador electrónico). La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses por un equipo de científicos que trabajan bajo reloj. La ENIAC, mil veces más veloz que sus predecesoras electromecánicas, irrumpió como un importante descubrimiento en la tecnología de la computación. Pesaba 30 toneladas y ocupaba un espacio de 450 metros cuadrados, llenaba un cuarto de 6m x 12m y contenía 18,000 bulbos, tenía que programarse manualmente conectándola a 3 tableros que tenían más de 6,000 interruptores. Ingresar un nuevo programa era un proceso muy tedioso que requería días o incluso semanas. A diferencia de las computadoras actuales que operan con el sistema binario (0,1) la ENIAC operaba con uno decimal (0,1,2..9). La ENIAC requería una gran cantidad de electricidad. La leyenda cuenta que la ENIAC, construida en la Universidad de Pensilvania, bajaba las luces de Filadelfia siempre que se activaba.
Generaciones de computadoras
La evolución de las computadoras, se subdividió en 4 generaciones:
Primera Generación (1951-1958)
Las computadoras de la primera generación emplearon bulbos para procesar información. Se ingresaban datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran más grandes y generaban más calor que los modelos contemporáneos. La IBM tenía el monopolio de los equipos de procesamiento de datos basándose en tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, relojes, etc.
Segunda Generación (1959-1964)
Con el invento del transistor se hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Pero su costo seguía siendo una porción significativa. Las computadoras de la Segunda Generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario.
Tercera Generación (1964-1971)
Las computadoras de la Tercera Generación emergieron con el desarrollo de los circuitos integrados, que posibilitó la fabricación de varios transistores en un único sustrato de silicio. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.
Cuarta Generación (1971 a la fecha)
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleo magnético, por la de Chips de silicio y la colocación de muchos más componentes en un Chip (producto de la micro miniaturización* de los circuitos electrónicos). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (Integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Además los investigadores intentan utilizar la superconductividad (fenómeno de disminución de la resistencia eléctrica)
Memoria Rom
Memoria De Solo Lectura
La memoria de solo lectura, conocida también como ROM (acrónimo en inglés de read-only memory), es un medio de almacenamiento utilizado en ordenadores y dispositivos electrónicos, que permite solo la lectura de la información y no su escritura, independientemente de la presencia o no de una fuente de energía.
Los datos almacenados en la ROM no se pueden modificar, o al menos no de manera rápida o fácil. Se utiliza principalmente para contener el firmware (programa que está estrechamente ligado a hardware específico, y es poco probable que requiera actualizaciones frecuentes) u otro contenido vital para el funcionamiento del dispositivo, como los programas que ponen en marcha el ordenador y realizan los diagnósticos.
En su sentido más estricto, se refiere solo a máscara ROM -en inglés, MROM- (el más antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados de forma permanente, y por lo tanto, su contenido no puede ser modificado de ninguna forma. Sin embargo, las ROM más modernas, como EPROM y Flash EEPROM, efectivamente se pueden borrar y volver a programar varias veces, aún siendo descritos como "memoria de solo lectura" (ROM). La razón de que se las continúe llamando así es que el proceso de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se permite la escritura en lugares aleatorios de la memoria. A pesar de la simplicidad de la ROM, los dispositivos reprogramables son más flexibles y económicos, por lo cual las antiguas máscaras ROM no se suelen encontrar en hardware producido a partir de 2007.
Historia
El tipo más simple de ROM en estado sólido es de la misma antigüedad que la propia tecnología semiconductora. Las puertas lógicas combinacionales pueden usarse en conjunto para indexar una dirección de memoria de n bits en valores de m bits de tamaño (una tabla de consultas). Con la invención de los circuitos integrados se desarrolló la máscara ROM. La máscara ROM consistía en una cuadrícula de líneas formadas por una palabra y líneas formadas por un bit seleccionadas respectivamente a partir de cambios en el transistor. De esta manera podían representar una tabla de consultas arbitraria y un lapso de propagación deductible.
En las máscaras ROM los datos están físicamente codificados en el mismo circuito, así que solo se pueden programar durante la fabricación. Esto acarrea serias desventajas:
1. Solo es económico comprarlas en grandes cantidades, ya que el usuario contrata fundiciones para producirlas según sus necesidades.
2. El tiempo transcurrido entre completar el diseño de la máscara y recibir el resultado final es muy largo.
3. No son prácticas para I+D (Investigación y Desarrollo) por el hecho de que los desarrolladores necesitan cambiar el contenido de la memoria mientras refinan un diseño.
4. Si un producto tiene un error en la máscara, la única manera de arreglarlo es reemplazando físicamente la ROM por otra.
Los desarrollos posteriores tomaron en cuenta estas deficiencias, así pues se creó la memoria de solo lectura programable (PROM). Inventada en 1956, permitía a los usuarios modificarla solo una vez, alterando físicamente su estructura con la aplicación de pulsos de alto voltaje. Esto eliminó los problemas 1 y 2 antes mencionados, ya que una compañía podía pedir un gran lote de PROMs vacías y programarlas con el contenido necesario elegido por los diseñadores. En 1971 se desarrolló la memoria de solo lectura programable y borrable (EPROM) que permitía reiniciar su contenido exponiendo el dispositivo a fuertes rayos ultravioleta. De esta manera erradicaba el punto 3 de la anterior lista. Más tarde, en 1983, se inventó la EEPROM, resolviendo el conflicto número 4 de la lista ya que se podía reprogramar el contenido mientras proveyese un mecanismo para recibir contenido externo (por ejemplo, a través de un cable serial). En medio de la década de 1980 Toshiba inventó la memoria flash, una forma de EEPROM que permitía eliminar y reprogramar contenido en una misma operación mediante pulsos eléctricos miles de veces sin sufrir ningún daño.
Todas estas tecnologías mejoraron la versatilidad y flexibilidad de la ROM, pero lo hicieron a expensas de un alto incremento del costo por chip. Por eso las máscaras ROM se mantuvieron como la solución económica durante bastante tiempo. Esto fue así aproximadamente hasta el año 2000, cuando el precio de las memorias reprogramables hubo descendido lo suficiente como para comenzar a desplazar a las ROM no reprogramables del mercado.
El producto más reciente es la memoria NAND, otra vez desarrollada por Toshiba. Los diseñadores rompieron explícitamente con las prácticas del pasado, afirmando que enfocaba "ser un reemplazo de los discos duros", más que tener el tradicional uso de la ROM como una forma de almacenamiento primario no volátil. En 2007, NAND ha avanzado bastante en su meta, ofreciendo un rendimiento comparable al de los discos duros, una mejor tolerancia a los shocks físicos, una miniaturización extrema (como por ejemplo memorias USB y tarjetas de memoria MicroSD), y un consumo de potencia mucho más bajo.
Uso Para Almacenamiento De Software
Los ordenadores domésticos a comienzos de los años 1980 venían con todo su sistema operativo en ROM. No había otra alternativa razonable ya que las unidades de disco eran generalmente opcionales. La actualización a una nueva versión significa usar un soldador o un grupo de interruptores DIP y reemplazar el viejo chip de ROM por uno nuevo. Actualmente los sistemas operativos en general ya no van en ROM. Todavía los ordenadores pueden dejar algunos de sus programas en memoria ROM, pero incluso en este caso, es más frecuente que vaya en memoria flash. Los teléfonos móviles y los asistentes personales digitales (PDA) suelen tener programas en memoria ROM (o por lo menos en memoria flash).
Algunas de las videoconsolas que usan programas basados en la memoria ROM son la Nintendo, Súper Nintendo, Nintendo 64, Game Boy, Game Boy Advance, , Nintendo DS, Nintendo 3DS, etc. Estas memorias ROM, pegadas a cajas de plástico aptas para ser utilizadas e introducidas repetidas veces, son conocidas como cartuchos. Por extensión la palabra ROM puede referirse también a un archivo de datos que contenga una imagen del programa que se distribuye normalmente en memoria ROM, como una copia de un cartucho de videojuego.
En la actualidad se usa mucho el termino ROM principalmente en lo que se trata del sistema operativo ANDROID presente en gran variedad de teléfonos inteligentes (smart pone). En Android una ROM es un archivo que contiene todo el sistema operativo listo para instalar, o más bien ser transferido a la memoria flash del teléfono.
La cuestión es porqué se le llaman ROM a estos archivos, pues bien hace mucho tiempo, los primeros ordenadores domésticos, llevaban grabado el sistema operativo en memoria ROM, lo que quiere decir que si querías actualizar el SO tenias que desoldar la versión anterior para posteriormente soldar la nueva versión. Más tarde se crearon las memorias ROM actualizables, las cuales eran flasheables mediante maquinas especiales, en este caso quitabas el chip, lo enchufabas en la máquina y cargabas el contenido nuevo, para después volver a conectar el chip. Por último con el avance del tiempo, el coste de la fabricación de memorias flash se abarato y ya no merece la pena tener memorias de solo lectura, pero los dispositivos de almacenamiento en los que nos se suele escribir y solo son de lectura se siguen definiendo como memorias ROM, como es el caso de las BIOS de los PC o de la memoria ROM de los teléfonos, que aunque se llamen así se pueden escribir en ellas.
Entonces una ROM de ANDROID es una copia de todos los ficheros que son necesarios para ejecutar el sistema operativo y las aplicaciones que vengan integradas en este. Es donde reside tanto el kernel de linux que se ejecuta, como todos los iconos e imágenes de las aplicaciones.
Uso Para Almacenamiento De Datos
Como la ROM no puede ser modificada (al menos en la antigua versión de máscara), solo resulta apropiada para almacenar datos que no necesiten ser modificados durante la vida de este dispositivo. Con este fin, la ROM se ha utilizado en muchos ordenadores para guardar tablas de consulta, utilizadas para la evaluación de funciones matemáticas y lógicas. Esto era especialmente eficiente cuando la unidad central de procesamiento era lenta y la ROM era barata en comparación con la RAM. De hecho, una razón de que todavía se utilice la memoria ROM para almacenar datos es la velocidad, ya que los discos siguen siendo más lentos. Y lo que es aún más importante, no se puede leer un programa que es necesario para ejecutar un disco desde el propio disco. Por lo tanto, la BIOS, o el sistema de arranque oportuno del PC normalmente se encuentran en una memoria ROM.
No obstante, el uso de la ROM para almacenar grandes cantidades de datos ha ido desapareciendo casi completamente en los ordenadores de propósito general, mientras que la memoria Flash ha ido ocupando este puesto.
Velocidad
Velocidad De Lectura
Aunque la relación relativa entre las velocidades de las memorias RAM y ROM ha ido variando con el tiempo, desde el año 2007 la RAM es más rápida para la lectura que la mayoría de las ROM, razón por la cual el contenido ROM se suele traspasar normalmente a la memoria RAM, desde donde es leída cuando se utiliza.
Velocidad De Escritura
Para los tipos de ROM que puedan ser modificados eléctricamente, la velocidad de escritura siempre es mucho más lenta que la velocidad de lectura, pudiendo requerir voltaje excepcionalmente alto, movimiento de jumpers para habilitar el modo de escritura, y comandos especiales de desbloqueo. Las memorias Flash NAND logran la más alta velocidad de escritura entre todos los tipos de memoria ROM reprogramable, escribiendo grandes bloques de celdas de memoria simultáneamente, y llegando a 15 MB/s.
Glosario De Términos
Memoria De Acceso Aleatorio (Ram)
Memoria Prom
Memoria Eprom
Memoria Eeprom
Memoria Flash
Emulador
Extensible Firmware Interface (Efi)
¿Qué Es La Bios?
En computación, el sistema básico de entrada/salida (Basic Input-Output System o BIOS) es un código de interfaz que tiene las instrucciones necesarias para que la máquina comience a funcionar cuando es encendida, reconociendo y chequeando todos sus componentes; hasta que finalmente activa el sistema operativo contenido en el disco duro para después cargarlo en la RAM, mantenerlo activo en ésta y ejecutarlo. La BIOS proporciona la comunicación de bajo-nivel, operación y configuración con el hardware del sistema, que como mínimo maneja el teclado y proporciona salida básica durante el arranque del computador.
La BIOS se encuentra siempre en la memoria principal, pero no en la RAM (Random Access Memory), que no tiene la capacidad de existir sin energía, y al apagar el computador se borraría, sino que en la ROM (Read Only Memory - Memoria de Sólo Lectura), cuyo almacenamiento es permanente.
La más usada hoy en día es EPROM, a la cual podemos renovar la información, lo que nos permite actualizar su contenido, habiendo entonces distintas BIOS que aumentan la compatibilidad con el hardware que va apareciendo posteriormente a la salidad de la placa madre.
¿Cómo se ve una BIOS? ¿En qué parte física del computador va ubicada?
Una BIOS se encuentra contenida en un chip, que dependiendo de la antigüedad de la placa madre puede ser de distintos tipos:
Tenemos los chips PLCC
EL FUEGO
¿Cómo se descubrió el fuego?
viernes, 28 de septiembre de 2012
La versión más probable, acerca de cómo se descubrió el fuego, indica que el hombre reprodujo actos propios de la naturaleza, los adaptó y posibilitó la creación de técnicas que permitieron hacerlo y mantenerlo, con el objetivo de poder cocinar alimentos, resguardarse del frío, etc. Se cree que la primera vez que el hombre vio fuego fue debido a un rayo de tormenta que incendió una superficie seca. Lo que es seguro es que el fuego se descubrió hace miles de años, por lo que no es posible sostener una única afirmación con criterio de verdad absoluta. Quizás, investigaciones futuras demuestren que el fuego surgió de otra manera completamente diferente.
Se dice que el fuego existe desde hace más de 5 millones de años. Es decir, apareció en la época en que las transformaciones de las características climáticas del planeta lo permitieron. Sin embargo, el Homo erectus solo hizo uso de la manifestación visual de la combustión hace tan solo 500.000 años atrás. Una vez que el Homo erectus conoció el fuego, fue capaz de crearlo de varias maneras, por ejemplo, frotando un palo de punta contra un tronco, raspando rápidamente dos piedras, o rozando una cuerda contra una madera.
La importancia del Homo erectus se basa en que fue el primer ser vivo capaz de producir fuego, pero también de mantenerlo. Ambas acciones son igualmente importantes, ya que si el fuego no se puede mantener y reproducir, no es útil para generar técnicas que permitan mejorar la calidad de vida.
Como ejemplo de la importancia histórica que las sociedades le han otorgado al fuego, se puede mencionar el caso de los cuidadores de fuego. En la antigüedad, el fuego, elemento sagrado de las poblaciones, era custodiado por personas específicamente entrenadas para esta tarea. Sin embargo, cuando los custodios dejaban que el fuego se extinga, eran físicamente castigados.
Todas las investigaciones realizadas y los conocimientos que se tiene sobre el fuego se basan en el descubrimiento de restos fósiles. Muchos de estos restos todavía no fueron encontrados, por lo cual, es posible que la teoría oficial sufra algunas alteraciones. Lo cierto es que el descubrimiento del fuego es uno de los factores que posibilitó el desarrollo de las sociedades. Quizás se pueda ubicar el fuego, junto con la rueda y la escritura, como las tres grandes invenciones de la humanidad.
Introducción
El fuego es uno de los experimentos más importantes en la historia y se sabe qué hace ochocientos mil años el hombre no sólo conocía el fuego sino que también tenía la capacidad de moverlo de un lado a otro, es decir, podía transportarlo.
El origen del fuego
Según investigaciones y restos arqueológicos encontrados nos indican que la especie humana homo erectus conocía el fuego desde hace 1.600.000 años.
Las evidencias nos confirman que el fuego se hizo de manera intencionada y se sabe que el primer método fue el frotamiento de un palo con madera seca.
Nos hemos encontrado también con informes que nos dicen que gracias a un rayo que cayó en un árbol el hombre se dio cuenta de la existencia del fuego.
Monografias.com
¿Cómo transportaban el fuego?
El fuego era muy útil para nuestros antepasados y tenían que transportarlo con ellos. La pregunta que todos nos hacemos es ¿cómo lo hacían? Pues se sabe que el primer método de creación del fuego era el frotar un palo con madera seca. Se cree que los transportaban mediante antorchas y lo cuidaban con la vida ya que era difícil conseguirlo de nuevo.
También podrían conseguirlo mediante erupciones volcánicas o rayos en los días que llovía y tenían que ser precisos en el tiempo que el volcán estaba en erupción o iban a tener una lluvia.
Otros métodos era el golpear dos piedras.
Monografias.com
Utilizaban las antorchas como transporte del fuego.
La utilidad del fuego
El uso del fuego se basaba principalmente en mantenerse calientes, pues las temporadas de frío de hace millones de años eran muy fuertes. Otros usos muy buenos era el cocinar, pues al cocer la carne los antepasados se daban cuenta que la carne duraba más cocida, el defenderse; cuando un animal grande quería atacar bastaba con mostrarle el fuego y era suficiente para que el animal se alejara; para hacer duros sus utensilios de pelea; con el fuego podían crear utensilios los cuales utilizaban para defenderse.
Lo bueno y lo malo del fuego
El fuego así como tener sus usos buenos también tenía cosas malas, las aldeas eran de paja y con una pequeña llama era suficiente para que las viviendas prendieran en fugo y se perdiera todo. Para ellos era tan difícil poder mantener el fuego encendido pues no sabian encenderlo y tampoco sabían que con el combustible puede mantenerse encendido. Una vez que se les apagaba el fuego tenían que esperar a que se pudiera encender naturalmente ya sea mediante un rayo.
Evolucionando con el fuego
El hombre tuvo que esperar hasta el año 1827-1832 para que la existencia de nuevas comodidades para el fuego fueran posibles así es como los fosforos. Con el transcurso del tiempo se fueron inventando las velas así como los "quinque" a los cuales se les ponia petroleo ara que el fuego se mantuviera encendido.
Tambien ha sido utilizado para encender hornos, derretir metales, hacer la comida entre muchas cosas más que son básicas para la vida de una persona en la actualidad.
QUINQUE.
Experimento
Crea fuego con una papa.
Materiales:
-una papa
-dos palillos de dientes
-algodón
-2 cables de 20 cm
-sal de mesa
-una cuchara
Procedimiento:
1.- Con un cuchillo parte la papa a la mitad, no importa si uno queda más grande que otro, solo trata que no sea mucha la diferencia.
2.- En una mitad de la papa con la cuchara saca un poco de la papa, que quede del tamaño de lo hondo de la cuchara. Pon pasta dental y sal en ese hoyo. Revuelve muy bien.
3.- En la otra mitad haz dos agujeros con el palillo de dientes.( cada agujero debe estar en una orilla de la papa, no en el centro) No dejes los palillos ashí, sacalos y tiralos.
4.-Mete ambos cables en los agujeros que hiciste en la papa que queden un poco fuera de el lado de adentro de la papa.
5.- Junta ambas papas y unelas con palillos de dientes pon uno en cada extremo de la papa.
6.- Pon un poco de algodón en alguno de los cables y espera 5 minutos para que se haga la carga.
7.- Toca cuidadosamente el algodón con el cable que dejaste solo, si tienes suerte tendrás fuego con una papa.
Si el algodón no se logro encender es poque necesitas mas carga, es recomendable que utilices sal entera en vez de la normal de cocina.
El fuego hace daño al planeta
Como ya lo sabemos el fuego también es uno de los enemigos de el planeta, ya que, por ejemplo en un bosque es muy posible de que se encienda lumbre y hacer que este bosque se queme dejando así sin fauna y flora en este habitat.
Muchas personas utilizan el fuego para quemar la basura creyendo que hacen bien ya que la basura desaparece, pero esto hace más daño que bien porque el humo que suelta contamina la atmosfera y deja entrar más fuerte los rayos del sol.
Un incendio forestal hace mucho daño al planeta, además de que acaba con la flora y la fauna todo el humo daña la atmosfera.
Como evitar un incendio en casa
-No dejes enchufes conectados, desconecta siempre los cargadores de celular, de computadoras.
-Cuando alguien arroge un cigarrillo asegurate de que lo haya apagado bien antes, tu puedes pisar el cigarrillo y así evitar un incendio
-Asegurarte de apagar la estufa.
-No dejar veladoras encendidas.
Los humanos habrían usado el fuego hace un millón de años, unos 300.000 antes de lo que se pensaba, según un estudio científico que descubrió indicios del inicio de esta actividad crucial para el hombre, en una cueva de Sudáfrica.
Se creía que los primeros signos de fuego de la historia se encontraban en restos de recipientes calcinados encontrados en Israel hace entre 700.000 y 800.000 años, según la Agencia France Press; pero el estudio ahora identifica esos signos en Sudáfrica, señaló el artículo publicado en la revista “Procedimientos de la Academia Nacional de Ciencias” de Estados Unidos.
Los científicos han encontrado fragmentos de huesos de animales quemados y herramientas de piedra que parecen datar de tiempos incluso anteriores en capas de sedimentos de la cueva de Wonderwerk, en el centronorte de Sudáfrica, donde excavaciones anteriores habían revelado importantes huellas de presencia humana.
Los investigadores encontraron “cenizas de material vegetal bien preservado y fragmentos de huesos quemados depositados in situ en superficies bien delimitadas y mezcladas con los sedimentos” en la cueva, lo que sugiere que se realizaban pequeñas hogueras cerca de la entrada, afirma el estudio.
Algunos de los fragmentos muestran evidencia de decoloración de la superficie, típica de los fuegos controlados, y no de otro tipo de fuegos naturales o de otros fenómenos similares.
“El análisis lleva el uso del fuego por los humanos a 300.000 años atrás, sugeriendo que antecesores humanos nuestros tan tempranos como el Homo erectus podrían haber utilizado fuego como parte de su vida diaria”, afirmó el antropólogo Michael Chazan, de la Universidad de Toronto y codirector del proyecto.
“El impacto de la comida cocinada está bien documentado, pero el impacto del control del fuego habría alcanzado a todos los elementos de la sociedad humana. Socializar en torno a un fuego podría ser un aspecto esencial de lo que nos convierte en humanos”, agregó Chazan.
El equipo internacional de investigadores incluye a expertos de la Universidad de Boston, la Academia de Ciencias y Humanidades de Heidelberg, Alemania, la Universidad Hebrea de Jerusalén, la Universidad de Witwatersrand en Johanesburgo y la Universidad de Toronto, en Canadá.e supone que el hombre prehistórico conoció el fuego por la erupción de un volcán, un incendio de pajonales o la caída de un rayo. El fuego fue conocido por el hombre casi 500.000 años antes de Cristo. En sus comienzos, el mayor problema era cuidar ese fuego que llevaban a las aldeas y mantenerlo encendido.
Todavía no sabían encenderlo ni alimentarlo con combustibles.Cuando entraban en posesión del fuego era probable que nuevamente lo perdieran y había que esperar que otra vez la naturaleza les brindara la oportunidad de volver a conseguirlo.
A raíz de esta necesidad, se nombraron guardianes del fuego. En Roma existió la orden sacerdotal de las vestales que cuidaban del fuego sagrado. Si una vestal dejaba apagar el fuego sagrado era sepultada viva en castigo.
Cuando el hombre prehistórico logró encender el fuego, dominó uno de los elementos que más iba a servir en el avance de la civilización.Una de las huellas que aseguran el uso del fuego en la prehistoria, data de 340.000 años antes de Cristo, fue encontrada en China, ero no se sabe con certeza si lo conservaron de la naturaleza o si lo encendieron por sí mismos.
PRIMEROS ÉXITOS: El primer método de encendido suponen que fue el del frotamiento de una punta de palo seco sobre un mismo punto de una madera seca.Otro similar consistía en frotar una liana en una ranura efectuada en la madera.El más común fue el de rotación de una punta de palo sobre una madera.También se logró encender mediante chispas producidas con piedras que contengan piritas de hierro.Además del encendido, se debió resolver el problema de dónde encender y conservar el fuego: sobre piedras, en cavernas, enterrado en un pozo, enterrado en un hueco revestido con piedras.Habría que esperar hasta 1827 (otros dan el año 1832) para lograr disponer de un invento como los fósforos, para lograr un encendido fácil.
Y el hombre, al tener el fuego, comenzó a descubrir sus posibilidades:Al mantener las fogatas, obtenían calor en los crudos inviernos.El fuego y el humo de sus fogatas le sirvieron para efectuar las primeras comunicaciones.Con teas encendidas lograban mantener alejados a los animales peligrosos.Se servían de las llamas como armas en las luchas y cacerías.Los hombres, que hasta entonces, se alimentaban de alimentos crudos, comenzaron a notar que era más cálido y reconfortante la comida cocida y caliente, en especial en los climas de frío riguroso.Cocinaban la carne de los animales que cazaban, poniéndola en una varilla paralela al fuego, apoyada sobre dos parantes verticales.También envolvían la carne en abundante barro y la colocaban en un hueco con brasas en la base y también cubierta en la parte superior por abundantes brasas.Y una tercera forma, ya utilizando recipientes, sobre el fuego, para realizar la cocción.Al prestar atención a la tierra endurecida en derredor de las fogatas, comenzó a trabajar en barro, moldear y luego mediante la cocción sobre el fuego, lograr piezas de alfarería, vasos, vasijas y recipientes, que a la vez les servían para cubrir sus necesidades (Hay muchos vestigios de vasijas realizadas en arcilla por el hombre del período mesolítico, alrededor del 8.000 antes de Cristo).
Con el transcurrir del tiempo fue logrando avances y comodidades; y utilizó el fuego para alumbrarse en las horas de oscuridad, con lámparas y velas.Y también lo usó para hacer funcionar las fraguas, los hornos, derretir metales y lograr la fabricación de diversos elementos, desde el pan de cada día, hasta las herraduras de los caballos o las fabricaciones de lozas y porcelanas, pasando por variedad de productos. lo usa para la cocción de la alimentación, la calefacción, y un sin fin de cosas cotidianas que hacen más placentera la vida.
viernes, 28 de septiembre de 2012
La versión más probable, acerca de cómo se descubrió el fuego, indica que el hombre reprodujo actos propios de la naturaleza, los adaptó y posibilitó la creación de técnicas que permitieron hacerlo y mantenerlo, con el objetivo de poder cocinar alimentos, resguardarse del frío, etc. Se cree que la primera vez que el hombre vio fuego fue debido a un rayo de tormenta que incendió una superficie seca. Lo que es seguro es que el fuego se descubrió hace miles de años, por lo que no es posible sostener una única afirmación con criterio de verdad absoluta. Quizás, investigaciones futuras demuestren que el fuego surgió de otra manera completamente diferente.
Se dice que el fuego existe desde hace más de 5 millones de años. Es decir, apareció en la época en que las transformaciones de las características climáticas del planeta lo permitieron. Sin embargo, el Homo erectus solo hizo uso de la manifestación visual de la combustión hace tan solo 500.000 años atrás. Una vez que el Homo erectus conoció el fuego, fue capaz de crearlo de varias maneras, por ejemplo, frotando un palo de punta contra un tronco, raspando rápidamente dos piedras, o rozando una cuerda contra una madera.
La importancia del Homo erectus se basa en que fue el primer ser vivo capaz de producir fuego, pero también de mantenerlo. Ambas acciones son igualmente importantes, ya que si el fuego no se puede mantener y reproducir, no es útil para generar técnicas que permitan mejorar la calidad de vida.
Como ejemplo de la importancia histórica que las sociedades le han otorgado al fuego, se puede mencionar el caso de los cuidadores de fuego. En la antigüedad, el fuego, elemento sagrado de las poblaciones, era custodiado por personas específicamente entrenadas para esta tarea. Sin embargo, cuando los custodios dejaban que el fuego se extinga, eran físicamente castigados.
Todas las investigaciones realizadas y los conocimientos que se tiene sobre el fuego se basan en el descubrimiento de restos fósiles. Muchos de estos restos todavía no fueron encontrados, por lo cual, es posible que la teoría oficial sufra algunas alteraciones. Lo cierto es que el descubrimiento del fuego es uno de los factores que posibilitó el desarrollo de las sociedades. Quizás se pueda ubicar el fuego, junto con la rueda y la escritura, como las tres grandes invenciones de la humanidad.
Introducción
El fuego es uno de los experimentos más importantes en la historia y se sabe qué hace ochocientos mil años el hombre no sólo conocía el fuego sino que también tenía la capacidad de moverlo de un lado a otro, es decir, podía transportarlo.
El origen del fuego
Según investigaciones y restos arqueológicos encontrados nos indican que la especie humana homo erectus conocía el fuego desde hace 1.600.000 años.
Las evidencias nos confirman que el fuego se hizo de manera intencionada y se sabe que el primer método fue el frotamiento de un palo con madera seca.
Nos hemos encontrado también con informes que nos dicen que gracias a un rayo que cayó en un árbol el hombre se dio cuenta de la existencia del fuego.
Monografias.com
¿Cómo transportaban el fuego?
El fuego era muy útil para nuestros antepasados y tenían que transportarlo con ellos. La pregunta que todos nos hacemos es ¿cómo lo hacían? Pues se sabe que el primer método de creación del fuego era el frotar un palo con madera seca. Se cree que los transportaban mediante antorchas y lo cuidaban con la vida ya que era difícil conseguirlo de nuevo.
También podrían conseguirlo mediante erupciones volcánicas o rayos en los días que llovía y tenían que ser precisos en el tiempo que el volcán estaba en erupción o iban a tener una lluvia.
Otros métodos era el golpear dos piedras.
Monografias.com
Utilizaban las antorchas como transporte del fuego.
La utilidad del fuego
El uso del fuego se basaba principalmente en mantenerse calientes, pues las temporadas de frío de hace millones de años eran muy fuertes. Otros usos muy buenos era el cocinar, pues al cocer la carne los antepasados se daban cuenta que la carne duraba más cocida, el defenderse; cuando un animal grande quería atacar bastaba con mostrarle el fuego y era suficiente para que el animal se alejara; para hacer duros sus utensilios de pelea; con el fuego podían crear utensilios los cuales utilizaban para defenderse.
Lo bueno y lo malo del fuego

Evolucionando con el fuego
El hombre tuvo que esperar hasta el año 1827-1832 para que la existencia de nuevas comodidades para el fuego fueran posibles así es como los fosforos. Con el transcurso del tiempo se fueron inventando las velas así como los "quinque" a los cuales se les ponia petroleo ara que el fuego se mantuviera encendido.
Tambien ha sido utilizado para encender hornos, derretir metales, hacer la comida entre muchas cosas más que son básicas para la vida de una persona en la actualidad.
QUINQUE.
Experimento
Crea fuego con una papa.
Materiales:
-una papa
-dos palillos de dientes
-algodón
-2 cables de 20 cm
-sal de mesa
-una cuchara
Procedimiento:
1.- Con un cuchillo parte la papa a la mitad, no importa si uno queda más grande que otro, solo trata que no sea mucha la diferencia.
2.- En una mitad de la papa con la cuchara saca un poco de la papa, que quede del tamaño de lo hondo de la cuchara. Pon pasta dental y sal en ese hoyo. Revuelve muy bien.
3.- En la otra mitad haz dos agujeros con el palillo de dientes.( cada agujero debe estar en una orilla de la papa, no en el centro) No dejes los palillos ashí, sacalos y tiralos.
4.-Mete ambos cables en los agujeros que hiciste en la papa que queden un poco fuera de el lado de adentro de la papa.
5.- Junta ambas papas y unelas con palillos de dientes pon uno en cada extremo de la papa.
6.- Pon un poco de algodón en alguno de los cables y espera 5 minutos para que se haga la carga.
7.- Toca cuidadosamente el algodón con el cable que dejaste solo, si tienes suerte tendrás fuego con una papa.
Si el algodón no se logro encender es poque necesitas mas carga, es recomendable que utilices sal entera en vez de la normal de cocina.
El fuego hace daño al planeta
Como ya lo sabemos el fuego también es uno de los enemigos de el planeta, ya que, por ejemplo en un bosque es muy posible de que se encienda lumbre y hacer que este bosque se queme dejando así sin fauna y flora en este habitat.
Muchas personas utilizan el fuego para quemar la basura creyendo que hacen bien ya que la basura desaparece, pero esto hace más daño que bien porque el humo que suelta contamina la atmosfera y deja entrar más fuerte los rayos del sol.
Un incendio forestal hace mucho daño al planeta, además de que acaba con la flora y la fauna todo el humo daña la atmosfera.
Como evitar un incendio en casa
-No dejes enchufes conectados, desconecta siempre los cargadores de celular, de computadoras.
-Cuando alguien arroge un cigarrillo asegurate de que lo haya apagado bien antes, tu puedes pisar el cigarrillo y así evitar un incendio
-Asegurarte de apagar la estufa.
-No dejar veladoras encendidas.
Los humanos habrían usado el fuego hace un millón de años, unos 300.000 antes de lo que se pensaba, según un estudio científico que descubrió indicios del inicio de esta actividad crucial para el hombre, en una cueva de Sudáfrica.
Se creía que los primeros signos de fuego de la historia se encontraban en restos de recipientes calcinados encontrados en Israel hace entre 700.000 y 800.000 años, según la Agencia France Press; pero el estudio ahora identifica esos signos en Sudáfrica, señaló el artículo publicado en la revista “Procedimientos de la Academia Nacional de Ciencias” de Estados Unidos.
Los científicos han encontrado fragmentos de huesos de animales quemados y herramientas de piedra que parecen datar de tiempos incluso anteriores en capas de sedimentos de la cueva de Wonderwerk, en el centronorte de Sudáfrica, donde excavaciones anteriores habían revelado importantes huellas de presencia humana.
Los investigadores encontraron “cenizas de material vegetal bien preservado y fragmentos de huesos quemados depositados in situ en superficies bien delimitadas y mezcladas con los sedimentos” en la cueva, lo que sugiere que se realizaban pequeñas hogueras cerca de la entrada, afirma el estudio.
Algunos de los fragmentos muestran evidencia de decoloración de la superficie, típica de los fuegos controlados, y no de otro tipo de fuegos naturales o de otros fenómenos similares.
“El análisis lleva el uso del fuego por los humanos a 300.000 años atrás, sugeriendo que antecesores humanos nuestros tan tempranos como el Homo erectus podrían haber utilizado fuego como parte de su vida diaria”, afirmó el antropólogo Michael Chazan, de la Universidad de Toronto y codirector del proyecto.
“El impacto de la comida cocinada está bien documentado, pero el impacto del control del fuego habría alcanzado a todos los elementos de la sociedad humana. Socializar en torno a un fuego podría ser un aspecto esencial de lo que nos convierte en humanos”, agregó Chazan.
El equipo internacional de investigadores incluye a expertos de la Universidad de Boston, la Academia de Ciencias y Humanidades de Heidelberg, Alemania, la Universidad Hebrea de Jerusalén, la Universidad de Witwatersrand en Johanesburgo y la Universidad de Toronto, en Canadá.e supone que el hombre prehistórico conoció el fuego por la erupción de un volcán, un incendio de pajonales o la caída de un rayo. El fuego fue conocido por el hombre casi 500.000 años antes de Cristo. En sus comienzos, el mayor problema era cuidar ese fuego que llevaban a las aldeas y mantenerlo encendido.
Todavía no sabían encenderlo ni alimentarlo con combustibles.Cuando entraban en posesión del fuego era probable que nuevamente lo perdieran y había que esperar que otra vez la naturaleza les brindara la oportunidad de volver a conseguirlo.
A raíz de esta necesidad, se nombraron guardianes del fuego. En Roma existió la orden sacerdotal de las vestales que cuidaban del fuego sagrado. Si una vestal dejaba apagar el fuego sagrado era sepultada viva en castigo.
Cuando el hombre prehistórico logró encender el fuego, dominó uno de los elementos que más iba a servir en el avance de la civilización.Una de las huellas que aseguran el uso del fuego en la prehistoria, data de 340.000 años antes de Cristo, fue encontrada en China, ero no se sabe con certeza si lo conservaron de la naturaleza o si lo encendieron por sí mismos.
PRIMEROS ÉXITOS: El primer método de encendido suponen que fue el del frotamiento de una punta de palo seco sobre un mismo punto de una madera seca.Otro similar consistía en frotar una liana en una ranura efectuada en la madera.El más común fue el de rotación de una punta de palo sobre una madera.También se logró encender mediante chispas producidas con piedras que contengan piritas de hierro.Además del encendido, se debió resolver el problema de dónde encender y conservar el fuego: sobre piedras, en cavernas, enterrado en un pozo, enterrado en un hueco revestido con piedras.Habría que esperar hasta 1827 (otros dan el año 1832) para lograr disponer de un invento como los fósforos, para lograr un encendido fácil.
Y el hombre, al tener el fuego, comenzó a descubrir sus posibilidades:Al mantener las fogatas, obtenían calor en los crudos inviernos.El fuego y el humo de sus fogatas le sirvieron para efectuar las primeras comunicaciones.Con teas encendidas lograban mantener alejados a los animales peligrosos.Se servían de las llamas como armas en las luchas y cacerías.Los hombres, que hasta entonces, se alimentaban de alimentos crudos, comenzaron a notar que era más cálido y reconfortante la comida cocida y caliente, en especial en los climas de frío riguroso.Cocinaban la carne de los animales que cazaban, poniéndola en una varilla paralela al fuego, apoyada sobre dos parantes verticales.También envolvían la carne en abundante barro y la colocaban en un hueco con brasas en la base y también cubierta en la parte superior por abundantes brasas.Y una tercera forma, ya utilizando recipientes, sobre el fuego, para realizar la cocción.Al prestar atención a la tierra endurecida en derredor de las fogatas, comenzó a trabajar en barro, moldear y luego mediante la cocción sobre el fuego, lograr piezas de alfarería, vasos, vasijas y recipientes, que a la vez les servían para cubrir sus necesidades (Hay muchos vestigios de vasijas realizadas en arcilla por el hombre del período mesolítico, alrededor del 8.000 antes de Cristo).
Con el transcurrir del tiempo fue logrando avances y comodidades; y utilizó el fuego para alumbrarse en las horas de oscuridad, con lámparas y velas.Y también lo usó para hacer funcionar las fraguas, los hornos, derretir metales y lograr la fabricación de diversos elementos, desde el pan de cada día, hasta las herraduras de los caballos o las fabricaciones de lozas y porcelanas, pasando por variedad de productos. lo usa para la cocción de la alimentación, la calefacción, y un sin fin de cosas cotidianas que hacen más placentera la vida.
Suscribirse a:
Entradas (Atom)