EVOLUCIÓN+HISTÓRICA


 * ~  ||= [[image:http://timerime.com/users/12109/media/old-computers.jpg width="320" height="240" align="center"]] ||

=EVOLUCION HISTORICA DEL COMPUTADOR=


 * ==VOKI DE LA EVOLUCION HISTORICA DEL COMPUTADOR==

media type="custom" key="9923083"


 * ==PRINCIPALES HECHOS HISTORICOS==



Los primeros vestigios de cálculo realizado por medios artesanalmente mecánicos, se remontan a 3000 años antes de Cristo (AC).

Los Babilonios que habitaron en la antigua Mesopotania, empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de cuentas y que eran agrupadas en carriles de caña. Más aún, en 1800 AC un matemático babilonio inventó los algoritmos que le permitieron resolver problemas de cálculo numérico.


 * Algoritmo: Es un conjunto ordenado de operaciones propias de un cálculo**.

El intercambio comercial y las conquistas bélicas entre los pueblos del mundo antiguo, permitieron que el invento de los Babilonios, se transmitiesen a otros grupos culturales a través del tiempo, permitiendo de este modo que con los aportes respectivos, se mejorasen sus diseños.


 * El Abaco.**

Fueron los egipcios quienes 500 años AC inventaron el primer dispositivo para calcular, basado en bolillas atravezadas por alambres. Posteriormente, a principios del segundo siglo DC, los chinos perfeccionaron este dispositivo, al cual le agregaron un soporte tipo bandeja, poniéndole por nombre Saun-pan. El Abaco permite realizar sumar, restar, multiplicar y dividir.

La palabra Abaco proviene del griego ABAX que significa una tabla o carpeta cubierta de polvo. Este dispositivo en la forma moderna en que la conocemos, realmente apareció en el siglo 13 DC y fué sujeto de varios cambios y evoluciones en su técnica de calcular. Actualmente está compuesto por 10 columnas con 2 bolillas en la parte superior 5 en la parte inferior.

Los Japoneses copiaron el abaco chino y lo rediseñaron totalmente a 20 columnas con 1 bolilla en la parte superior y 10 en la inferior, denominándolo Soroban Como caso anecdótico cabe relatar que en 1946, un contador japonés de nombre Kiyoshu Matzukai, quien era un experto en el uso del Abaco, se enfrentó en un concurso contra una computadora de la época durante dos dias completos, resultando como ganador indiscutible el ciudadano japonés. Actualmente el antiguo abaco se emplea como método de enseñanza en las escuelas de los paises orientales, aunque es usado regularmente en muchos de lugares del mundo, particularmente en los pequeños negocios de los barrios chinos (Chinatowns) en los Estados Unidos de América y Canadá. Transcurrirían muchísimos siglos antes de que se ocurriera una innovación trascedental y ello sucedió entre los siglos VII y IX, cuando surgiera el sistema numérico arábigo, el mismo que empezó a difundirse lenta pero exitosamente en toda Europa.


 * SIGLOS XIV AL XIX EPOCA DE GRANDES INVENTOS**

Trancurrieron 1300 años antes de que se inventase algún dispositivo vinculado al cálculo y es sólo entre los siglos XIV al XIX que se suceden una serie de eventos e importantes aportes:


 * Jonh Napier (1550-1617) Inventor de los Logaritmos:**



En 1550, en el pequeño pueblo de Tower of Merchiston, Inglaterra nace John Napier, considerado como uno de los estudiosos matemáticos más destacados de la historia universal, catalogado con Arquímedes, Isaac Newton o Albert Einsten. A la temprana edad de 13 años ingresó al Saint Salvador College, donde estudió por espacio de 2 años. Luego viajó por toda Europa, principalmente a Francia y Holanda donde continuó sus estudios e investigaciones entre 1566 y 1571. En vida recibió honrosamente el seudónimo de "la maravilla de Merchiston", debido a su reconocida genialidad y visión imaginativa en diversos campos. La principal contribución de John Napier, es sin lugar a dudas la invención de los logaritmos, que son un exponente al cual hay que elevar un número o base para que iguale a un número dado.

Con relación al cálculo publicó una obra titulada RABDOLOGIAE, que era un pequeño tratado sobre la forma de ejecutar multiplicaciones. En su apéndice explicaba un método para multiplicar y dividir usando varillas y placas metálicas que puesto en la práctica se convirtió en la precursora de las modernas calculadoras de bolsillo de hoy en dia, pese a que este rústico sistema era inseguro debido a que las varillas no podían ser manejadas con versatibilidad. Este invento irónicamente conocido como los huesos de Napier. Abundan las historias sobre sus experimentos sobrenaturales y hay evidencias de que practicaba la adivinación. Su vida estuvo rodeada de misterio y falleció en Abril de 1617. Merchiston, el lugar de su nacimiento es ahora el centro de la famosa Universidad de Napier**.**


 * Blaise Pascal (1623-1662) La Pascalina:**



Nació en Clermont Ferrand, Francia, el 19 de Junio de 1623. Hijo de un recaudador de impuestos y miembro de la alta burguesía, el jóven Blaise Pascal no tuvo una instrucción formal y fue educado por su padre. Su juventud transcurrió entre los salones de la nobleza y los círculos científicos de la sociedad francesa de la época. Cuando apenas contaba con 19 años Blaise Pascal empezó a construir una complicada máquina de sumar y restar, la cual fue concluida 3 años más tarde. En 1649 gracias a un decreto real obtuvo el monopolio para la fabricación y producción de su máquina de calcular conocida como la PASCALINA que realizaba operaciones de hasta 8 dígitos.

En 1646 Blaise Pascal empezó sus experimentos barométricos, los cuales continuó durante 8 años. En 1654 completó un trabajo dedicado a las leyes de la hidrostática y a la demostración y descripción de los efectos del peso del aire. Terminado estos experimentos realizó estudios de aritmética, destacando en el análisis y cálculo de probabilidades. Blaise Pascal inventó la prensa hidráulica y es considerado el padre y creador de la HIDROSTATICA. Este jóven científico falleció en 1662 en la ciudad de París a la temprana edad de 39 años.


 * Gottfried Wilhelm Leibniz (1646-1716) Inventor del Sistema Binario:**



Gottfried Leibniz nació el 1o de Julio de 1646 en Leipzig, Alemania. Realizó estudios de Leyes en la universidad de su ciudad natal y en 1675 estableció los fundamentos para el cálculo integral y diferencial. En 1676 publicó su Nuevo Método para lo Máximo y Mínimo, una exposición de cálculo diferencial. Fué filósofo, matemático y logístico. En 1670, Leibniz mejora la máquina inventada por Blaise Pascal, al agregarle capacidades de multiplicación, división y raíz cúbica. En 1979 crea y presenta el modo aritmético binario, basado en ceros y unos, lo cual serviría unos siglos más tarde para estandarizar la simbología utilizada para procesar la información en las computadoras modernas.


 * Charles Babbage (1792-1871) La máquina diferencial y la analítica**



Charles Babbage nació el 26 de Diciembre de 1792 en Londres, algunos afirman que fue en 1971, y era hijo de un rico banquero inglés. Desde muy jóven se inclinó por los estudios de matemáticas y fue su propio instructor de Algebra, de cuyos estudios e investigación fue un terrible apasionado. Después de ingresar al Trinity College de Cambridge, en 1811, descubrió que estaba mucho más adelantado en sus conocimientos de matemáticas que sus propios tutores. Conjuntamente con Hershel, Peacock y otros fundó la Sociedad Analítica con el objeto de promover las matemáticas continentales. En 1816 fue elegido miembro de la Royal Society y fue uno de los promotores de la formación de la Sociedad Real de Astronomía, fundada en 1820.

A partir de 1820, Charles Babbage despertó un enorme interés sobre las máquinas de calcular. Con la ayuda de la condesa Ada Byron, hija del poeta Lord Byron, desarrolla el concepto de 2 calculadoras mecánicas o máquinas de números. La primera de ellas, llamada la Máquina Diferencial era un dispositivo de 6 dígitos que resolvía ecuaciones polinómicas por el método diferencial. La segunda, denominada Máquina Analítica, que tampoco fue terminada, fué diseñada como un dispositivo de cómputo general.



Ambos equipos eran totalmente mecánicos, usaban ejes, engranajes y poleas para poder ejecutar los cálculos. Por este motivo los diseños funcionaban en teoría pero en la práctica las maquinarias y herramientas de fabricación de la época eran imprecisas y no pudieron construir las piezas con la necesaria exactitud.


 * Dispositivo de Entrada de la Información:** Tarjetas metálicas perforadas en miles de combinaciones.
 * Procesador**: Dispositivo con cientos de ejes verticales y miles de piñones.
 * Unidad de Control**: Dispositivo en forma de barril con filamentos y ejes (como cuerdas de piano).
 * Dispositivo de Salida**: Plantillas diseñadas para ser utilizadas en una prensa de imprenta.



En lo que respecta a Babbage y Ada Byron sus proyectos quedaron frustrados. Sin embargo, los planos y modelos de ambas máquinas sirvieron como puntos referenciales de muchos de los conceptos de computación aplicados hoy en día y para muchos, Charles Babbage es considerado el padre de las computadoras. A pesar de sus muchos logros y aportes a la ciencia, a través de su vida, la frustración de no poder llegar a construir exitosamente sus máquinas de calcular, principlamente por la falta de apoyo del gobierno, convirtió a Babagge en un hombre resentido y amargado hasta el dia de su muerte ocurrida en Londres el 18 de Octubre de 1871.


 * La Condesa Ada Byron (1815-1851) La Primera Programadora de la Historia:**



Augusta Ada Byron, también llamada Lady Lovelace, fué uno de los personajes más pintorescos de la historia de la computación. Nació en Londres, el 10 de Diciembre de 1815 siendo hija del ilustre poeta inglés Lord Byron. Apenas 5 semanas después de nacida su madre Lady Byron, se separó de su esposo y obtuvo la custodia de su hija, encargándose de su crianza y educación por cuanto a ella le aterrorizaba la idea de que su hija acabase convirtiéndose en un poeta como su padre. Lady Lovelace tuvo vocaciones de analista y metafísica y a los 17 años influenciada por Mary Somerville realizó sus estudios de matemáticas. Fue en una cena que escuchó y se interesó sobre las ideas de Charles Babbage acerca de una nueva máquina de calcular. Ella intuyó que un proyecto de esa envergadura podría convertirse en una realidad y fue una de las pocas personas que creyó en la "universabilidad de las ideas", preconizada por Charles Babbage y decidió colaborar con él.

Ada Byron, es considerada la primera programadora de la era de la computación, ya que fué ella quien se hizo cargo del análisis y desarrollo de todo el trabajo del inventor y la programación de los cálculos a procesarse. De quebrantable salud y muy enfermiza, al igual que su padre, Lord Byron, Lady Lovelace falleció siendo muy jóven, a la edad de 36 años. En la década de los 80 el Departamento de Defensa de los Estados Unidos de América desarrolló un lenguaje de programación en honor a la condesa, al cual nombró ADA.


 * Joseph Marie Jacquard (1752 - 1834) Las Plantillas Perforadas:**



Nació el 7de Julio de 1752 en la ciudad de Lyon, Francia, y aunque fué hijo de un modesto obrero textil tuvo grandes aspiraciones para su futuro. En 1801 y ya convertido en inventor e industrial textil Joseph Marie Jacquard dio un fundamental aporte al proceso de las máquinas programables al modificar una maquinaria textil, inventada por Vaucanson, a la cual implementó un sistema de plantillas o moldes metálicos perforados, unidas por correas, que permitían programar las puntadas del tejido logrando obtener una diversidad de tramas y figuras.



Fue tan grande el interés despertado por el invento de Jacquard, que el propio Napoleón Bonaparte se quedó muy asombrado cuando en 1805 asistió a una exibición industrial celebrado en Lyon, para posteriormente condecorarlo con la medalla de La Legión de Honor y un premio de 50 francos por cada Telar que fuese comercializado durante el período de 6 años. A partir del invento de Jacquard empezaron a proliferar, poniéndose muy de moda las máquinas y equipos programados por sistemas perforados, tales como los pianos mecánicos, conocidos como pianolas, muñecos y otros novedosos juguetes mecánicos.


 * Herman Hollerith (1860-1929) El Censo de 1890 en los Estados Unidos:**



Nacido en Buffalo, New York, el 29 de Febrero de 1860 e hijo de unos inmigrantes alemanes realizó estudios en el City College de New York a la edad de 15 años y se graduó de Ingeniero de Minas, con altas distinciones, en la Columbia School of Mines, a la edad de 19 años. Su primer empleo lo obtuvo en la Oficina de Censos en 1880. Posteriormente enseñó ingeniería mecánica en el Instituto Tecnológico de Massashusetts (MIT) y luego trabajó para la Oficina de Patentes del gobierno norteamericano.

Hollerith empezó a trabajar con el sistema de máquinas tabuladoras durante sus dias en el MIT, logrando su primera patente en 1884. Desarrolló una prensa manual que detectaba los orificios en las tarjetas perforadas, tenía un alambre que pasaba a través de los huecos dentro de una copa de mercurio debajo de la tarjeta, cerrando de este modo el circuito eléctrico. Este proceso disparaba unos contadores mecánicos y ordenaba los recipientes de las tarjetas, tabulando así en forma apropiada la información.

En 1880 se celebró un censo de población nacional en los Estados Unidos y tuvieron que transcurrir 7 largos años antes de que toda la información quedase procesada por el Buró de Censos, debido a que los datos levantados eran tabulados en papel. Por consiguiente se estimó que el próximo censo a celebrarse en 1890 tardaría unos 10 o 12 años en procesarse y poder obtener los resultados finales. Es por ello que el gobierno norteamericano convocó a una licitación para un sistema de procesamiento de datos que proporcionase resultados más rápidos. Herman Hollerith, que trabajaba como empleado del buró de Censos, propuso su sistema basado en tarjetas perforadas que si bien esto no era una invención, puesto en práctica constituyó el primer intento exitoso de automatizar el procesamiento de ingentes volúmenes de información.



Las máquinas de Hollerith clasificaron, ordenaban y enumeraban las tarjetas perforadas que contenían los datos de las personas censadas, logrando una rápida emisión de reportes, a partir de los 6 meses. Los resultados finales del censo de 1890 se obtuvieron en el tiempo record de 2 años y medio. Herman Hollerith en 1896 fundó la TABULATING MACHINE COMPANY que luego se convirtió en la Computer Tabulating Machine (CTR). Hollerith se retiró en 1921 y en 1924 CTR cambió su nombre por el de International Business Machines Corporation (IBM), que años más tarde se convertiría en el gigante de la computación. Herman Hollerith falleció el 17 de Noviembre de 1929.


 * ==**PRINCIPALES PERSONAJES RELACIONADOS AL NACIMIENTO DE LAS COMPUTADORAS**==



Atanasoff Y Berry



Blaise Pascal



Jonh Napier

Charles Babagge

Gottfried Wihelm Leibniz

Konrad Zuse

Herman Hollerith

Joseph Marie Jacquard

Ada Byron

J. Presper Eckert y John W. Mauchly

John Von Neuman Howard H. Aiken Alan Mathison Turing Entre otros.


 * ==**EVOLUCIÓN ELECTRONICA**==

El desarrollo de la electrónica se produjo a partir de los inicios del siglo XCX, como consecuencia del núcleo de conocimientos acumulados sobre la electricidad en las décadas procedentes. Así, Thomas Alva Edison había observado, mientras ensayaba sus lámparas eléctricas incandescentes, un ennegrecimiento en su interior motivado por la emisión de electrones por efecto del calor. El fenómeno, no aprovechado prácticamente por Edison, recibió, no obstante, el nombre del investigador estadounidense.

Posteriormente se confirmó que la electricidad se puede propagar a un en ausencia de un medio material transmisor. Estos acontecimientos confluyeron en los trabajos del ingeniero inglés John Ambrose Fleming, quien ideo una aplicación práctica del efecto Edison para la recepción de ondas de radio. Al calentar el polo negativo de un tubo vacío alimentando por una batería se estableció una corriente continua de electrones hacia el polo positivo, mientras que al cambiar la polaridad no se producía corriente. El dispositivo resultante, que solo permitía el paso de la corriente eléctrica en uno de los sentidos, recibió el nombre de válvula o diodo, mejorando posteriormente con la incorporación de un tercer electrodo que dio lugar a los tríodos. Estas lámparas, unidas a todos los demás tipos de tubos y válvulas de vacío, constituyeron los fundamentos de la moderna técnica electrónica.

La industria electrónica experimento un importante desarrollo a partir de la segunda guerra mundial. En 1948, la invención del transistor componente constituido por un semiconductor que actúa al amplificar, modular y detectar oscilaciones eléctricas dotó a este sector de un artificio que sustituyo a la válvula o bulbo y permitió la fabricación de sistemas complejos, fundamento de las computadoras. El tamaño de los circuitos se redujo considerablemente y aun mayor fue esta disminución tras la aparición en la década de 1970 de los circuitos integrados, formados por elementos fijos.

** Génesis **

Se inicia con los trabajos de varios destacados físicos, tales como Coulomb, Ampère, Gauss, Faraday, Henry y Maxwell. Estos trabajos quedaron recogidos, en 1865, en el marco formal de la teoría del electromagnetismo, formulada por Maxwell (deducida de las ecuaciones que llevan su nombre); teoría que, sin embargo, debió esperar hasta 1888 para su demostración.

La mencionada demostración la realizó Hertz con la generación, en el laboratorio, de ondas electromagnéticas. Más tarde, en 1896, Marconi logró transmitir y detectar estas ondas (llamadas hertzianas) y abrió el camino a posteriores avances tan importantes como la televisión y las telecomunicaciones.

El nacimiento de la electrónica, como rama de la ciencia, puede situarse en 1895, año en el que Lorentz postuló la existencia de partículas cargadas llamadas electrones, lo cual fue demostrado, experimentalmente, por Thomson dos años más tarde.Braun, en 1897, hizo pública su invención del primer tubo electrónico, rudimentario antecesor de los tubos de rayos catódicos que forman parte de los televisores.

** Las Válvulas **

La electrónica no asumió las connotaciones tecnológicas que la caracterizan hasta los inicios del siglo XX, con la invención de los primeros componentes y, en particular en 1904, con la creación de la válvula termoiónica o diodo, por parte del físico británico John Ambrose Fleming.

El diodo está compuesto esencialmente por dos electrodos metálicos contenidos en un tubo vacío, uno de los cuales (el cátodo) es calentado por un filamento. Debido a este calentamiento, el cátodo emite electrones (efecto termoiónico), que son acelerados hacia el otro electrodo (el ánodo) cuando este último se mantiene positivo respecto al cátodo. De tal forma que, intercalado en un circuito, el diodo muestra la importante propiedad de conducir corriente únicamente cuando la tensión que se le aplica tiene un determinado sentido. De esta manera, permite la rectificación de una corriente alterna.

La corriente que se obtiene conectando un electrodoméstico a una de las tomas que hay en las paredes de las casas (corriente de red), tiene la característica de invertir continuamente el sentido con que circula por un circuito, y por tanto se llama corriente alterna (la corriente de red es alterna debido a la técnica de su producción, lo cual no compete a la electrónica. De todas maneras, en muchos casos, es necesario disponer de una corriente continua; es decir, que nunca invierta su sentido de circulación. Para esto se emplean unos determinados dispositivos que rectifican la corriente, transformándola de alterna a continua.

En 1905, el físico estadounidense Lee De Forest, perfeccionando el invento de Fleming, creó el triodo. El aporte de Forest consistió en la introducción de un tercer elemento (la rejilla), cerca del cátodo. La proximidad entre el cátodo y la rejilla hace que, si a esta última se le aplica una pequeña tensión, influya sustancialmente sobre el flujo de electrones en el interior del tubo. Por tanto, el triodo actúa como amplificador (el nombre de audión, que originalmente dio De Forest a su invento, traduce el intento de aplicar esta característica a las señales de sonido).El invento de los dispositivos mencionados proporcionó la base tecnológica para el rápido desarrollo de las radiocomunicaciones. Para 1912 en los Estados Unidos se constituyó una asociación de radiotécnicos. Allí mismo también se construyó, en 1920, la primera emisora de radio comercial.

En las décadas de 1920 y 1930 se introdujeron mejoras a los tubos electrónicos originarios (que culminaron con la introducción del pentodo), aumentando su flexibilidad y su campo de aplicaciones. Entre otras cosas, se hizo posible la invención de la televisión (1930) y de la radio de modulación de frecuencia (1933).Los tubos de vacío dieron paso a una importante aplicación, como fue la realización de los primeros calculadores electrónicos en los años siguientes de la Segunda Guerra Mundial. Mientras tanto, físicos como Block, Schottky, Sommerfeld, Winger y otros realizaban excelentes progresos en el estudio de una importante clase de sustancias sólidas: los semiconductores.

En 1945 se creó un grupo de trabajo, compuesto por físicos teóricos y experimentales, un químico y un ingeniero electrónico, en los Bell Telephone Laboratories, para encontrar una alternativa al empleo de los tubos electrónicos en las telecomunicaciones. Ciertamente los tubos presentan inconvenientes, entre los cuales se cuenta una escasa fiabilidad debida a sus elevadas temperaturas de funcionamiento. En 1947 los físicos John Bardeen, Walter Brattain y William Schockley obtuvieron un efecto de amplificación en un dispositivo compuesto por dos sondas de oro prensadas sobre un cristal de germanio (un semiconductor): nacía así el transistor, que actualmente es el elemento fundamental de todo dispositivo electrónico (en 1965 estos físicos recibieron el Premio Nóbel).Más tarde, el primer ejemplar fue perfeccionado por Schockley con la introducción del transistor de unión, totalmente de material semiconductor, gracias a los progresos efectuados por los laboratorios Bell en la obtención de materiales de base (germanio y silicio) con un elevado grado de pureza.

La comercialización del transistor en 1951 sentó las bases para el desarrollo cualitativo y cuantitativo de la tecnología electrónica en la segunda mitad del siglo. El transistor proporcionó las mismas funcionalidades del tríodo, siendo más pequeño, eficiente, fiable, económico y duradero. Esto permitió la existencia de una gama de aplicaciones antes impensables y la reducción de costos y del tamaño de los dispositivos electrónicos de uso común (radio, televisión, etc.), abriéndose así el camino hacia el fenómeno de la electrónica de consumo.La aparición del transistor también proporcionó un gran impulso al desarrollo de los ordenadores. En 1959 la IBM presentó el primer ordenador (el 7090) de estado sólido, es decir, con transistores.

En la actualidad, los componentes con semiconductor como el transistor, han sustituido casi por completo a los tubos de vacío. Estos últimos únicamente se emplean en algunas aplicaciones particulares, en las que hacen parte microondas, o con tensiones de funcionamiento muy altas.

** Los Circuitos Integrados **

Una tercera parte de la evolución de la electrónica se abrió a finales de los años cincuenta con la introducción del circuito integrado por parte de Kilby, de la Texas Instrument, y de Noyce y Moore, de la Fairchild Semiconductor Company. La idea fue incluir un circuito completo en una sola pastilla de semiconductor: el Chip, y hacer de las conexiones entre los dispositivos parte integrante de su proceso de producción, reduciendo así las dimensiones, peso y el costo con relación al número de elementos activos.

El desarrollo de la microelectrónica, como se denomina la electrónica de los circuitos integrados es impresionante. A partir de su comercialización (1961), el número máximo de componentes integrados en un chip se duplicó cada año desde los 100 iniciales. En la segunda mitad de los años setenta, al introducirse la integración a gran escala (VLSI) y superar los 10.000 componentes, se ingresó en la época actual, en la que es normal encontrar varios millones de componentes integrados en un chip muy pequeño, por ejemplo en los microprocesadores de los ordenadores personales.


 * ==**LAS GENERACIONES DE COMPUTADORAS**==

** Generación Cero (1942 - 1945) **

Aparecieron los primeros ordenadores analógicos: comenzaron a construirse a principios del siglo XX los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se calculaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros metodos. La generación cero que abarcó la década de la segunda guerra mundial un equipo de científicos y matemáticos crearon lo que se considera el primer ordenador digital totalmente eléctrico: EL COLOSSUS, este incorporaba 1500 válvulas o tubos de vacío y era ya operativo. Fue utilizado por el equipo dirigido por Alan Turíng para decodificar los mensajes de radio cifrado de los Alemanes.

** Primera Generación (1951 a 1958) **

Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en codigo especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura-escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calculos que los modelos contemporáneos. Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950. Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero buen comienzo la IBM 701 se convirtió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en Estados Unidos de Norte América de hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.

** Segunda Generación (1959-1964) **

El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones. Los programas de computadoras también mejoraron. El COBOL (Common Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de los mas grandes avances en cuanto a portabilidad de programas entre diferentes computadoras; es decir, es uno de los primeros programas que se pueden ejecutar en diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 había inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), que se encargo de desarrollar el proyecto COBOL El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general, las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nomina y contabilidad.



La marina de Estados Unidos de Norte América utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los años sesenta (60) se conocieron como el grupo BUNCH. Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporatión con su conocido modelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento. En esta generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).

** Tercera Generación (1964-1971) **

Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Mini-computadora. Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura, las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.

El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras. Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matematicas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.

La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnologia SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de 30000, al grado que IBM llegó a conocerse como sinónimo de computación. También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3.000.000 de instrucciones por segundo (mips). Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación). Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation (DEC) redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron sumador auge entre 1960 y 70.

** Cuarta Generación (1971 a 1981) **

Microprocesador, Chips de Memória, Microminiaturización. Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesa dor y de chips hizo posible la creación de las computadoras personales (PC). En 1971, intel Corporation, que era una pequeña compañía fabricante de semi-conductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador fue bautizado como el 4004.

Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes. Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet.

Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Bus íness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer, de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (Microsoft Disk Operating System).

** Las Principales Tecnologías que Dominan este Mercado son: ** IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente.

Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse ) sobre uno de los iconos o menús.


 * ==**LA QUINTA Y SEXTA GENERACIÓN (ÚLTIMOS VANCES DE LA TECNOLOGÍA, LA INTELIGENCIA ARTIFICIAL, LA ROBOTICA)**==

** Quinta Generación y la Inteligencia Artificial (1982-1989) **

Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.

Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras. Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software ) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras. Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.

El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen. También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador. Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.

El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido ; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration). Sin embargo, independientemente de estos milagros de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial. El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.


 * Inteligencia Artificial**

El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.

La inteligencia artificial es el campo de estudio que trata de aplicar los procesos del pensamiento humano usados en la solución de problemas a la computadora.


 * La Robótica**

La robótica es el arte y ciencia de la creación y empleo de robots. Un robot es un sistema de computación híbrido independiente que realiza actividades físicas y de cálculo. Están siendo diseñados con inteligencia artificial, para que puedan responder de manera más efectiva a situaciones no estructuradas.


 * Sistemas Expertos**

Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas. Ejemplos de sistemas expertos: -Diagnósticos médicos -Reparación de equipos -Análisis de inversiones -Planeamiento financiero -Elección de rutas para vehículos -Ofertas de contrato -Asesoramiento para clientes de autoservicio -Control de producción y entrenamiento.


 * Redes de Comunicaciones**

Los canales de comunicaciones que interconectan terminales y computadoras se conocen como redes de comunicaciones; todo el hardware que soporta las interconexiones y todo el software que administra la transmisión. Ejemplos de redes de comunicaciones: LAN - Local Area Network BBN - Back Bone Network MAN - Metropolitan Area Network WAN - Wide Area Network.

** Sexta Generación 1990 Hasta la Fecha **

La sexta generación de computadoras está en marcha desde principios de los años noventas. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo/Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.


 * == PRINCIPALES APLICACIONES DE LAS COMPUTADORAS EN LA ACTUALIDAD.﻿ ==


 * Transputer**

El transputer parece ser el primer componente electrónico que permitiría a las máquinas lograr el ansiado paralelismo masivo en sus operaciones. Equivaldría a lo que es actualmente el transistor para las máquinas electrónicas en general, o sea un componente básico que puede ser fabricado en forma masiva y económica. El primero fue creado por la firma inglesia Inmos y presentado en la Feria Internacional de Componentes de 1983 en París.

Cada transputer reúne en un mismo chip varias unidades de cálculo, una memoria (2Kb en el primer modelo fabricado) y mútiples conexiones que permiten un intercambio rápido con otros transputers (4 en el primer modelo) y que pueden operar todos en forma simultánea. Se obtuvo así una velocidad secuencial de 10 Mips (diez millones de instrucciones por segundo), ampliamente sobrepasada en los modelos subsiguientes.



Para su uso ha sido construído especialmente un lenguaje de alto nivel orientado al aprovechamiento del paralelismo, el OCCAM, aunque puede ser programado como un procesador normal con lenguajes existentes (Pascal, Fortran, C, Prolog, etc.). El concepto de base del Occam y del procesamiento mediante transputers consiste en considerar entidades que intercambian información con su entorno, formado de otras entidades del mismo tipo, a través de canales unidireccionales que las unen 2 a 2. Estas entidades pueden ser conjuntos de instrucciones, procesos o representaciones de procesos, pudiendo constituirse diversos niveles de complejidad en forma modular.


 * Computador Celular**

El computador celular se basa en la idea de los mecanismos de reproducción de las células vivas. Fue concebido por John von Neumann, al igual que la estructura de los computadores actuales, y perfeccionado por Edgar Codd y Christopher Langton. Para entender su estructura y funcionamiento, conviene imaginar una hoja cuadriculada donde cada pequeño cuadro corresponde a una mínima máquina procesadora (célula) que se informa del estado de sus vecinas y reacciona de acuerdo a esta información. Todas las células son estructuralmente idénticas y operan de la misma manera.

Para operar, se fija el estado inicial de cada célula (de entre un número a determinar) y se determina una "regla de transición" común para todas. Luego se pone en marcho un reloj que sincroniza los cambios de estado: a cada "top" del reloj, todas las células cambian de estado conforme al estado de sus vecinas. Una de las características de este tipo de estructura y modo de operación es la posibilidad de diseñar configuraciones iniciales que se autorreproducen (de ahí el nombre de "autómatas autorreproductores" que se da también a esta arquitectura) o reglas que lleven a la reproducción del diseño original, lo cual constituye un instrumento de alta importancia en física teórica y modelización matemática.

El primer circuito simulador de autómata celular fue construído en 1981 en el MIT (Instituto Tecnológico de Massachusetts). Su versión comercial puede ser conectada a un IBM-PC, dándole la potencia de un supercomputador. En 1985 se inició la comercialización de un chip de arquitectura celular (el "GAPP") que contenía 72 procesadores (células). Todos ellos reciben y ejecutan simultáneamente una instrucción recibida de un controlador externo, pero modifican su estado en función del estado de sus 4 vecinos inmediatos.


 * MaRS**

Una vía de desarrollo diferente es la de las MAQUINAS DE REDUCCION SIMBOLICA (MaRS), cuyos procesadores en vez de estar basados en el procesamiento numérico están diseñados para manipular símbolos (como nombres de objetos o conceptos) y relaciones entre símbolos. Responden en forma directa a las exigencias de la inteligencia artificial y están destinadas a facilitar el procesamiento de conocimientos.



Como lo hemos señalado, los computadores actuales son en esencia máquinas destinadas al cálculo (matemático y lógico). Su capacidad en el campo de la lógica booleana permite aplicaciones no matemáticas pero no se logran resultados tan buenos (rápidos) como con números, debido a su complejidad. Las máquinas de reducción están diseñadas para procesar más eficientemente programas funcionales o declarativos como los escritos en lenguaje Lisp o Prolog.

El procesamiento simbólico se caracteriza por una gran variabilidad en la organización de los datos y en una baja previsibilidad del comportamiento de un programa. Se requiere un muy alto dinamismo en el uso de la memoria durante los procesos. Se descubrió que los principios de la lógica combinatoria permiten resolver a la vez este problema y facilitar la ejecución de programas funcionales. Se puede entender la "reducción simbólica" como el mecanismo por el cual se reemplaza una fórmula por su resultado, una vez calculado. La ejecución de un programa en una máquina MaRS sigue este principio con facilidad por cuanto su procesador funciona sobre la base de operadores combinatorios. Y es muy fácil recortar un programa en "trozos", reducidos simultáneamente por procesadores paralelos, lo cual permite acelerar aún más el procesamiento.

La fabricación de un prototipo estaba prevista para 1989. Quedan por hacerse muchas pruebas y estudiar las posibilidades de sistemas modulares complejos (con varios núcleos MaRS entrelazados). Pero se ha descubierto desde entonces que aún tenemos que aprender mucho acerca de cómo programar en forma simbólica.


 * Máquina Neuronal**

La arquitectura neuronal intenta imitar de más cerca la estructura del cerebro y su forma de operar. Una máquina neuronal, se compone de elementos equivalentes a las neuronas y que imitan sus conexiones en r ed. En cuanto a la forma de operar, imita el proceso de aprendizaje relacionado con el cambio de estado de las conexiones entre las neuronas. De este modo, una máquina neuronal no se programa en la forma tradicional, sino que se ajusta progresivamente en función del uso (proceso de aprendizaje).

La compañía Fujitsu fabricó en 1988 el primer chip neuronal, con 32 neuronas (1024 conexiones). Por su parte, la Universidad de California (San Diego) anunció la fabricación de un prototipo electroóptico, mientas los laboratorios Bell, de la ATT, anunciaron un circuito con 256 neuronas y hasta 32.000 sinapsis. Un típico procesamiento y aprendizaje neuronal consiste en introducir repetidamente un texto a través de un scanner, hasta que la máquina sea capaz de reconocer todas las letras, incluso cuando algunas de ellas no son perfectamente nítidas (traduciendo así una imagen en una secuencia de caracteres de texto, en forma mucho más eficiente y exacta que con un computador tradicional).


 * Nuevos Componentes**

La miniaturización de los componentes electrónicos ha permitido aumentar la velocidad de operación al acortar las distancias. Pero está llegando a un punto (el nivel molecular) en que ya no es posible aumentar la velocidad por la vía de la miniaturización.


 * Computador Óptico**

Para evitar las dificultades que presentan los microcircuitos electrónicos hay un camino obvio: abandonar la electrónica. La luz (fotones) se desplaza mucho más rápido que los pulsos eléctricos (electrones), sin peligros de interferencia y sin necesidad de conductos aislantes (lo cual facilita los procesos paralelos). Así, la superioridad de la óptica es indiscutible. Por ello se han realizado ingentes esfuerzos para construir componentes que cumplieran las mismas funciones que los dispositivos que permiten el procesamiento electrónico, utilizando nuevos materiales que reaccionan de diversas maneras según la intensidad de luz que los afecte. Han sido pioneros Gibbs, MacCall y Venkatesan, de los laboratorios Bell (logrando construir el primer componente de funcionamiento binario o biestable óptico en 1976). Se espera contar con computadores ópticos completos en el 2030.


 * Computador Molecular**

Un grupo de investigadores de la Universidad de California (UCLA) y de los Laboratorios de Hewlett-Packard ha descubierto una forma de fabricación de una puerta lógica a partir de un tipo determinado de molécula. Agrupando unos pocos cables e interruptores, se unen un grupo de moléculas que trabajan de la misma forma que un procesador de silicio, pero en una escala molecular. De este modo, se puede conseguir el poder computacional de 100 estaciones de trabajo con el tamaño de un grano de arena.

Con estos chips se podrían fabricar desde supercomputadoras del tamaño de un reloj de pulsera hasta instrumentos biomédicos que se introducirían en el cuerpo humano para ayudar al diagnóstico de enfermedades. Los primeros prototipos podrían estar listos en unos cuantos años y modelos comerciales que combinen la tecnología actual con la nueva podrían aparecer antes del 2010, cuando -según se estima- los procesadores de silicio podrían estar llegando a su límite de potencia.


 * Computador Cuántico**

El computador cuántico ha sido definido como un tipo de computador que utiliza la habilidad de los sistemas cuánticos, tales como conjuntos de átomos que se encuentran en el mismo estado a la vez. En teoría esta súper imposición permite a este tipo de computador hacer muchos diferentes cálculos al mismo tiempo. Esta capacidad permite desarrollar complejas ecuaciones, como factorizar integrales, a velocidades que no lo pueden permitir el computador convencional. En un computador cuántico la información no es almacenada en hileras de ceros y unos, como en el computador convencional, sino en series de estados mecánicos-cuánticos: tramas direcccionales de electrones, por ejemplo, u orientacion de polarización en fotones. En 1985, David Deutsch de la Universidad de Oxford señaló que las leyes de la física cuántica permitía a las partículas estar en más de un estado al mismo tiempo, haciendo ello posible que cada partícula de la CPU de un computador cuántico almacenara más de un bit de información.



Investigadores de la Universidad de Notre-Dame (Indiana) confirmaron recientemente (1999) que se pueden manipular los electrones individualmente para construir circuitos elementales que gasten cantidades ínfimas de energía. Su trabajo abre el camino al mismo tiempo a la fabricación de nuevos componentes (chips) capaces de funcionar a velocidades de 10 a 100 veces mayores que las actuales.

La base del nuevo sistema es el llamado "pozo cuántico", una trampa infinitesimal en la cual se puede encerrar un electrón. Los científicos han creado un célula cuadrada con cuatro pozos cuánticos, en la cual han introducido un par de electrones. Las fuerzas de repulsión provocan el desplazamiento de los electrones que encuentran su equilibrio cuando se ubican en los extremos de una diagonal. Así, una representará el estado 0 y la otra el estado 1, por lo cual una célula registrará un bit de información. Basta desplazar a un electrón para que el otro se acomode en la posición de equilibrio, y así cambiará del valor 0 a 1 o inversamente. (En los transistores actuales, hay que desplazar miles de electrones).

Los investigadores ya construyeron chips con múltiples células, capaces de ser utilizados para realizar las operaciones de lógica básicas en los computadores. Falta aún llegar a construir chips más complejos, capaces de contener y procesar todo lo que requiere un computador moderno. Y falta también poder obtener los mismos resultados a "temperatura ambiente", ya que el principal defecto actual del sistema es que requiere una temperatura próxima del 0 absoluto.


 * Biochip**

En opinión de Minsky (uno de los creadores de la Inteligencia Artificial) y de los expertos del Santa Fe Institute (centro de estudio de la vida artificial), después del 2010 podría desaparecer paulatinamente la frontera entre lo natural y lo artificial, lo físico y lo biológico. Steen Rasmunsen (del Santa Fe Institute) está convencido de que la vida artificial pronto nacerá en los computadores a partir de experiencias bioquímicas, donde se mezclaría biotecnología e informática. Esto permitiría -entre otras cosas- crear insectos artificiales (medio robots, medio insectos) y el implante de chips en el ser humano, quizás hacia el 2050.

En la oficina del científico Masuo Aizawa, del Intituto de Tecnología de Tokio, nada llama demasiado la atención, excepto una placa de vidrio que flota en un recipiente lleno de un líquido transparente. Se trata de un chip que parece salpicado con barro. Pero las apariencias engañan. Los grumos alargados del chip de Aizawa no son manchas, sino ¡células neurales vivas, criadas en el precursor de un circuito electrónico-biológico: el primer paso hacia la construcción neurona por neurona, de un cerebro semiartificial.

Cree que puede ser más fácil utilizar células vivas para construir máquinas inteligentes que imitar las funciones de éstas con tecnología de semiconductores, como se ha hecho tradicionalmente.

En el futuro, se podría utilizar el chip neuronal de Aizawa como interfaz entre la prótesis y el sistema nervioso de pacientes que hubieran perdido una extremidad. Si continúa el uso de células vivas en sistemas eléctricos, en los próximos años casi con toda seguridad ocurrirá el advenimiento de dispositivos computacionales que, aunque rudimentarios, serán completamente bioquímicos.

= =

Desarrollado Por:
Abreu, Ronmer C.I: V-11.833.207 López, Levic CI: V-9.937.176 Ruiz Zaida S. C.I: V-13.336.968